TY - THES A1 - Šustr, David T1 - Molecular diffusion in polyelectrolyte multilayers N2 - Research on novel and advanced biomaterials is an indispensable step towards their applications in desirable fields such as tissue engineering, regenerative medicine, cell culture, or biotechnology. The work presented here focuses on such a promising material: polyelectrolyte multilayer (PEM) composed of hyaluronic acid (HA) and poly(L-lysine) (PLL). This gel-like polymer surface coating is able to accumulate (bio-)molecules such as proteins or drugs and release them in a controlled manner. It serves as a mimic of the extracellular matrix (ECM) in composition and intrinsic properties. These qualities make the HA/PLL multilayers a promising candidate for multiple bio-applications such as those mentioned above. The work presented aims at the development of a straightforward approach for assessment of multi-fractional diffusion in multilayers (first part) and at control of local molecular transport into or from the multilayers by laser light trigger (second part). The mechanism of the loading and release is governed by the interaction of bioactives with the multilayer constituents and by the diffusion phenomenon overall. The diffusion of a molecule in HA/PLL multilayers shows multiple fractions of different diffusion rate. Approaches, that are able to assess the mobility of molecules in such a complex system, are limited. This shortcoming motivated the design of a novel evaluation tool presented here. The tool employs a simulation-based approach for evaluation of the data acquired by fluorescence recovery after photobleaching (FRAP) method. In this approach, possible fluorescence recovery scenarios are primarily simulated and afterwards compared with the data acquired while optimizing parameters of a model until a sufficient match is achieved. Fluorescent latex particles of different sizes and fluorescein in an aqueous medium are utilized as test samples validating the analysis results. The diffusion of protein cytochrome c in HA/PLL multilayers is evaluated as well. This tool significantly broadens the possibilities of analysis of spatiotemporal FRAP data, which originate from multi-fractional diffusion, while striving to be widely applicable. This tool has the potential to elucidate the mechanisms of molecular transport and empower rational engineering of the drug release systems. The second part of the work focuses on the fabrication of such a spatiotemporarily-controlled drug release system employing the HA/PLL multilayer. This release system comprises different layers of various functionalities that together form a sandwich structure. The bottom layer, which serves as a reservoir, is formed by HA/PLL PEM deposited on a planar glass substrate. On top of the PEM, a layer of so-called hybrids is deposited. The hybrids consist of thermoresponsive poly(N-isopropylacrylamide) (PNIPAM) -based hydrogel microparticles with surface-attached gold nanorods. The layer of hybrids is intended to serve as a gate that controls the local molecular transport through the PEM–solution-interface. The possibility of stimulating the molecular transport by near-infrared (NIR) laser irradiation is being explored. From several tested approaches for the deposition of hybrids onto the PEM surface, the drying-based approach was identified as optimal. Experiments, that examine the functionality of the fabricated sandwich at elevated temperature, document the reversible volume phase transition of the PEM-attached hybrids while sustaining the sandwich stability. Further, the gold nanorods were shown to effectively absorb light radiation in the tissue- and cell-friendly NIR spectral region while transducing the energy of light into heat. The rapid and reversible shrinkage of the PEM-attached hybrids was thereby achieved. Finally, dextran was employed as a model transport molecule. It loads into the PEM reservoir in a few seconds with the partition constant of 2.4, while it spontaneously releases in a slower, sustained manner. The local laser irradiation of the sandwich, which contains the fluorescein isothiocyanate tagged dextran, leads to a gradual reduction of fluorescence intensity in the irradiated region. The release system fabricated employs renowned photoresponsivity of the hybrids in an innovative setting. The results of the research are a step towards a spatially-controlled on-demand drug release system that paves the way to spatiotemporally controlled drug release. The approaches developed in this work have the potential to elucidate the molecular dynamics in ECM and to foster engineering of multilayers with properties tuned to mimic the ECM. The work aims at spatiotemporal control over the diffusion of bioactives and their presentation to the cells. N2 - Die Forschung an neuartigen und komplexen Biomaterialien ist unabdingbar für deren Einsatz in begehrten Bereichen wie der Gewebezüchtung, regenerativen Medizin, Zellkultivierung und Biotechnologie. Die hier vorgelegte Arbeit beschäftigt sich eingehend mit einem dieser vielversprechenden Materialien: Polyelektrolytische Multilayers (PEM), die aus Hyaluronsäure (Hyaluronic Acid, HA) und Poly-L-Lysin (PLL) zusammengesetzt sind. Diese gelartige Polymerbeschichtung ermöglicht es, (Bio-) Moleküle wie z.B. Proteine oder Medikamente zu akkumulieren und diese kontrolliert wieder abzugeben. Durch ihre Zusammensetzung und intrinsischen Merkmale können die PEM der Imitation einer Extrazellulären Matrix (ECM) dienen. Diese Eigenschaften machen die HA/PLL-PEM zu einem Anwärter auf verschiedene Bio-Anwendungen, wie den oben genannten. Die vorliegende Arbeit zielt auf die Entwicklung eines Ansatzes zur Einschätzung der multi-fraktionellen Diffusion in Multilayers (1. Teil), und auf die Kontrolle des lokalen molekularen Transports in und aus den Multilayers durch Laser-Stimulation (2. Teil). Der Aufnahme- und Freisetzungsmechanismus wird bestimmt von der Wechselwirkung zwischen Bioaktiva und den Bestandteilen der Multilayers, sowie allgemein vom Diffusionsprozess. Der Diffusion eines Molekül in HA/PLL-PEM weist unterschiedliche Diffusionsraten einzelner Molekülbestandteile auf. Derzeit existieren nur wenige Ansätze zur Einschätzung der Mobilität von Molekülen in derart komplexen Systemen. Diesem Mangel will die vorliegende Arbeit durch das Design eines neuartigen Evaluations-Instruments abhelfen. Dieses Instrument bedient sich eines simulationsbasierten Ansatzes zur Evaluation von Daten, die durch die fluorescence recovery after photobleaching (FRAP) -Methode erfasst wurden. Der Ansatz simuliert zunächst mögliche Szenarien der Fluoreszenz-Rückbildung, um diese anschließend mit Messdaten zu vergleichen; dazu werden Modell-Parameter angepasst, um suffiziente Vergleichswerte zu erzielen. Fluoreszierende Latex-Partikel verschiedener Größe und eine Fluoresceinlösung wurden als Kontroll- und Vergleichs-Proben verwendet, um die Ergebnisse zu überprüfen. Zusätzlich wurde die Diffusion des Proteins Cytochrom C in eine HA/PLL-PEM ausgewertet. Dieses Instrument weitet die Möglichkeiten der Analyse von spatiotemporären FRAP-Daten, die aus der multi-fraktionellen Diffusion stammen, erheblich und gleichzeitig ist es vielseitig einsetzbar. Das Instrument hat das Potential, die Mechanismen des Molekültransports weiter zu erhellen, und eine gezielte Steuerung der Freisetzung medikamentöser Wirkstoffe zu ermöglichen. Der zweite Teil der Arbeit widmet sich der Erstellung eines Systems zur spatiotemporären Wirkstofffreisetzung, das sich die HA/PLL-PEM zunutze macht. Dieses Freisetzungssystem umfasst verschiedene Lagen mit jeweils unterschiedlichen Funktionsweisen, die zusammen ein „Sandwich“ bilden. Die zugrundeliegende Schicht aus HA/PLL-PEM auf einem planaren Glassubstrat dient als Reservoir. Auf diese PEM ist eine Schicht sogenannter Hybride aufgebracht. Die Hybride bestehen aus thermoresponsiven Poly-N-Isopropylacrylamid (PNIPAM) -basierten Hydrogel-Mikropartikeln auf deren Gold-Nanostäbchen gebunden sind. Die Hybridschicht dient in der räumlichen Kontrolle des lokalen Molekültransports als „Schlupfloch“ an der Schnittstelle von PEM und Lösung. Die Möglichkeit der Stimulation des molekülaren Transports durch Bestrahlung mit einem Nah-Infrarot-Laser (NIR) wird hier untersucht. Von den mehreren getesteten Ansätzen zur Aufbringung von Hybriden auf die PEM-Oberfläche stellte sich die Trocknung als beste Möglichkeit heraus. Funktionalitätskontrollen des hergestellten Sandwiches bei erhöhter Temperatur ergaben eine reversible Volumenphasenübergang der PEM-gebundenen Hybride, wobei die Sandwich-Struktur erhalten blieb. Weiterhin wurde eine effektive Lichtabsorption durch die Gold-Nanostäbchen in den gewebe- und zellschonenden NIR-Spektrumsbereich gezeigt, wobei die aufgenommene Lichtenergie in Wärme umgewandelt wurde. Dadurch wurde eine schnelle und reversible Schrumpfung der PEM-gebundenen Hybride erreicht. Zuguterletzt wird Dextran als Modellmolekül für den Transport eingesetzt. Dieses wird in wenigen Sekunden – mit einem Verteilungskoeffizient von 2,4 – in das PEM-Reservoir aufgenommen, während es auf langsamere, anhaltende Weise freigesetzt wird. Die lokale Laser-Bestrahlung des Dextran-FITC-haltigen Sandwiches bewirkte eine schrittweise Reduktion der Fluoreszenz-Intensität in der bestrahlten Region. Das hier vorgestellte Molekül-Freisetzungssystem verwendet die vielzitierte Photoresponsivität von Hybriden auf neuartige Weise. Die Ergebnisse der Untersuchung bedeuten einen Fortschritt in Richtung eines räumlich kontrollierten, nach Bedarf steuerbaren Freisetzungs-Systems, das wiederum den Weg zu einer spatiotemporären Kontrollierbarkeit der Wirkstoff-Freisetzung bereiten könnte. Die in dieser Arbeit entwickelten Ansätze ermöglichen ein besseres Verständnis der Dynamik in der ECM, sowie die Entwicklung ECM-ähnlicher Multilayers. Die Arbeit hat die spatiotemporäre Kontrolle der Diffusion von bioaktiven Stoffen und deren Präsentation gegenüber Zellen zum Ziel. T2 - Molekulare Diffusion in Polyelektrolyt-Multischichten KW - polyelectrolyte multilayers KW - diffusion KW - simulation KW - FRAP KW - microgel KW - drug release KW - PNIPAM KW - IR laser KW - assessment of the diffusion KW - mulifractional diffusion KW - spatially and temporally controlled drug release KW - ordering of particles on the surface KW - close packing KW - dichteste Packung KW - Diffusion KW - Einschätzung der Diffusion KW - Wirkstoff-Freisetzun KW - Mikrogel KW - multi-fraktionelle Diffusion KW - Ordnung der Partikel auf der Oberfläche KW - Polyelektrolyt-Multischichten KW - Simulation KW - räumlich und zeitlich kontrollierte Wirkstoff-Freisetzung KW - FRAP KW - IR laser KW - PNIPAM Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-489038 ER - TY - THES A1 - Šedová, Barbora T1 - Heterogeneous effects of weather and climate change on human migration T1 - Heterogene Auswirkungen von Wetter und Klimawandel auf menschliche Migration N2 - While estimated numbers of past and future climate migrants are alarming, the growing empirical evidence suggests that the association between adverse climate-related events and migration is not universally positive. This dissertation seeks to advance our understanding of when and how climate migration emerges by analyzing heterogeneous climatic influences on migration in low- and middle-income countries. To this end, it draws on established economic theories of migration, datasets from physical and social sciences, causal inference techniques and approaches from systematic literature review. In three of its five chapters, I estimate causal effects of processes of climate change on inequality and migration in India and Sub-Saharan Africa. By employing interaction terms and by analyzing sub-samples of data, I explore how these relationships differ for various segments of the population. In the remaining two chapters, I present two systematic literature reviews. First, I undertake a comprehensive meta-regression analysis of the econometric climate migration literature to summarize general climate migration patterns and explain the conflicting findings. Second, motivated by the broad range of approaches in the field, I examine the literature from a methodological perspective to provide best practice guidelines for studying climate migration empirically. Overall, the evidence from this dissertation shows that climatic influences on human migration are highly heterogeneous. Whether adverse climate-related impacts materialize in migration depends on the socio-economic characteristics of the individual households, such as wealth, level of education, agricultural dependence or access to adaptation technologies and insurance. For instance, I show that while adverse climatic shocks are generally associated with an increase in migration in rural India, they reduce migration in the agricultural context of Sub-Saharan Africa, where the average wealth levels are much lower so that households largely cannot afford the upfront costs of moving. I find that unlike local climatic shocks which primarily enhance internal migration to cities and hence accelerate urbanization, shocks transmitted via agricultural producer prices increase migration to neighboring countries, likely due to the simultaneous decrease in real income in nearby urban areas. These findings advance our current understanding by showing when and how economic agents respond to climatic events, thus providing explicit contexts and mechanisms of climate change effects on migration in the future. The resulting collection of findings can guide policy interventions to avoid or mitigate any present and future welfare losses from climate change-related migration choices. N2 - Während die geschätzten Zahlen zukünftiger Klimamigranten alarmierend sind, deuten die wachsenden empirischen Belege darauf hin, dass der Klimawandel nicht automatisch zu mehr Migration führt. Denn auch wenn klimabezogene Einflüsse die Entscheidung zur Migration zunehmend beeinflussen, wird diese durch eine Vielzahl von Faktoren, wie beispielsweise den sozioökonomischen und politischen Bedingungen, beeinflusst. Der Zusammenhang zwischen Klimawandel und Migration ist also stark kontextabhängig. Diese Dissertation besteht aus fünf Artikeln und zeigt, wann und wie Klimamigration entsteht, indem sie die heterogenen klimatischen Einflüsse in Entwicklungsländern untersucht. Gestützt auf ökonomische Migrationstheorien analysiere ich Datensätze aus den Natur- und Sozialwissenschaften mithilfe von Methodiken der ökonometrischen Kausalanalyse, der Geoinformationssysteme und der systematischen Literatursynthese. In drei von fünf Kapiteln schätze ich die kausalen Auswirkungen des Klimawandels auf Ungleichheit und Migration in Indien und Subsahara Afrika. Durch die Verwendung von Interaktionstermen und die Analyse von Teilstichproben untersuche ich in Regressionsmodellen, wie sich diese Beziehungen für verschiedene Bevölkerungsgruppen unterscheiden. In den verbleibenden zwei Kapiteln fasse ich die ökonometrische Literatur zur Klimamigration systematisch zusammen. Zunächst führe ich eine umfassende Meta-Regressionsanalyse durch, um die allgemeine Klimamigrationsmuster zusammenzufassen und die widersprüchliche Evidenz zu erklären. In einem zweiten Schritt untersuche ich die ökonometrische Klimamigrationsliteratur aus einer methodologischen Perspektive, um Best-Practice-Leitlinien für künftige empirische Analysen von Klimamigration bereitzustellen. Insgesamt bestätigen die Ergebnisse dieser Dissertation, dass die klimatischen Einflüsse auf menschliche Migration heterogen sind und von den sozioökonomischen Merkmalen der einzelnen Haushalte wie dem Wohlstand und Bildungsniveau, der Abhängigkeit von der Landwirtschaft oder dem Zugang zu Anpassungstechnologien und Versicherungen, mitbestimmt werden. Ich finde beispielsweise, dass ungünstige klimatische Schocks zu einem Migrationsanstieg im ländlichen Indien führen, sie aber die Migration im landwirtschaftlichen Subsahara Afrika, wo das durchschnittliche Einkommensniveau viel niedriger ist, verhindern. Ich habe zudem herausgefunden, dass im Gegensatz zu lokalen klimatischen Schocks, die in erster Linie die Binnenmigration in die Städte verstärken und damit die Urbanisierung beschleunigen, globale Schocks über landwirtschaftliche Erzeugerpreise die Abwanderung in benachbarte Länder antreiben. Diese Ergebnisse erweitern unser derzeitiges Verständnis, indem sie verdeutlichen, wann und wie Akteure auf unterschiedliche Klimaereignisse mit der Entscheidung zur Migration reagieren. Die daraus resultierenden Erkenntnisse können helfen, Entscheidungsträger auf drei wichtige Arten zu informieren. Erstens, wenn man weiß, wer die Klimamigranten sind und welche Destinationsziele sie wählen, wird Klimamigration vorhersehbarer und damit kontrollierbarer. Dies kann verhindern, dass sie zu einer humanitären Krise wird. Zweitens hilft die Identifizierung von Bevölkerungsgruppen, die nicht in der Lage sind, sich durch Migration an die veränderten klimatischen Bedingungen anzupassen, dabei, unfreiwillige Immobilität zu vermeiden, was wiederum auch eine potenzielle humanitären Krise verhindert. Drittens können all diese Informationen helfen, Kosten und Nutzen der Klima(im)mobilität genauer zu bewerten und so die Social Cost of Carbon genauer einzuschätzen. KW - migration KW - weather KW - climate change KW - agriculture KW - food prices KW - inequality KW - econometrics KW - Landwirtschaft KW - Klimawandel KW - Ökonometrie KW - Lebensmittelpreise KW - Ungleichheit KW - Migration KW - Wetter Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536733 ER - TY - THES A1 - Şener, Ulaş T1 - Die relative Autonomie der Zentralbank BT - Eine politökonomische Analyse der türkischen Geldpolitik nach 2001 T2 - Potsdam Economic Studies N2 - Die vorliegende Arbeit untersucht die Politik der Zentralbankunabhängigkeit (ZBU) am Beispiel der Türkei. Im Mittelpunkt der Arbeit stehen theoretische und empirische Fragen und Probleme, die sich im Zusammenhang mit der ZBU stellen und anhand der türkischen Geldpolitik diskutiert werden. Ein zentrales Ziel der Arbeit besteht darin, zu untersuchen, ob und inwiefern die türkische Zentralbank nach Erlangung der de jure institutionellen Unabhängigkeit tatsächlich als unabhängig und entpolitisiert eingestuft werden kann. Um diese Forschungsfrage zu beantworten, werden die institutionellen Bedingungen, die Ziele und die Regeln, nach denen sich die türkische Geldpolitik richtet, geklärt. Anschließend wird empirisch überprüft, ob die geldpolitische Praxis der CBRT sich an dem offiziell vorgegebenen Regelwerk orientiert. Die Hauptthese dieser Arbeit lautet, dass die formelle Unabhängigkeit der CBRT und die regelorientierte Geldpolitik nicht mit einer Entpolitisierung der Geldpolitik in der Türkei gleichzusetzen ist. Als Alternative schlägt die vorliegende Studie vor, den institutionellen Status der CBRT als einen der relativen Autonomie zu untersuchen. Auch eine de jure unabhängige Zentralbank kann sich nicht von politischen Eingriffen abkoppeln, wie das Fallbeispiel Türkei zeigen wird. N2 - This book examines the relationship between central bank independence and monetary policy in Turkey with a political economic approach. Focusing on the Turkish example, it addresses the theoretical and empirical questions that arise in connection with central bank independence. It analyses the Turkish central bank's institutional statue and its implications for monetary policy since its formal independence in 2001. The main outcome is that Turkey's central bank cannot be regarded as an independent and depoliticized monetary institution, not least due to the high political pressure the ruling Justice and Development Party was able to put on monetary policy decision, especially after the global financial crises 2007-08. The book investigates further domestic and international political economic conditions and developments in regards to the exertion of influence on the Turkish monetary policy. The case of Turkey shows that even a formally independent central bank is unable to detach itself from political interference, in spite of a strong ideology of de-politicized monetary policy. To conceptually grasp this outcome the present title proposes an understanding of the CBRT’s institutional status as one of ‘relative autonomy’. T3 - Potsdam Economic Studies - 5 KW - Geldpolitik KW - Zentralbankunabhängigkeit KW - Türkei KW - relative Autonomie KW - politische Ökonomie KW - monetary policy KW - central bank independence KW - Turkey KW - relative autonomy KW - political economy Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88856 SN - 978-3-86956-362-6 SN - 2196-8691 SN - 2196-9302 VL - 5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Ünsal, Feyzan T1 - Politische und religiöse Symbole im Betrieb : eine rechtsvergleichende Studie zum deutschen und türkischen Recht T2 - Europäische Hochschulschriften : Reihe 2, Rechtswissenschaft Y1 - 2009 SN - 978-3-631-59241-0 VL - 4926 PB - Lang CY - Frankfurt am Main ER - TY - THES A1 - Öztürk, Ugur T1 - Learning more to predict landslides T1 - Ein verbessertes Wissen zur Prognose von Hangrutschungen N2 - Landslides are frequent natural hazards in rugged terrain, when the resisting frictional force of the surface of rupture yields to the gravitational force. These forces are functions of geological and morphological factors, such as angle of internal friction, local slope gradient or curvature, which remain static over hundreds of years; whereas more dynamic triggering events, such as rainfall and earthquakes, compromise the force balance by temporarily reducing resisting forces or adding transient loads. This thesis investigates landslide distribution and orientation due to landslide triggers (e.g. rainfall) at different scales (6-4∙10^5 km^2) and aims to link rainfall movement with the landslide distribution. It additionally explores the local impacts of the extreme rainstorms on landsliding and the role of precursory stability conditions that could be induced by an earlier trigger, such as an earthquake. Extreme rainfall is a common landslide trigger. Although several studies assessed rainfall intensity and duration to study the distribution of thus triggered landslides, only a few case studies quantified spatial rainfall patterns (i.e. orographic effect). Quantifying the regional trajectories of extreme rainfall could aid predicting landslide prone regions in Japan. To this end, I combined a non-linear correlation metric, namely event synchronization, and radial statistics to assess the general pattern of extreme rainfall tracks over distances of hundreds of kilometers using satellite based rainfall estimates. Results showed that, although the increase in rainfall intensity and duration positively correlates with landslide occurrence, the trajectories of typhoons and frontal storms were insufficient to explain landslide distribution in Japan. Extreme rainfall trajectories inclined northwestwards and were concentrated along some certain locations, such as coastlines of southern Japan, which was unnoticed in the landslide distribution of about 5000 rainfall-triggered landslides. These landslides seemed to respond to the mean annual rainfall rates. Above mentioned findings suggest further investigation on a more local scale to better understand the mechanistic response of landscape to extreme rainfall in terms of landslides. On May 2016 intense rainfall struck southern Germany triggering high waters and landslides. The highest damage was reported at the Braunsbach, which is located on the tributary-mouth fan formed by the Orlacher Bach. Orlacher Bach is a ~3 km long creek that drains a catchment of about ~6 km^2. I visited this catchment in June 2016 and mapped 48 landslides along the creek. Such high landslide activity was not reported in the nearby catchments within ~3300 km^2, despite similar rainfall intensity and duration based on weather radar estimates. My hypothesis was that several landslides were triggered by rainfall-triggered flash floods that undercut hillslope toes along the Orlacher Bach. I found that morphometric features such as slope and curvature play an important role in landslide distribution on this micro scale study site (<10 km^2). In addition, the high number of landslides along the Orlacher Bach could also be boosted by accumulated damages on hillslopes due karst weathering over longer time scales. Precursory damages on hillslopes could also be induced by past triggering events that effect landscape evolution, but this interaction is hard to assess independently from the latest trigger. For example, an earthquake might influence the evolution of a landscape decades long, besides its direct impacts, such as landslides that follow the earthquake. Here I studied the consequences of the 2016 Kumamoto Earthquake (MW 7.1) that triggered some 1500 landslides in an area of ~4000 km^2 in central Kyushu, Japan. Topography, i.e. local slope and curvature, both amplified and attenuated seismic waves, thus controlling the failure mechanism of those landslides (e.g. progressive). I found that topography fails in explaining the distribution and the preferred orientation of the landslides after the earthquake; instead the landslides were concentrated around the northeast of the rupture area and faced mostly normal to the rupture plane. This preferred location of the landslides was dominated mainly by the directivity effect of the strike-slip earthquake, which is the propagation of wave energy along the fault in the rupture direction; whereas amplitude variations of the seismic radiation altered the preferred orientation. I suspect that the earthquake directivity and the asymmetry of seismic radiation damaged hillslopes at those preferred locations increasing landslide susceptibility. Hence a future weak triggering event, e.g. scattered rainfall, could further trigger landslides at those damaged hillslopes. N2 - Hangrutschungen treten häufig in steilem Gelände auf, wenn die Erdanziehungskraft die Scherkräfte an der Oberfläche übersteigt. Diese Kräfte beinhalten geologische und geomorphologische Faktoren wie den Reibungswinkel oder die Neigung und Krümmung von Hängen, die über Jahrhunderte statisch bleiben können. Dynamische Ereignisse wie Regenfälle und Erdbeben können hingegen das Kräftegleichgewicht beeinträchtigen, indem sie Widerstandskräfte vorübergehend reduzieren oder Lasten temporär hinzufügen. Diese Arbeit untersucht die Verteilung und Orientierung von Hangrutschungen in Abhängigkeit von Auslösern (z.B. Niederschlag) auf verschiedenen Skalenebenen (6-4∙10^5 km^2) und verknüpft die Bewegung des Niederschlagssystems mit der Hangrutschungsverteilung. Zudem werden lokale Auswirkungen von extremen Gewittern auf Hangrutschungen untersucht, sowie vorausgehende Stabilitätsbedingungen, die durch ein früheres Ereignis, beispielsweise ein Erdbeben, verändert werden können. Extremer Niederschlag ist ein weithin bekannter Auslöser für Hangrutschungen. Obwohl mehrere Studien die Verteilung von Hangrutschungen mit der Niederschlagsintensität und -dauer verglichen haben, beachteten nur wenige Fallstudien das räumliche Bewegungsmuster des Niederschlags, i.e. den orographischen Effekt. Eine solche Quantifizierung könnte die Vorhersage von hangrutschungsgefährdete Regionen in Japan verbessern. Hierfür habe ich ein nicht-lineares Korrelationsmaß (event synchronization) auf regionale Sturmbahnen in Japan angewendet, um deren räumliche Verteilung durch satellitengestützen Regenschätzungen nachzuvollziehen. Die durchgeführten Untersuchungen zeigten, dass sich die Verteilung von Hangrutschungen nur unzureichend mit den Zugbahnen von Taifunen und Sturmtiefen erklären lässt. Die Stabilität von Hängen scheint mehr durch mittlere Jahresniederschlagsmengen beeinflusst zu werden. Erzielte Ergebnisse zeigen, dass weitere Untersuchungen auf lokaler Ebene nötig sind, um die unmittelbare Auswirkungen von Extremniederschlägen auf Hangstabilität und -rutschungen besser zu verstehen. Im Mai 2016 kam es in Süddeutschland zu einem heftigen Gewitter, das Hochwasser und Hangrutschungen ausgelöst hat. Der höchste Schaden wurde in Braunsbach, dessen Zentrum sich am Zufluss des Orlacher Bachs befindet, gemeldet. Der Orlacher Bach ist ~3 lang und hat ein Einzugsgebiet von etwa ~6 km^2. Ich habe dieses Einzugsgebiet im Juni 2016 besucht und 48 Hangrutschungen entlang des Baches kartiert. Ich vermutete, dass mehrere Hangrutschungen durch Sturzfluten ausgelöst wurden, welche die Hänge entlang des Orlacher Baches unterspülten. Ich stellte fest, dass morphometrische Merkmale wie die lokale Hangneigung und -krümmung eine wichtige Rolle bei der Hangrutschungsverteilung auf dieser Mikroskala spielen (<10 km^2). Darüber hinaus könnte die hohe Anzahl von Hangrutschungen am Orlacher Bach auch durch Karstverwitterung über längere Zeiträume verstärkt werden. Zahlreiche in der Vergangenheit liegende Ereignisse können die Stabilität eines Hanges beeinflussen. Der Einfluss solcher Ereignisse ist nur sehr schwer unabhängig voneinander abschätzbar. Beispielseise könnte ein Erdbeben die Entwicklung einer Landschaft über Jahrzehnte hin beeinflussen. Hier erforsche ich die Folgen des Kumamoto-Erdbebens 2016 (MW 7.1) das im Zentrum von Kyushu, Japan, ca. 1500 Hangrutschungen in einem Gebiet von ~4000 km^2 ausgelöst hat. Die Topographie (Hangneigung und -krümmung) verstärkte schwächte seismische Wellen gleichermaßen ab, wodurch der Auslösemechanismus dieser Hangrutschungen (z.B. progressiv) gesteuert wird. Ich konnte belegen, dass die Topographie die Verteilung und die bevorzugte Ausrichtung der Hangrutsche nach dem Erdbeben nicht erklären kann; stattdessen waren die Hangrutschungen um den Nordosten des Bruchgebiets herum konzentriert und standen meist senkrecht zur Bruchfläche. Diese bevorzugte Lage der Erdrutsche wurde hauptsächlich durch den Richtwirkungseffekt des Blattverschiebung-Erdbebens dominiert. Bei diesem handelt es sich um die Ausbreitung der Wellenenergie entlang des Bruches in Bruchrichtung, während Amplitudenvariationen der seismischen Strahlung die bevorzugte Orientierung ändern. Ich vermute, dass die Richtwirkung des Erdbebens und die Asymmetrie der seismischen Strahlung die Hangneigung an diesen bevorzugten Stellen schädigten und die Anfälligkeit für Hangrutschungen erhöhten. Daher könnte ein zukünftiges schwaches Ereignis wie z.B. ein unbedeutender Niederschlag an diesen beschädigten Hängen weitere Hangrutschungen auslösen. KW - landslides KW - complex networks KW - event synchronization KW - typhoons KW - Kumamoto earthquake KW - Braunsbach flash flood KW - Hangrutschungen KW - komplexes Netzwerk KW - Synchronisation von Ereignissen KW - Taifune KW - Kumamoto Erdbeben KW - Braunsbach Sturzflut Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426439 ER - TY - THES A1 - Öz, Alpercan T1 - Das Spannungsverhältnis zwischen dem Selbstbestimmungsrecht des Opfers und dem strafrechtlichen Lebensschutz BT - Eine Bewertung der höchstrichterlichen Rechtsprechung T2 - Neue Juristische Beiträge N2 - Unser modernes Strafrechtsbild ist geprägt von dem Gedanken, dass das Strafrecht den Bürgern ein freies und friedliches Zusammenleben unter Gewährleistung aller verfassungsrechtlich garantierten Grundrechte sichert. Der Einsatz des Strafrechts bedarf der Legitimation und darf nicht aus moralischen Vorstellungen oder Gedanken abgeleitet werden. Strafbar kann es demnach nicht sein, wenn ein Rechtsgutsträger über ein ihm disponibles Rechtsgut frei verfügt. Oftmals stehen hierbei der strafrechtliche Lebensschutz und das Selbstbestimmungsrecht des Einzelnen in einem Spannungsverhältnis. Die vorliegende Arbeit hat untersucht, wie sich dieses Spannungsverhältnis in der höchstrichterlichen Judikatur entwickelt hat und wie es nunmehr gelöst wird. Konkret stellt sich hierbei die Frage, wie es strafrechtlich bewertet wurde, wenn jemand einen Tötungserfolg mitverursacht hat, der zugleich auf einem freiverantwortlichen Willensentschluss des Opfers beruhte. Y1 - 2021 SN - 978-3-8316-4895-5 SN - 978-3-8316-7621-7 IS - 133 PB - utzverlag GmbH CY - München ER - TY - THES A1 - Ötsch, Rainald T1 - Stromerzeugung in Deutschland unter den Rahmenbedingungen von Klimapolitik und liberalisiertem Strommarkt : Bewertung von Kraftwerksinvestitionen mit Bayes’schen Einflussdiagrammen T1 - Electricity generation in Germany under the conditions of climate policy and liberalized electricity market : valuation of power plant investments with Bayesian influence diagrams N2 - Mit der Liberalisierung des Strommarkts, den unsicheren Aussichten in der Klimapolitik und stark schwankenden Preisen bei Brennstoffen, Emissionsrechten und Kraftwerkskomponenten hat bei Kraftwerksinvestitionen das Risikomanagement an Bedeutung gewonnen. Dies äußert sich im vermehrten Einsatz probabilistischer Verfahren. Insbesondere bei regulativen Risiken liefert der klassische, häufigkeitsbasierte Wahrscheinlichkeitsbegriff aber keine Handhabe zur Risikoquantifizierung. In dieser Arbeit werden Kraftwerksinvestitionen und -portfolien in Deutschland mit Methoden des Bayes'schen Risikomanagements bewertet. Die Bayes'sche Denkschule begreift Wahrscheinlichkeit als persönliches Maß für Unsicherheit. Wahrscheinlichkeiten können auch ohne statistische Datenanalyse allein mit Expertenbefragungen gewonnen werden. Das Zusammenwirken unsicherer Werttreiber wurde mit einem probabilistischen DCF-Modell (Discounted Cash Flow-Modell) spezifiziert und in ein Einflussdiagramm mit etwa 1200 Objekten umgesetzt. Da der Überwälzungsgrad von Brennstoff- und CO2-Kosten und damit die Höhe der von den Kraftwerken erwirtschafteten Deckungsbeiträge im Wettbewerb bestimmt werden, reicht eine einzelwirtschaftliche Betrachtung der Kraftwerke nicht aus. Strompreise und Auslastungen werden mit Heuristiken anhand der individuellen Position der Kraftwerke in der Merit Order bestimmt, d.h. anhand der nach kurzfristigen Grenzkosten gestaffelten Einsatzreihenfolge. Dazu wurden 113 thermische Großkraftwerke aus Deutschland in einer Merit Order vereinigt. Das Modell liefert Wahrscheinlichkeitsverteilungen für zentrale Größen wie Kapitalwerte von Bestandsportfolien sowie Stromgestehungskosten und Kapitalwerte von Einzelinvestitionen (Steinkohle- und Braunkohlekraftwerke mit und ohne CO2-Abscheidung sowie GuD-Kraftwerke). Der Wert der Bestandsportfolien von RWE, E.ON, EnBW und Vattenfall wird primär durch die Beiträge der Braunkohle- und Atomkraftwerke bestimmt. Erstaunlicherweise schlägt sich der Emissionshandel nicht in Verlusten nieder. Dies liegt einerseits an den Zusatzgewinnen der Atomkraftwerke, andererseits an den bis 2012 gratis zugeteilten Emissionsrechten, welche hohe Windfall-Profite generieren. Dadurch erweist sich der Emissionshandel in seiner konkreten Ausgestaltung insgesamt als gewinnbringendes Geschäft. Über die Restlaufzeit der Bestandskraftwerke resultiert ab 2008 aus der Einführung des Emissionshandels ein Barwertvorteil von insgesamt 8,6 Mrd. €. In ähnlicher Dimension liegen die Barwertvorteile aus der 2009 von der Bundesregierung in Aussicht gestellten Laufzeitverlängerung für Atomkraftwerke. Bei einer achtjährigen Laufzeitverlängerung ergäben sich je nach CO2-Preisniveau Barwertvorteile von 8 bis 15 Mrd. €. Mit höheren CO2-Preisen und Laufzeitverlängerungen von bis zu 28 Jahren würden 25 Mrd. € oder mehr zusätzlich anfallen. Langfristig erscheint fraglich, ob unter dem gegenwärtigen Marktdesign noch Anreize für Investitionen in fossile Kraftwerke gegeben sind. Zu Beginn der NAP 2-Periode noch rentable Investitionen in Braunkohle- und GuD-Kraftwerke werden mit der auslaufenden Gratiszuteilung von Emissionsrechten zunehmend unrentabler. Die Rentabilität wird durch Strommarkteffekte der erneuerbaren Energien und ausscheidender alter Gas- und Ölkraftwerke stetig weiter untergraben. Steinkohlekraftwerke erweisen sich selbst mit anfänglicher Gratiszuteilung als riskante Investition. Die festgestellten Anreizprobleme für Neuinvestitionen sollten jedoch nicht dem Emissionshandel zugeschrieben werden, sondern resultieren aus den an Grenzkosten orientierten Strompreisen. Das Anreizproblem ist allerdings bei moderaten CO2-Preisen am größten. Es gilt auch für Kraftwerke mit CO2-Abscheidung: Obwohl die erwarteten Vermeidungskosten für CCS-Kraftwerke gegenüber konventionellen Kohlekraftwerken im Jahr 2025 auf 25 €/t CO2 (Braunkohle) bzw. 38,5 €/t CO2 (Steinkohle) geschätzt werden, wird ihr Bau erst ab CO2-Preisen von 50 bzw. 77 €/t CO2 rentabel. Ob und welche Kraftwerksinvestitionen sich langfristig rechnen, wird letztlich aber politisch entschieden und ist selbst unter stark idealisierten Bedingungen kaum vorhersagbar. N2 - Power plant investors face large uncertainties due to ongoing liberalization, climate policy, and long investment horizons. This study provides a probabilistic appraisal of power plant investments within the framework of Bayesian decision theory. A Bayesian influence diagram is used for setting up a discounted cash flow model and analysing the profitability of power plants. As the study explicitly models merit order pricing, the pass-through of random fuel and carbon costs may be analysed. The study derives probabilistic statements about net present values of single investments and company portfolios and explores the sensitivity of profits to variations of select input variables. In the majority of cases, an increase in the price of emission allowances also increases the net present value of existing power plant portfolios. A substantially increased carbon prices also is the prerequisite to diversify power plant portfolios by gas and CCS plants. For the currently prevailing German electricity market, we argue that investors may lack incentives for new investments in fossil generation, a finding that holds true also with implementation of CCS. Our estimates are conservative, as profitability will further deteriorate with the build-up of renewables. KW - Elektrizitätsmarkt KW - Liberalisierung KW - Emissionshandel KW - Bayes-Entscheidungstheorie KW - Deutschland KW - Bayesian statistical decision theory KW - Electric power production KW - Investments environmental aspects Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69056 ER - TY - THES A1 - Önel, Hakan T1 - Electron acceleration in a flare plasma via coronal circuits T1 - Elektronenbeschleunigung im Flareplasma modelliert mit koronalen Schaltkreisen N2 - The Sun is a star, which due to its proximity has a tremendous influence on Earth. Since its very first days mankind tried to "understand the Sun", and especially in the 20th century science has uncovered many of the Sun's secrets by using high resolution observations and describing the Sun by means of models. As an active star the Sun's activity, as expressed in its magnetic cycle, is closely related to the sunspot numbers. Flares play a special role, because they release large energies on very short time scales. They are correlated with enhanced electromagnetic emissions all over the spectrum. Furthermore, flares are sources of energetic particles. Hard X-ray observations (e.g., by NASA's RHESSI spacecraft) reveal that a large fraction of the energy released during a flare is transferred into the kinetic energy of electrons. However the mechanism that accelerates a large number of electrons to high energies (beyond 20 keV) within fractions of a second is not understood yet. The thesis at hand presents a model for the generation of energetic electrons during flares that explains the electron acceleration based on real parameters obtained by real ground and space based observations. According to this model photospheric plasma flows build up electric potentials in the active regions in the photosphere. Usually these electric potentials are associated with electric currents closed within the photosphere. However as a result of magnetic reconnection, a magnetic connection between the regions of different magnetic polarity on the photosphere can establish through the corona. Due to the significantly higher electric conductivity in the corona, the photospheric electric power supply can be closed via the corona. Subsequently a high electric current is formed, which leads to the generation of hard X-ray radiation in the dense chromosphere. The previously described idea is modelled and investigated by means of electric circuits. For this the microscopic plasma parameters, the magnetic field geometry and hard X-ray observations are used to obtain parameters for modelling macroscopic electric components, such as electric resistors, which are connected with each other. This model demonstrates that such a coronal electric current is correlated with large scale electric fields, which can accelerate the electrons quickly up to relativistic energies. The results of these calculations are encouraging. The electron fluxes predicted by the model are in agreement with the electron fluxes deduced from the measured photon fluxes. Additionally the model developed in this thesis proposes a new way to understand the observed double footpoint hard X-ray sources. N2 - Die Sonne ist ein Stern, der aufgrund seiner räumlichen Nähe einen großen Einfluss auf die Erde hat. Seit jeher hat die Menschheit versucht die "Sonne zu verstehen" und besonders im 20. Jahrhundert gelang es der Wissenschaft viele der offenen Fragen mittels Beobachtungen zu beantworten und mit Modellen zu beschreiben. Die Sonne ist ein aktiver Stern, dessen Aktivität sich in seinem magnetischen Zyklus ausdrückt, welcher in enger Verbindung zu den Sonnenfleckenzahlen steht. Flares spielen dabei eine besondere Rolle, da sie hohe Energien auf kurzen Zeitskalen freisetzen. Sie werden begleitet von erhöhter Strahlungsemission über das gesamte Spektrum hinweg und setzen darüber hinaus auch energetische Teilchen frei. Beobachtungen von harter Röntgenstrahlung (z.B. mit der RHESSI Raumsonde der NASA) zeigen, dass ein großer Teil der freigesetzten Energie in die kinetische Energie von Elektronen transferiert wird. Allerdings ist nach wie vor nicht verstanden, wie die Beschleunigung der vielen Elektronen auf hohe Energien (jenseits von 20 keV) in Bruchteilen einer Sekunde erfolgt. Die vorliegende Arbeit präsentiert ein Model für die Erzeugung von energetischen Elektronen während solarer Flares, das auf mit realen Beobachtungen gewonnenen Parametern basiert. Danach bauen photosphärische Plasmaströmungen elektrische Spannungen in den aktiven Regionen der Photosphäre auf. Für gewöhnlich sind diese Potentiale mit elektrischen Strömen verbunden, die innerhalb der Photosphäre geschlossen sind. Allerdings kann infolge von magnetischer Rekonnektion eine magnetische Verbindung in der Korona aufgebaut werden, die die Regionen von magnetisch unterschiedlicher Polarität miteinander verbindet. Wegen der deutlich höheren koronalen elektrischen Leitfähigkeit, kann darauf die photosphärische Spannungsquelle über die Korona geschlossen werden. Das auf diese Weise generierte elektrische Feld führt nachfolgend zur Erzeugung eines hohen elektrischen Stromes, der in der dichten Chromosphäre harte Röntgenstrahlung generiert. Die zuvor erläuterte Idee wird mit elektrischen Schaltkreisen modelliert und untersucht. Dafür werden die mikroskopischen Plasmaparameter, die Geometrie des Magnetfeldes und Beobachtungen der harten Röntgenstrahlung verwendet, um makroskopische elektronische Komponenten, wie z.B. elektrische Widerstände zu modellieren und miteinander zu verbinden. Es wird gezeigt, dass der auftretende koronale Strom mit hohen elektrischen Feldern verbunden ist, welche Elektronen schnell auf hohe relativistische Energien beschleunigen können. Die Ergebnisse dieser Berechnungen sind ermutigend. Die vorhergesagten Elektronenflüsse stehen im Einklang mit aus gemessenen Photonenflüssen gewonnenen Elektronenflüssen. Zudem liefert das Model einen neuen Ansatz für das Verständnis der harten Röntgendoppelquellen in den Fußpunkten. KW - Elektronenbeschleunigung KW - Flarephysik KW - koronale Stromsysteme KW - electron acceleration KW - physics of flares KW - coronal currents Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29035 ER - TY - THES A1 - Çakıl, Büşra T1 - Rehabilitierung des Ehrbegriffs N2 - Heutzutage ist es üblich, die Ehre als einen obsoleten Begriff zu betrachten, der nur einem archaischen Denkmodell zuzuordnen ist und keine handlungsprägende Größe in der Gegenwartsgesellschaft darstellt. Die Ehrenmorde, die heute noch in unterschiedlichen Teilen der Welt verübt werden, scheinen diese Behauptung zu bestätigen. In diesem Buch wird jedoch die These vertreten, dass nicht der Ehrbegriff, sondern seine Deutungen archaischer Natur und daher in Frage zu stellen sind. Die Ehre ist die Bezeichnung des sozialen Werts eines Menschen, den er infolge seiner achtenswerten Handlungen erlangt. Also kann sie kein Motiv für moralisch fragwürdige Praktiken bilden. Vor diesem Hintergrund werden die Formen und die Voraussetzungen der Ehre dargestellt, die sowohl in Bezug auf unsere Zeit anpassungsfähig als auch ethisch tragbar sind. Y1 - 2017 SN - 978-3-8288-4133-8 PB - Tectum CY - Baden-Baden ER - TY - THES A1 - Zündorf, Irmgard T1 - Der Preis der Marktwirtschaft : staatliche Preispolitik und Lebensstandard in Westdeutschland 1948 bis 1963 T2 - Vierteljahrschrift für Sozial- und Wirtschaftsgeschichte $ Beihefte Y1 - 2006 SN - 3-515-08861-X VL - 186 PB - Steiner CY - Stuttgart ER - TY - THES A1 - Zühlke, Martin T1 - Elektrosprayionisation Ionenmobilitätsspektrometrie T1 - Electrospray ionization Ion mobility spectrometry BT - Entwicklung, Charakterisierung und Anwendung zur HPLC-Detektion und zum Reaktionsmonitoring BT - development, characterization and application for HPLC detection and reaction monitoring N2 - Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt. In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt. Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt. N2 - Electrospray ionization (ESI) is one of the most widespread ionization techniques for liquid samples in mass and ion mobility (IM) spectrometry. Due to its gentle ionization, ESI is often used for sensitive, complex molecules in biology and medicine. However, it is also applicable to a wide range of substance classes. IM spectrometry was originally developed for the detection of gaseous samples, which are mainly ionized by radioactive sources. It is the only analytical method in which isomers can be separated in real time and directly identified by their characteristic IM. ESI was introduced to IM spectrometry by the Hill Group in the 90s. So far, the combination was only used by a limited number of groups and therefore there is still a large development potential. A highly promising field of application is highperformance liquid chromatography (HPLC) for multidimensional separations. At present, HPLC is the standard method for the separation of complex samples in routine analysis. However, HPLC separations are often time-consuming and the use of different solvents, high flow rates, buffers, as well as solvent gradients impose high demands on the detectors. ESI IM spectrometry was already used as an HPLC detector in a number of studies. However, these studies were restricted to splitting or low flow rates of the mobile phase. In this cumulative thesis, an ESI IM spectrometer was developed as an HPLC detector for the flow rate range of 200-1500 μl/min for the first time. Based on five publications, (1) the suitability of the spectrometer as an HPLC detector was comprehensively characterized, (2) selected complex separations are presented, and (3) the application to the reaction monitoring as well as (4, 5) possible further developments are shown. With the in-house developed ESI IM spectrometer, typical HPLC conditions such as water contents in the mobile phase of up to 90%, buffer concentrations of up to 10 mM, as well as detection limits of up to 50 nM, were achieved successfully. Furthermore, on the basis of a complex separation (24 pesticides/18 amino acids), it could be demonstrated that HPLC and IM spectrometry possess a high degree of orthogonality. An effective peak capacity of 240 was thus realized. Substances coeulating on the HPLC column could be separated in the drift time and were identified by their IM. Thus, the overall separation times could be significantly reduced. The applicability of the ESI IM spectrometer for the monitoring of chemical syntheses was demonstrated for a three-stage reaction. The main starting materials, intermediates and products of all stages could be identified. A quantitative evaluation was possible both by means of a short HPLC pre-separation as well as by a newly developed calibration procedure, which takes charge competition during ESI into account, without HPLC. In the second part of the thesis, two further developments of the spectrometer are presented. One possibility is a reduction of the pressure to the intermediate range (300 - 1000 mbar) with the aim of reducing the required voltages. With the help of scattered light images and current-voltage curves, a reduced release of analyte ions from the droplets was determined at low pressures. However, these losses could be compensated for by higher electric field strengths. Therefore, the same detection limits were achieved at 500 mbar and at 1 bar. The second development is a novel ion gate with pulse switching, which allows a doubling of the resolution up to R > 100 with equal sensitivity. A possible application in the field of peptide analysis was demonstrated, achieving a considerable resolutions of R = 90 for the peptides. KW - HPLC KW - HPLC KW - Ionenmobilitätsspektrometrie KW - Elektrosprayionisation KW - ion mobility spectrometry KW - electrospray ionization (ESI) Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407452 ER - TY - THES A1 - Zöller, Gert T1 - Analyse raumzeitlicher Muster in Erdbebendaten N2 - Die vorliegende Arbeit beschäftigt sich mit der Charakterisierung von Seismizität anhand von Erdbebenkatalogen. Es werden neue Verfahren der Datenanalyse entwickelt, die Aufschluss darüber geben sollen, ob der seismischen Dynamik ein stochastischer oder ein deterministischer Prozess zugrunde liegt und was daraus für die Vorhersagbarkeit starker Erdbeben folgt. Es wird gezeigt, dass seismisch aktive Regionen häufig durch nichtlinearen Determinismus gekennzeichent sind. Dies schließt zumindest die Möglichkeit einer Kurzzeitvorhersage ein. Das Auftreten seismischer Ruhe wird häufig als Vorläuferphaenomen für starke Erdbeben gedeutet. Es wird eine neue Methode präsentiert, die eine systematische raumzeitliche Kartierung seismischer Ruhephasen ermöglicht. Die statistische Signifikanz wird mit Hilfe des Konzeptes der Ersatzdaten bestimmt. Als Resultat erhält man deutliche Korrelationen zwischen seismischen Ruheperioden und starken Erdbeben. Gleichwohl ist die Signifikanz dafür nicht hoch genug, um eine Vorhersage im Sinne einer Aussage über den Ort, die Zeit und die Stärke eines zu erwartenden Hauptbebens zu ermöglichen. KW - Erdbeben KW - nichtlineare Dynamik Y1 - 1999 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000122 ER - TY - THES A1 - Zölch, Martina T1 - Aktivitäten der Handlungsverschränkung : Theorie und Praxis der Werkstattsteuerung in der gruppenorientierten Fertigung Y1 - 1997 ER - TY - THES A1 - Zurell, Damaris T1 - Integrating dynamic and statistical modelling approaches in order to improve predictions for scenarios of environmental change T1 - Integration dynamischer und statistischer Modellansätze zur Verbesserung von Arealvorhersagen für Szenarien globalen Wandels N2 - Species respond to environmental change by dynamically adjusting their geographical ranges. Robust predictions of these changes are prerequisites to inform dynamic and sustainable conservation strategies. Correlative species distribution models (SDMs) relate species’ occurrence records to prevailing environmental factors to describe the environmental niche. They have been widely applied in global change context as they have comparably low data requirements and allow for rapid assessments of potential future species’ distributions. However, due to their static nature, transient responses to environmental change are essentially ignored in SDMs. Furthermore, neither dispersal nor demographic processes and biotic interactions are explicitly incorporated. Therefore, it has often been suggested to link statistical and mechanistic modelling approaches in order to make more realistic predictions of species’ distributions for scenarios of environmental change. In this thesis, I present two different ways of such linkage. (i) Mechanistic modelling can act as virtual playground for testing statistical models and allows extensive exploration of specific questions. I promote this ‘virtual ecologist’ approach as a powerful evaluation framework for testing sampling protocols, analyses and modelling tools. Also, I employ such an approach to systematically assess the effects of transient dynamics and ecological properties and processes on the prediction accuracy of SDMs for climate change projections. That way, relevant mechanisms are identified that shape the species’ response to altered environmental conditions and which should hence be considered when trying to project species’ distribution through time. (ii) I supplement SDM projections of potential future habitat for black grouse in Switzerland with an individual-based population model. By explicitly considering complex interactions between habitat availability and demographic processes, this allows for a more direct assessment of expected population response to environmental change and associated extinction risks. However, predictions were highly variable across simulations emphasising the need for principal evaluation tools like sensitivity analysis to assess uncertainty and robustness in dynamic range predictions. Furthermore, I identify data coverage of the environmental niche as a likely cause for contrasted range predictions between SDM algorithms. SDMs may fail to make reliable predictions for truncated and edge niches, meaning that portions of the niche are not represented in the data or niche edges coincide with data limits. Overall, my thesis contributes to an improved understanding of uncertainty factors in predictions of range dynamics and presents ways how to deal with these. Finally I provide preliminary guidelines for predictive modelling of dynamic species’ response to environmental change, identify key challenges for future research and discuss emerging developments. N2 - Das Vorkommen von Arten wird zunehmend bedroht durch Klima- und Landnutzungswandel. Robuste Vorhersagen der damit verbundenen Arealveränderungen sind ausschlaggebend für die Erarbeitung dynamischer und nachhaltiger Naturschutzstrategien. Habitateignungsmodelle erstellen statistische Zusammenhänge zwischen dem Vorkommen einer Art und relevanten Umweltvariablen und erlauben zügige Einschätzungen potentieller Arealveränderungen. Dabei werden jedoch transiente Dynamiken weitgehend ignoriert sowie demographische Prozesse und biotische Interaktionen. Daher wurden Vorschläge laut, diese statistischen Modelle mit mechanistischeren Ansätzen zu koppeln. In der vorliegenden Arbeit zeige ich zwei verschiedene Möglichkeiten solcher Kopplung auf. (i) Ich beschreibe den sogenannten ‚Virtuellen Ökologen’-Ansatz als mächtiges Validierungswerkzeug, in dem mechanistische Modelle virtuelle Testflächen bieten zur Erforschung verschiedener Probenahmedesigns oder statistischer Methoden sowie spezifischer Fragestellungen. Auch verwende ich diesen Ansatz, um systematisch zu untersuchen wie sich transiente Dynamiken sowie Arteigenschaften und ökologische Prozesse auf die Vorhersagegüte von Habitateignungsmodellen auswirken. So kann ich entscheidende Prozesse identifizieren welche in zukünftigen Modellen Berücksichtigung finden sollten. (ii) Darauf aufbauend koppele ich Vorhersagen von Habitateignungsmodellen mit einem individuen-basierten Populationsmodell, um die Entwicklung des Schweizer Birkhuhnbestandes unter Klimawandel vorherzusagen. Durch die explizite Berücksichtigung der Wechselwirkungen zwischen Habitat und demographischer Prozesse lassen sich direktere Aussagen über Populationsentwicklung und damit verbundener Extinktionsrisiken treffen. Allerdings führen verschiedene Simulationen auch zu hoher Variabilität zwischen Vorhersagen, was die Bedeutung von Sensitivitätsanalysen unterstreicht, um Unsicherheiten und Robustheit von Vorhersagen einzuschätzen. Außerdem identifiziere ich Restriktionen in der Datenabdeckung des Umweltraumes als möglichen Grund für kontrastierende Vorhersagen verschiedener Habitateignungsmodelle. Wenn die Nische einer Art nicht vollständig durch Daten beschrieben ist, kann dies zu unrealistischen Vorhersagen der Art-Habitat-Beziehung führen. Insgesamt trägt meine Arbeit erheblich bei zu einem besseren Verständnis der Auswirkung verschiedenster Unsicherheitsfaktoren auf Vorhersagen von Arealveränderungen und zeigt Wege auf, mit diesen umzugehen. Abschließend erstelle ich einen vorläufigen Leitfaden für Vorhersagemodelle und identifiziere Kernpunkte für weitere Forschung auf diesem Gebiet. KW - species distribution models KW - dynamic population models KW - climate change KW - prediction KW - uncertainty KW - Habitatmodelle KW - dynamische Populationsmodelle KW - Klimawandel KW - Vorhersage KW - Unsicherheit Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-56845 ER - TY - THES A1 - Zur, Avichai T1 - פרדוקס 'הידיעה והבחירה' במשנת ר' צדוק הכהן מלובלין T1 - The Paradox of Divine Foreknowledge ('Yediah') and Human Free Will ('Bechira') in the Theosophy of Rabbi Zadok Ha-Kohen of Lublin T1 - Das Paradox des göttlichen Vorwissens ('Yediah') und der menschliche freie Wille ('Bechira') in der Theosophie von Rabbi Zadok Ha-Kohen von Lublin N2 - This research deals with R. Zadok's innovative writings. According to most scholars R. Zadok continues the doctrine of his rabbi R. Mordechai Yosef Leiner of Izbica and introduces existential fatalism: man has the freedom to act against the customary law, according to God's will which is revealed in his heart, even in his passions, which exceed the Halacha; however, man does not determine the will that is revealed in the root of his soul, but only uncovers it. Many expressions, in content and form, of this fatalism can be found in R. Zadok's writings; yet, he also introduces many remarks about human free choice and its creative power to establish and determine man's root and re-establish and influence the Divine worlds and this world. This research focuses on these passages whose centrality has been so far neglected by research. Hence, its renewed understanding of his doctrine. R. Zadok's position can be explained by means of the paradoxical perception, which claims the full strength of the two opposites and even a mutual influence between them, which creates a difficult yet fertile tension: as opposed to the a priori intellectual and formal process of fatalism where Divine Foreknowledge eliminates free choice, R. Zadok introduces fatality which identifies in reality itself the Divine foreknowledge and will that exist in all things. In R. Zadok's fatality, Divine foreknowledge does not eliminate free choice; on the contrary, without Divine foreknowledge, nothing has existence. Therefore, only the existence of Divine foreknowledge within free choice enables its true and indeed free fulfillment. R. Zadok's ontological perception is realized not only in the direct content of his words but also indirectly, in the method of his exegesis and the sense he gives to the concepts he discusses. Therefore the fatality is revealed in other areas in which there is a gap between the absolute dimension ('Yedi'ah') and the contingent dimension ('Bechirah'): the lie, imagination, evil, sin, suffering etc., indeed contingent compared with the absoluteness of truth, good, etc.; however, according to R. Zadok, God wants them as such – that is to say, they have an essential existence and actuality that are not absolute, but rather as such: as contingent, temporary and relative. However, these essential existence and actuality do not confirm them as they are but create a transformation within them. For example, evil does not become absolute good or remains evil but rather turns into 'Very Good' (Tov Me'od) which includes evil and according to Rabbi Zadok is greater than regular good. From this, rises also the opposite influence: that of free choice, or contingent Bechira in general, on Divine Foreknowledge, or absolute Yediah in general. According to R. Zadok, when the contingency and relativity of "Bechirah" received its essential existence and actuality, it has the power so to speak, to add dynamism to the permanent Divine absoluteness of the 'Yedi'ah': the affliction (Nega; נגע) of sin or suffering turns by itself, by interchanging its letters, into pleasure (Oneg; ענג) which is greater than regular delight. Man has the power to influence the upper worlds by decreeing decrees or by canceling Divine decrees; he also has the power to influence the daily novelties of this world, by the novellaes of the Oral Law and the sanctification of the new month which is capable of changing the movement of the zodiac. The human creativity of the novellae of the Oral Law is included in the Divine truth which is hidden in the Written Law and it only reveals and interprets the latter; but on the other hand, according to R. Zadok, the source of the dynamic vital novellaes of the Oral Law is higher than the source of the permanent absoluteness of Written Law and they are those which create and determine the latter. R. Zadok introduces two main concepts for his paradox: On the ontological perception – Yichud Gamur, the Ultimate Unification of God, in which the contingent duality (between God and His creation, and the choice it enables) of the Lower Unification paradoxically exists with the absolute unification and Divine Foreknowledge of the Upper Unification. On the perception of man's existential situation – HaShoresh HaNe'elam, The Hidden Root: unlike Rabbi Mordechai Yosef, his rabbi, rabbi Zadok claims that man determines his destiny by his willful contingent actions – yet, simultaneously, like his rabbi, he also claims that the man's permanent root is determined by God and His Foreknowledge and it is what determines his actions for better or worse. But above these R. Zadok points to an additional Hidden Root which is higher than the permanent one: it is indeed an absolute root (Yediah) yet is determined and established by man's willful actions (Bechira), similar to the Divine creation of 'ex nihilo'. N2 - מחקר זה עוסק במשנתו החדשנית של ר' צדוק הכהן מלובלין. לפי רוב החוקרים, ר' צדוק ממשיך את משנת רבו, ר' מרדכי יוסף ליינער מאיזביצה, ומציג פטליזם אקזיסטנציאליסטי: לאדם יש חופש כנגד החוק המקובל, לפי רצון האל הנגלה בליבו, אפילו בתשוקותיו, החורג מההלכה; ואולם, האדם אינו קובע את הרצון המתגלה בשורש נשמתו, אלא חושפו בלבד. בכתבי ר' צדוק ניתן למצוא ביטויים רבים, בתוכן ובצורה, לפטליזם זה; עם זאת, הוא מציג גם התבטאויות רבות בדבר הבחירה האנושית החופשית וכוחה היצירתי לכונן ולקבוע את שורשו של האדם, ולחדש ולהשפיע על העולמות האלוקיים ועל העולם-הזה. מחקר זה מתמקד בקטעים אלו שמרכזיותם הוזנחה במחקר עד כה, ומכאן הבנתו המחודשת במשנתו. את עמדת ר' צדוק ניתן להסביר באמצעות התפיסה הפרדוקסלית, הטוענת לכוחם המלא של שני הקטבים הסותרים ואף להשפעה הדדית ביניהם, היוצרת מתח קשה אך פורה: בניגוד לתהליך הפורמלי, האניטלקטואלי והאפריורי של הפטליזם, שבו 'הידיעה' האלוהית מבטלת את 'הבחירה' האנושית החופשית, ר' צדוק מציג פטאליות, המזהה המציאות עצמה את הידיעה והרצון האלוהיים המצויים בכל. בפטליות זו הידיעה אינה מבטלת את הבחירה; להיפך: ללא הידיעה האלוקית אין לאף דבר קיום, ולכן רק מציאות הידיעה בבחירה היא המאפשרת את קיומה הממשי. תפיסתו האונטולוגית של ר' צדוק מתקיימת לא רק בתוכן הישיר של דבריו, אלא גם בעקיפין, באופן דרשנותו ובמובן שהוא מעניק למושגים שבהם הוא דן; לכן, הפטליות מתגלה גם בתחומים נוספים, שבהם מצוי פער בין הממד המוחלט וההכרחי ('ידיעה') לממד הקונטינגנטי, הארעי והיחסי ('בחירה'): השקר, הדמיון, הרוע, החטא, הייסורים ועוד, אמנם קונטינגנטיים ויחסיים לעומת מוחלטות האמת, הטוב וכו'; אך לפי ר' צדוק, האל רוצה בהם ככאלה – כלומר יש להם ממשות שאינה מוחלטת, אלא ממשות ככאלה, כקונטינגנטיים. אך ממשות זו אינה מאשרת אותם כפי שהם, אלא יוצרת בהם-עצמם טרנספורמציה. למשל, הרוע אינו הופך לטוב מוחלט או נותר כרוע, אלא הופך ל'טוב מאד' שלפי ר' צדוק גדול מהטוב הרגיל. מכאן עולה גם ההשפעה ההפוכה, זו של הבחירה על הידיעה. לפי ר' צדוק, משקבלה הקונטינגנטיות והיחסיות של 'הבחירה' – שהיא למעשה מהות הבריאה ומהות האדם ומעשיו – את ממשותה, בכוחה אף להוסיף כביכול על המוחלטות האלוקית הקבועה של 'הידיעה': 'נגע' החטא או הייסורים הופך בעצמו, בחילוף אותם אותיות, ל'ענג' הגדול מההנאה הרגילה; בכוח האדם להשפיע על העולמות העליונים בגזירת גזירות ובביטול גזירות אלוקיות; בכוחו אף להשפיע על העולם-הזה, בחידושו היומיומי על-ידי חידושי התושב"ע, ובקידוש החודש המסוגל לשנות את תנועת המזלות השמימיים. מצד אחד, היצירתיות האנושית של חידושי התושב"ע כלולה באמת האלוקית הגנוזה בתושב"כ האלוקית והיא רק חושפת אותה; אך לפי ר"צ, מצד אחר מתברר שמקור חידושי התושב"ע דווקא גבוה ממקור התושב"כ והם אלו היוצרים וקובעים אותה. ר' צדוק מציג שני מושגים מרכזיים לפרדוקס שלו: בממד האונטולוגי – 'הייחוד הגמור' של האל, שבו הדואליות הקונטינגנטית (בין האל לנבראיו, והבחירה שהיא מאפשרת) של 'הייחוד התחתון' מתקיימת פרדוקסלית עם האחדות המוחלטת ו'הידיעה' האלוהית של 'הייחוד העליון'. בממד של מצבו האקזיסטנציאלי של האדם – 'השורש הנעלם': בניגוד לר' מרדכי יוסף רבו, ר' צדוק טוען שהאדם קובע את גורלו על-ידי מעשיו הבחיריים והקונטינגנטיים; ואולם, במקביל, בדומה לרבו, הוא טוען גם שהשורש הקבוע של האדם נקבע על-ידי 'הידיעה' האלוהית והיא זו הקובעת את מעשיו לטוב או למוטב. אך מעל אלו מציג ר' צדוק שורש נוסף, 'נעלם' הגבוה מהשורש הקבוע: הוא אכן שורש מוחלט ('ידיעה'), אך הוא נקבע ומכוּנן על-ידי מעשיו הבחיריים של האדם, בדומה לבריאה האלוהית 'יש מאין'. KW - paradox KW - Paradox KW - free choice/ will KW - freie Wahl KW - divine foreknowledge KW - göttliches Vorwissen KW - hassidism KW - Chassidismus KW - Zadok Hakohen of Lublin KW - Zadok Hakohen von Lublin KW - Friedrich Nietzsche KW - Friedrich Nietzsche KW - Kabbalah KW - Kabbala KW - existentialism KW - Existentialismus KW - Sefirot KW - Sephiroth KW - evil KW - Böse KW - sin KW - Sünde KW - determinism KW - Determinismus KW - fatalism KW - Fatalismus KW - predestination KW - Prädestination KW - contingency KW - Kontingenz KW - Maimonides KW - Maimonides KW - Izbica KW - Izbica KW - Lublin KW - Lublin KW - transcendence KW - Transzendenz KW - Immanenz KW - immanence KW - pantheism KW - Pantheismus KW - panentheism KW - Panentheismus KW - the oral Torah/ Law KW - die mündliche Thora KW - compatibilism KW - Kompatibilismus KW - pessimism KW - Pessimismus KW - קומפטיביליזם KW - קונטינגנטיות KW - דטרמיניזם KW - ידיעה אלוהית מוקדמת KW - רוע KW - אקזיסטנציאליזם KW - פטאליזם KW - רצון/בחירה חופשי/ת KW - פרידריך ניטשה KW - חסידות KW - אימננטיות KW - איזביצה KW - קבלה KW - לובלין KW - הרמב"ם KW - פנתאיזם KW - פרדוקס KW - פסימיזם KW - פרידסטינציה KW - ספירות KW - חטא KW - התורה שבעל-פה KW - טרנסצנדנטיות KW - צדוק הכהן מלובלין KW - פנאנתאיזם Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412201 ER - TY - THES A1 - Zupok, Arkadiusz T1 - The psbB-operon is a major locus for plastome-genome incompatibility in Oenothera Y1 - 2015 ER - TY - THES A1 - Zuo, Zhe T1 - From unstructured to structured: Context-based named entity mining from text T1 - Von unstrukturiert zu strukturiert: Kontextbasierte Gewinnung benannter Entitäten von Text N2 - With recent advances in the area of information extraction, automatically extracting structured information from a vast amount of unstructured textual data becomes an important task, which is infeasible for humans to capture all information manually. Named entities (e.g., persons, organizations, and locations), which are crucial components in texts, are usually the subjects of structured information from textual documents. Therefore, the task of named entity mining receives much attention. It consists of three major subtasks, which are named entity recognition, named entity linking, and relation extraction. These three tasks build up an entire pipeline of a named entity mining system, where each of them has its challenges and can be employed for further applications. As a fundamental task in the natural language processing domain, studies on named entity recognition have a long history, and many existing approaches produce reliable results. The task is aiming to extract mentions of named entities in text and identify their types. Named entity linking recently received much attention with the development of knowledge bases that contain rich information about entities. The goal is to disambiguate mentions of named entities and to link them to the corresponding entries in a knowledge base. Relation extraction, as the final step of named entity mining, is a highly challenging task, which is to extract semantic relations between named entities, e.g., the ownership relation between two companies. In this thesis, we review the state-of-the-art of named entity mining domain in detail, including valuable features, techniques, evaluation methodologies, and so on. Furthermore, we present two of our approaches that focus on the named entity linking and relation extraction tasks separately. To solve the named entity linking task, we propose the entity linking technique, BEL, which operates on a textual range of relevant terms and aggregates decisions from an ensemble of simple classifiers. Each of the classifiers operates on a randomly sampled subset of the above range. In extensive experiments on hand-labeled and benchmark datasets, our approach outperformed state-of-the-art entity linking techniques, both in terms of quality and efficiency. For the task of relation extraction, we focus on extracting a specific group of difficult relation types, business relations between companies. These relations can be used to gain valuable insight into the interactions between companies and perform complex analytics, such as predicting risk or valuating companies. Our semi-supervised strategy can extract business relations between companies based on only a few user-provided seed company pairs. By doing so, we also provide a solution for the problem of determining the direction of asymmetric relations, such as the ownership_of relation. We improve the reliability of the extraction process by using a holistic pattern identification method, which classifies the generated extraction patterns. Our experiments show that we can accurately and reliably extract new entity pairs occurring in the target relation by using as few as five labeled seed pairs. N2 - Mit den jüngsten Fortschritten in den Gebieten der Informationsextraktion wird die automatisierte Extrahierung strukturierter Informationen aus einer unüberschaubaren Menge unstrukturierter Textdaten eine wichtige Aufgabe, deren manuelle Ausführung unzumutbar ist. Benannte Entitäten, (z.B. Personen, Organisationen oder Orte), essentielle Bestandteile in Texten, sind normalerweise der Gegenstand strukturierter Informationen aus Textdokumenten. Daher erhält die Aufgabe der Gewinnung benannter Entitäten viel Aufmerksamkeit. Sie besteht aus drei groen Unteraufgaben, nämlich Erkennung benannter Entitäten, Verbindung benannter Entitäten und Extraktion von Beziehungen. Diese drei Aufgaben zusammen sind der Grundprozess eines Systems zur Gewinnung benannter Entitäten, wobei jede ihre eigene Herausforderung hat und für weitere Anwendungen eingesetzt werden kann. Als ein fundamentaler Aspekt in der Verarbeitung natürlicher Sprache haben Studien zur Erkennung benannter Entitäten eine lange Geschichte, und viele bestehenden Ansätze erbringen verlässliche Ergebnisse. Die Aufgabe zielt darauf ab, Nennungen benannter Entitäten zu extrahieren und ihre Typen zu bestimmen. Verbindung benannter Entitäten hat in letzter Zeit durch die Entwicklung von Wissensdatenbanken, welche reiche Informationen über Entitäten enthalten, viel Aufmerksamkeit erhalten. Das Ziel ist es, Nennungen benannter Entitäten zu unterscheiden und diese mit dazugehörigen Einträgen in einer Wissensdatenbank zu verknüpfen. Der letzte Schritt der Gewinnung benannter Entitäten, die Extraktion von Beziehungen, ist eine stark anspruchsvolle Aufgabe, nämlich die Extraktion semantischer Beziehungen zwischen Entitäten, z.B. die Eigentümerschaft zwischen zwei Firmen. In dieser Doktorarbeit arbeiten wir den aktuellen Stand der Wissenschaft in den Domäne der Gewinnung benannter Entitäten auf, unter anderem wertvolle Eigenschaften und Evaluationsmethoden. Darüberhinaus präsentieren wir zwei Ansätze von uns, die jeweils ihren Fokus auf die Verbindung benannter Entitäten sowie der Aufgaben der Extraktion von Beziehungen legen. Um die Aufgabe der Verbindung benannter Entitäten zu lösen schlagen wir hier die Verbindungstechnik BEL vor, welche auf einer textuellen Bandbreite relevanter Begriffe agiert und Entscheidungen einer Kombination von einfacher Klassifizierer aggregiert. Jeder dieser Klassifizierer arbeitet auf einer zufällig ausgewählten Teilmenge der obigen Bandbreite. In umfangreichen Experimenten mit handannotierten sowie Vergleichsdatensätzen hat unser Ansatz andere Lösungen zur Verbindung benannter Entitäten, die auf dem Stand der aktuellen Technik beruhen, sowie in Bezug auf Qualität als auch Effizienz geschlagen. Für die Aufgabe der Extraktion von Beziehungen fokussieren wir uns auf eine bestimmte Gruppe schwieriger Beziehungstypen, nämlich die Geschäftsbeziehungen zwischen Firmen. Diese Beziehungen können benutzt werden, um wertvolle Erkenntnisse in das Zusammenspiel von Firmen zu gelangen und komplexe Analysen ausführen, beispielsweise die Risikovorhersage oder Bewertung von Firmen. Unsere teilbeaufsichtigte Strategie kann Geschäftsbeziehungen zwischen Firmen anhand nur weniger nutzergegebener Startwerte von Firmenpaaren extrahieren. Dadurch bieten wir auch eine Lösung für das Problem der Richtungserkennung asymmetrischer Beziehungen, beispielsweise der Eigentumsbeziehung. Wir verbessern die Verlässlichkeit des Extraktionsprozesses, indem wir holistische Musteridentifikationsmethoden verwenden, welche die erstellten Extraktionsmuster klassifizieren. Unsere Experimente zeigen, dass wir neue Entitätenpaare akkurat und verlässlich in der Zielbeziehung mit bereits fünf bezeichneten Startpaaren extrahieren können. KW - named entity mining KW - information extraction KW - natural language processing KW - Gewinnung benannter Entitäten KW - Informationsextraktion KW - maschinelle Verarbeitung natürlicher Sprache Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412576 ER - TY - THES A1 - Zulawski, Monika Anna T1 - Die Rolle der Phosphorylierung in der Regulation pflanzlicher Proteine Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Zuhr, Alexandra T1 - Proxy signal formation in palaeoclimate archives T1 - Proxy-Signalbildung in Paläoklimaarchiven BT - a characterisation of climate signal deposition and modification in marine sediments and polar ice BT - eine Charakterisierung der Ablagerung und Veränderung von Klimasignalen in Meeressedimenten und Polarem Ei N2 - Throughout the last ~3 million years, the Earth's climate system was characterised by cycles of glacial and interglacial periods. The current warm period, the Holocene, is comparably stable and stands out from this long-term cyclicality. However, since the industrial revolution, the climate has been increasingly affected by a human-induced increase in greenhouse gas concentrations. While instrumental observations are used to describe changes over the past ~200 years, indirect observations via proxy data are the main source of information beyond this instrumental era. These data are indicators of past climatic conditions, stored in palaeoclimate archives around the Earth. The proxy signal is affected by processes independent of the prevailing climatic conditions. In particular, for sedimentary archives such as marine sediments and polar ice sheets, material may be redistributed during or after the initial deposition and subsequent formation of the archive. This leads to noise in the records challenging reliable reconstructions on local or short time scales. This dissertation characterises the initial deposition of the climatic signal and quantifies the resulting archive-internal heterogeneity and its influence on the observed proxy signal to improve the representativity and interpretation of climate reconstructions from marine sediments and ice cores. To this end, the horizontal and vertical variation in radiocarbon content of a box-core from the South China Sea is investigated. The three-dimensional resolution is used to quantify the true uncertainty in radiocarbon age estimates from planktonic foraminifera with an extensive sampling scheme, including different sample volumes and replicated measurements of batches of small and large numbers of specimen. An assessment on the variability stemming from sediment mixing by benthic organisms reveals strong internal heterogeneity. Hence, sediment mixing leads to substantial time uncertainty of proxy-based reconstructions with error terms two to five times larger than previously assumed. A second three-dimensional analysis of the upper snowpack provides insights into the heterogeneous signal deposition and imprint in snow and firn. A new study design which combines a structure-from-motion photogrammetry approach with two-dimensional isotopic data is performed at a study site in the accumulation zone of the Greenland Ice Sheet. The photogrammetry method reveals an intermittent character of snowfall, a layer-wise snow deposition with substantial contributions by wind-driven erosion and redistribution to the final spatially variable accumulation and illustrated the evolution of stratigraphic noise at the surface. The isotopic data show the preservation of stratigraphic noise within the upper firn column, leading to a spatially variable climate signal imprint and heterogeneous layer thicknesses. Additional post-depositional modifications due to snow-air exchange are also investigated, but without a conclusive quantification of the contribution to the final isotopic signature. Finally, this characterisation and quantification of the complex signal formation in marine sediments and polar ice contributes to a better understanding of the signal content in proxy data which is needed to assess the natural climate variability during the Holocene. N2 - Während der letzten ~3 Millionen Jahre war das Klimasystem der Erde durch Zyklen von Glazialen und Interglazialen gekennzeichnet. Die aktuelle Warmperiode, das Holozän, ist vergleichsweise stabil und hebt sich von dieser langen Zyklizität ab. Seit der industriellen Revolution wird das Klima jedoch zunehmend durch einen vom Menschen verursachten Anstieg der Treibhausgaskonzentrationen beeinflusst. Während instrumentelle Beobachtungen die Veränderungen der letzten ~200 Jahre beschreiben können, liefern Proxydaten die meisten klimatischen Informationen für den Zeitraum vor diesen Beobachtungen. Proxies zeichnen vergangene Klimabedingungen auf und sind in Paläoklimaarchiven rund um die Erde gespeichert. Das Proxysignal wird durch eine Vielzahl an Prozessen beeinflusst, die unabhängig von den vorherrschenden klimatischen Bedingungen sind. Insbesondere bei sedimentären Archiven wie Meeressedimenten und Eisschilden kann es während oder nach der Ablagerung zu einer Umverteilung des Materials und einer Änderung des Signals kommen. Dies führt zu nicht-klimatischen Unsicherheiten in den Daten, was zuverlässige Rekonstruktionen auf lokalen oder kurzen zeitlichen Skalen erschwert. Diese Dissertation charakterisiert die Ablagerung des Klimasignals und quantifiziert die daraus resultierende archiv-interne Heterogenität und ihren Einfluss auf das beobachtete Proxysignal, um die Repräsentativität und Interpretation von Klimarekonstruktionen aus marinen Sedimenten und Eiskernen zu verbessern. Zu diesem Zweck wird die horizontale und vertikale Variabilität des Radiokarbongehalts in einem Sedimentkern aus dem Südchinesischen Meer untersucht. Die dreidimensionale Auflösung des Kastenbohrers wird genutzt, um die tatsächliche Unsicherheit in Alterabschätzung von planktonische Foraminiferen mittels der Radiokarbonmethode zu quantifizieren. Mit Hilfe von verschiedene Probenvolumina und wiederholten Messungen von kleinen und großen Anzahlen an Lebewesen wird eine Quantifizierung der Variabilität, die auf die Durchmischung des Sediments durch benthische Organismen zurückzuführen ist, durchgeführt. Die Durchmischung der Sedimente verursacht eine starke interne Heterogenität, was zu Fehlertermen, die zwei bis fünf Mal größer sind als bisher angenommen, und einer erheblichen zeitlichen Unsicherheit von Rekonstruktionen basierend auf Proxydaten führt. Eine zweite dreidimensionale Analyse liefert Einblicke in die heterogene Signalablagerung in Schnee und Firn. Hierzu wird ein neues Studiendesign in der Akkumulationszone des grönländischen Eisschilds angewandt, wobei ein Structure-from-Motion Photogrammetrie Ansatz mit zweidimensionalen Isotopendaten kombiniert wird. Die photogrammetrische Methode zeigt, dass die Akkumulation von Schnee sehr variable ist. Die Entwicklung der Schneeablagerung an der Oberfläche erfolgt primär schichtweise mit erheblichen Veränderungen durch eine windgestriebene Erosion und Umverteilung des Schnees. Diese Dynamik führt zu einer räumlich variablen Akkumulation und sratigraphischem Rauschens an der Oberfläche. Die heterogene Akkumulation bestimmt die räumliche Ablagerung der klimatischen Informationen, die in der Isotopenzusammensetzung des Schness enthalten ist. Stratigraphische Rauschen der Oberfläche bleibt in der oberen Firnsäule erhalten, was zu einem räumlich variablen Signaleindruck führt. Weiterhin werden zusätzliche Veränderungen nach der Ablagerung durch Austauschprozesse zwischen dem Schnee und der Atmosphäre untersucht, jedoch ohne eine schlüssige Quantifizierung dieses Beitrags zur endgültigen Isotopensignatur. Die Charakterisierung und Quantifizierung der komplexen und heterogenen Signalbildung in marinen Sedimenten und Gletschereis verbessert letztlich das Verständnis des Signalgehalts in Proxydaten und trägt dazu bei, die natürliche Klimavariabilität des Holozäns besser abzuschätzen. KW - polar ice KW - marine sediments KW - palaeoclimatology KW - signal formation KW - climatolgoy KW - Klimatologie KW - Meeressedimente KW - Paläoklimatologie KW - polares Eis KW - Signalbildung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-582864 ER - TY - THES A1 - Zudrell, Petra T1 - Der Kulturkritiker und Schriftsteller Max Nordau : zwischen Zionismus, Deutschtum und Judentum T2 - Epistemata : Reihe Literaturwissenschaft Y1 - 2001 SN - 3-8260-2376-5 VL - 421 PB - Königshausen & Neumann CY - Würzburg ER - TY - THES A1 - Zubaidah, Teti T1 - Spatio-temporal characteristics of the geomagnetic field over the Lombok Island, the Lesser Sunda Islands region : new geological, tectonic, and seismo-electromagnetic insights along the Sunda-Banda Arcs transition Y1 - 2010 CY - Potsdam ER - TY - THES A1 - Zubaidah, Teti T1 - Spatio-temporal characteristics of the geomagnetic field over the Lombok Island, the Lesser Sunda Islands region BT - new geological, tectonic, and seismo-electromagnetic insights along the Sunda-Banda Arcs transition T2 - Scientific Technical Report N2 - The Lombok Island is part of the Lesser Sunda Islands (LSI) region – Indonesia, situated along the Sunda-Banda Arcs transition. It lies between zones characterized by the highest intensity geomagnetic anomalies of this region, remarkable as one of the eight most important features provided on the 1st edition of World Digital Magnetic Anomaly Map. The seismicity of this region during the last years is high, while the geological and tectonic structures of this region are still not known in detail. Some local magnetic surveys have been conducted previously during 2004–2005. However, due to the lower accuracy of the used equipment and a limited number of stations, the qualities of the previous measurements are questionable for more interpretations. Thus a more detailed study to better characterize the geomagnetic anomaly -spatially and temporally- over this region and to deeply explore the related regional geology, tectonic and seismicity is needed. The intriguing geomagnetic anomalies over this island region vis-à-vis the socio-cultural situations lead to a study with a special aim to contribute to the assessment of the potential of natural hazards (earthquakes) as well as a new natural resource of energy (geothermal potential). This study is intended to discuss several crucial questions, including: i. The real values and the general pattern of magnetic anomalies over the island, as well as their relation to the regional one. ii. Any temporal changes of regional anomalies over the recent time. iii. The relationships between the anomalies and the geology and tectonic of this region, especially new insights that can be gained from the geomagnetic observations. iv. The relationships between the anomalies and the high seismicity of this region, especially some possible links between their variations to the earthquake occurrence. First, all available geomagnetic data of this region and results of the previous measurements are evaluated. The new geomagnetic surveys carried out in 2006 and 2007/2008 are then presented in detail, followed by the general description of data processing and data quality evaluation. The new results show the general pattern of contiguous negative-positive anomalies, revealing an active arc related subduction region. They agree with earlier results obtained by satellite, aeromagnetic, and marine platforms; and provide a much more detailed picture of the strong anomalies on this island. The temporal characteristics of regional anomalies show a decreasing strength of the dipolar structure, where decreasing of the field intensities is faster than the regional secular variations as defined by the global model (the 10th generation of IGRF). However, some exceptions (increasing of anomalies) have to be noted and further analyzed for several locations. Thereafter, simultaneous magnetic anomalies and gravity models are generated and interpreted in detail. Three profiles are investigated, providing new insights into the tectonics and geological evolution of the Lombok Island. Geological structure of this island can be divided as two main parts with different consecutive ages: an old part (from late Oligocene to late Miocene) in the South and a younger one (from Pliocene to Holocene) in the North. A new subduction in the back arc region (the Flores Thrust zone) is considered mature and active, showing a tendency of progressive subduction during 2005–2008. Geothermal potential in the northern part of this island can be mapped in more detail using these geomagnetic regional survey data. The earlier estimates of reservoir depth can be confirmed further to a depth of about 800 m. Evaluation of temporal changes of the anomalies gives some possible explanations related to the evolution of the back arc region, large stress accumulations over the LSI region, a specific electrical characteristic of the crust of the Lombok Island region, and a structural discontinuity over this island. Based on the results, several possible advanced studies involving geomagnetic data and anomaly investigations over the Lombok Island region can be suggested for the future: i. Monitoring the subduction activity of the back arc region (the Flores Thrust zone) and the accumulated stress over the LSI, that could contribute to middle term hazard assessment with a special attention to the earthquake occurrence in this region. Continuous geomagnetic field measurements from a geomagnetic observatory which can be established in the northern part of the Lombok Island and systematic measurements at several repeat stations can be useful in this regards. ii. Investigating the specific electrical characteristic (high conductivity) of the crust, that is probably related to some aquifer layers or metal mineralization. It needs other complementary geophysical methods, such as magnetotelluric (MT) or preferably DC resistivity measurements. iii. Determining the existence of an active structural fault over the Lombok Island, that could be related to long term hazard assessment over the LSI region. This needs an extension of geomagnetic investigations over the neighbouring islands (the Bali Island in the West and the Sumbawa Island in the East; probably also the Sumba and the Flores islands). This seems possible because the regional magnetic lineations might be used to delineate some structural discontinuities, based on the modelling of contrasts in crustal magnetizations. KW - geomagnetic KW - tectonic KW - seismo-electromagnetic KW - Lombok Y1 - 2010 U6 - https://doi.org/10.2312/GFZ.b103-10079 VL - STR10 IS - 07 PB - Deutsches GeoForschungsZentrum GFZ CY - Potsdam ER - TY - THES A1 - Zuba, Anna T1 - The role of weight stigma and weight bias internalization in psychological functioning among school-aged children Y1 - 2018 ER - TY - THES A1 - Zrenner, Rita T1 - Molekularphysiologische Untersuchung primärer Stoffwechselwege : der Einfluss des Kohlenhydrat- und Nukleotidstoffwechsels auf das Pflanzenwachstum Y1 - 2010 ER - TY - THES A1 - Zou, Yong T1 - Exploring recurrences in quasiperiodic systems T1 - Untersuchung des Wiederkehrverhaltens in quasiperiodischen dynamischen Systemen N2 - In this work, some new results to exploit the recurrence properties of quasiperiodic dynamical systems are presented by means of a two dimensional visualization technique, Recurrence Plots(RPs). Quasiperiodicity is the simplest form of dynamics exhibiting nontrivial recurrences, which are common in many nonlinear systems. The concept of recurrence was introduced to study the restricted three body problem and it is very useful for the characterization of nonlinear systems. I have analyzed in detail the recurrence patterns of systems with quasiperiodic dynamics both analytically and numerically. Based on a theoretical analysis, I have proposed a new procedure to distinguish quasiperiodic dynamics from chaos. This algorithm is particular useful in the analysis of short time series. Furthermore, this approach demonstrates to be efficient in recognizing regular and chaotic trajectories of dynamical systems with mixed phase space. Regarding the application to real situations, I have shown the capability and validity of this method by analyzing time series from fluid experiments. N2 - In dieser Arbeit stelle ich neue Resultate vor, welche zeigen, wie man Rekurrenzeigenschaften quasiperiodischer, dynamischer Systeme für eine Datenanalyse ausnutzen kann. Die vorgestellten Algorithmen basieren auf einer zweidimensionalen Darstellungsmethode, den Rekurrenz-Darstellungen. Quasiperiodizität ist die einfachste Dynamik, die nicht-triviale Rekurrenzen zeigt und tritt häufig in nichtlinearen Systemen auf. Nicht-triviale Rekurrenzen wurden im Zusammenhang mit dem eingeschränkten Dreikörper-problem eingeführt. In dieser Arbeit, habe ich mehrere Systeme mit quasiperiodischem Verhalten analytisch untersucht. Die erhaltenen Ergebnisse helfen die Wiederkehreigenschaften dieser Systeme im Detail zu verstehen. Basierend auf den analytischen Resultaten, schlage ich einen neuen Algorithmus vor, mit dessen Hilfe selbst in kurzen Zeitreihen zwischen chaotischem und quasiperiodischem Verhalten unterschieden werden kann. Die vorgeschlagene Methode ist besonders effizient zur Unterscheidung regulärer und chaotischer Trajektorien mischender dynamischer Systeme.Die praktische Anwendbarkeit der vorgeschlagenen Analyseverfahren auf Messdaten, habe ich gezeigt, indem ich erfolgreich Zeitreihen aus fluid-dynamischen Experimenten untersucht habe. KW - Wiederkehrverhalten KW - quasiperiodisches dynamisches System KW - Recurrence Plot KW - recurrence KW - quasiperiodic dynamical systems KW - recurrence plots Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16497 ER - TY - THES A1 - Zorrijassateini, Darius ED - Hummel, Thomas R. ED - Wagner, Dieter ED - Zander, Ernst T1 - Organisationsentwicklung als Lernkonzept zur Nutzung von Führungsinformationssystemen T2 - Hochschulschriften zum Personalwesen Y1 - 2000 SN - 3-87988-472-2 SN - 0179-325X VL - 30 PB - Hampp; ZBW CY - München, Mering; Kiel, Hamburg ER - TY - THES A1 - Zorn, Edgar Ulrich T1 - Monitoring lava dome growth and deformation with photogrammetric methods and modelling N2 - Lava domes are severely hazardous, mound-shaped extrusions of highly viscous lava and commonly erupt at many active stratovolcanoes around the world. Due to gradual growth and flank oversteepening, such lava domes regularly experience partial or full collapses, resulting in destructive and far-reaching pyroclastic density currents. They are also associated with cyclic explosive activity as the complex interplay of cooling, degassing, and solidification of dome lavas regularly causes gas pressurizations on the dome or the underlying volcano conduit. Lava dome extrusions can last from days to decades, further highlighting the need for accurate and reliable monitoring data. This thesis aims to improve our understanding of lava dome processes and to contribute to the monitoring and prediction of hazards posed by these domes. The recent rise and sophistication of photogrammetric techniques allows for the extraction of observational data in unprecedented detail and creates ideal tools for accomplishing this purpose. Here, I study natural lava dome extrusions as well as laboratory-based analogue models of lava dome extrusions and employ photogrammetric monitoring by Structure-from-Motion (SfM) and Particle-Image-Velocimetry (PIV) techniques. I primarily use aerial photography data obtained by helicopter, airplanes, Unoccupied Aircraft Systems (UAS) or ground-based timelapse cameras. Firstly, by combining a long time-series of overflight data at Volcán de Colima, México, with seismic and satellite radar data, I construct a detailed timeline of lava dome and crater evolution. Using numerical model, the impact of the extrusion on dome morphology and loading stress is further evaluated and an impact on the growth direction is identified, bearing important implications for the location of collapse hazards. Secondly, sequential overflight surveys at the Santiaguito lava dome, Guatemala, reveal surface motion data in high detail. I quantify the growth of the lava dome and the movement of a lava flow, showing complex motions that occur on different timescales and I provide insight into rock properties relevant for hazard assessment inferred purely by photogrammetric processing of remote sensing data. Lastly, I recreate artificial lava dome and spine growth using analogue modelling under controlled conditions, providing new insights into lava extrusion processes and structures as well as the conditions in which they form. These findings demonstrate the capabilities of photogrammetric data analyses to successfully monitor lava dome growth and evolution while highlighting the advantages of complementary modelling methods to explain the observed phenomena. The results presented herein further bear important new insights and implications for the hazards posed by lava domes. N2 - Lavadome sind kuppelförmige Aufstauungen aus zähflüssiger Lava und bilden sich häufig bei Eruptionen an aktiven Stratovulkanen. Sie stellen dabei oft eine erhebliche Gefahr für Menschen und Infrastruktur dar, weil Lavadome instabil werden können und bei einem Kollaps pyroklastische Ströme (auch Glutlawinen) erzeugen können. Diese können innerhalb von Minuten weite Flächen verwüsten, daher ist die Überwachung von Lavadomen und deren Wachstum mit genauen und zuverlässigen Daten von großer Bedeutung. In dieser Arbeit werden das Wachstum und die Bewegungen von Lavadomen mit fotogrammetrischen Methoden (Vermessungen anhand von Fotos) und mit Modellierungen in drei Teilstudien getestet und untersucht. Dazu wurden Daten sowohl an Lavadomen von Vulkanen in Mexiko und Guatemala als auch mittels künstlich erzeugter Dome im Labor erhoben. Hierbei wurden insbesondere das Structure-from-Motion-Verfahren, bei dem mithilfe einer Serie von Luftaufnahmen ein hochauflösendes 3D-Modell des Lavadoms und des Vulkans erstellt wird, und das Particle-Image-Velocimetry-Verfahren, bei dem aus einer Zeitreihe von Fotos kleinste Bewegungen detailliert gemessen werden können, verwendet. In der ersten Teilstudie wird aus einer Kombination von Überflugsbildern, Radardaten eines Satelliten, und seismischen Daten eine detaillierte Zeitreihe des Lavadom-Wachstums und der Kraterentwickelung am Volcán de Colima, Méxiko, erstellt. Anschließend werden die dabei erfassten Richtungen des Domwachstums mit numerischen Modellen auf Basis der fotogrammetrischen 3D-Modelle simuliert, welche zeigen, dass sich lokale Änderungen der Topografie auf die Wachstumsrichtung auswirken können. In der zweiten Teilstudie werden Drohnen in verschiedenen Zeitintervallen über einen Lavadom am Santa Maria Vulkan, Guatemala, geflogen. Die Überflugsdaten zeigen dabei Bewegungen sowohl an einem Lavastrom als auch ein Anschwellen des Doms mit jeweils unterschiedlichen Geschwindigkeiten. Ferner können die Daten genutzt werden um Oberflächentemperatur und die Viskosität (Zähflüssigkeit) der Lava zu vermessen, welche für die Gefahrenanalyse eine wichtige Rolle spielen. In der dritten Teilstudie werden künstliche Dom-Modelle mithilfe von Sand-Gips-Gemischen erzeugt. Diese können sowohl den Aufbau und Morphologie als auch die internen Strukturen von Lavadomen simulieren und anhand von Zeitraffer-Aufnahmen im Detail nachstellen. Die Ergebnisse zeigen, dass Fotogrammetrie und Modellierungen geeignete Mittel sind um Lavadome sowie deren Entstehungsprozesse und Gefahren zu verfolgen und neue Erkenntnisse zu gewinnen. T2 - Überwachung von Wachstum und Deformation an Lavadomen mit fotogrammetrischen Methoden und Modellierungen KW - Lava dome KW - Lavadom KW - Photogrammetry KW - Fotogrammetrie KW - Volcano KW - Vulkan KW - Analogue Model KW - Analogmodell Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-483600 ER - TY - THES A1 - Zopfi, Stephan T1 - Die tägliche Bewegungs- und Sportstunde BT - ein gesundheitsrelevantes Projekt mit lernpsychologischen Chancen für die Primarschule N2 - Die Gesundheit unserer Jugend ist seit je ein gesellschaftspolitisches Primat und verdient die grösstmögliche Beachtung. Ein Teilbereich, nämlich Bewegung und Sport, ist in der Schweiz auch aus diesem Grund verfassungsmässig geregelt. Sämtliche Volksschulen müssen bis ins neunte Schuljahr pro Woche drei Lektionen Bewegung und Sport anbieten.. Als einziges Schulfach geniesst Bewegung und Sport diesen bundesgesetzlichen Support im sonst streng föderalistisch organisierten Bildungssystem der Schweiz. Trotz diesen drei verordneten Sportlektionen ist die physische Leistungsfähigkeit unserer Jugend einhergehend mit gesundheitlichen Parametern seit 1985 rückläufig und seit ein paar Jahren auf tiefem Niveau stagnierend. Zudem berichten Lehrpersonen über sinkende Konzentrationsfähigkeit in den letzten Jahren. Um eine flächendeckende Verbesserung der Situation zu bewirken, bietet sich die Schule als zentraler Ort der Einflussnahme an. Dies gilt im Besonderen für den Bereich Bewegung und Sport. Im Jahr 2005 wurde das Programm einer täglichen Bewegungs- und Sportstunde an der Primarschule in Luzern/Schweiz gestartet. Nach einem kontinuierlichen Ausbau kamen ab 2011 etwas über 1300 Kinder von der ersten bis zur sechsten Klasse in den Genuss dieser täglichen Bewegungslektion. Die wissenschaftlichen Untersuchungen in den drei gesellschaftlich hoch relevanten Bereichen der Konzentrationsfähigkeit, des Übergewichts und der Gleichgewichtsfähigkeit ergaben positive Resultate. So konnte die Konzentrationsfähigkeit – die Basis für erfolgreiches Lernen – signifikant gesteigert werden und teilweise signifikant war die Verbesserung des statischen Gleichgewichts. Ein positiver Trend zeigte sich auch bei der Senkung des Body-Mass-Indexes bei Knaben. Dies konnte bei den Mädchen nicht nachgewiesen werden. Auch wenn nicht alle Hypothesen vollumfänglich bestätigt werden konnten, gilt es festzuhalten, dass das Projekt der täglichen Sport- und Bewegungsstunde die Erwartungen in allen drei Messbereichen erfüllt hat und die Verbesserungen hinsichtlich der Konzentrationsfähigkeit, des Übergewichts und der Gleichgewichtsfähigkeit mehrheitlich ausgewiesen werden können. Es lohnt sich also, die tägliche Sport- und Bewegungsstunde an der Primarschule einzuführen und den Präventionsgedanken auch Taten folgen zu lassen. KW - Schulentwicklung KW - Bewegung und Sport KW - tägliche Sportstunde KW - Konzentration KW - Gesundheit Y1 - 2018 SN - 978-3-9524944-1-7 PB - Helyas CY - Beromünster ER - TY - THES A1 - Zona, Carlotta Isabella T1 - Visuo-linguistic integration for thematic-role assignment across speakers T1 - Visuell-linguistische Integration für die Zuweisung thematischer Rollen über Sprecher hinweg N2 - This dissertation examines the integration of incongruent visual-scene and morphological-case information (“cues”) in building thematic-role representations of spoken relative clauses in German. Addressing the mutual influence of visual and linguistic processing, the Coordinated Interplay Account (CIA) describes a mechanism in two steps supporting visuo-linguistic integration (Knoeferle & Crocker, 2006, Cog Sci). However, the outcomes and dynamics of integrating incongruent thematic-role representations from distinct sources have been investigated scarcely. Further, there is evidence that both second-language (L2) and older speakers may rely on non-syntactic cues relatively more than first-language (L1)/young speakers. Yet, the role of visual information for thematic-role comprehension has not been measured in L2 speakers, and only limitedly across the adult lifespan. Thematically unambiguous canonically ordered (subject-extracted) and noncanonically ordered (object-extracted) spoken relative clauses in German (see 1a-b) were presented in isolation and alongside visual scenes conveying either the same (congruent) or the opposite (incongruent) thematic relations as the sentence did. 1 a Das ist der Koch, der die Braut verfolgt. This is the.NOM cook who.NOM the.ACC bride follows This is the cook who is following the bride. b Das ist der Koch, den die Braut verfolgt. This is the.NOM cook whom.ACC the.NOM bride follows This is the cook whom the bride is following. The relative contribution of each cue to thematic-role representations was assessed with agent identification. Accuracy and latency data were collected post-sentence from a sample of L1 and L2 speakers (Zona & Felser, 2023), and from a sample of L1 speakers from across the adult lifespan (Zona & Reifegerste, under review). In addition, the moment-by-moment dynamics of thematic-role assignment were investigated with mouse tracking in a young L1 sample (Zona, under review). The following questions were addressed: (1) How do visual scenes influence thematic-role representations of canonical and noncanonical sentences? (2) How does reliance on visual-scene, case, and word-order cues vary in L1 and L2 speakers? (3) How does reliance on visual-scene, case, and word-order cues change across the lifespan? The results showed reliable effects of incongruence of visually and linguistically conveyed thematic relations on thematic-role representations. Incongruent (vs. congruent) scenes yielded slower and less accurate responses to agent-identification probes presented post-sentence. The recently inspected agent was considered as the most likely agent ~300ms after trial onset, and the convergence of visual scenes and word order enabled comprehenders to assign thematic roles predictively. L2 (vs. L1) participants relied more on word order overall. In response to noncanonical clauses presented with incongruent visual scenes, sensitivity to case predicted the size of incongruence effects better than L1-L2 grouping. These results suggest that the individual’s ability to exploit specific cues might predict their weighting. Sensitivity to case was stable throughout the lifespan, while visual effects increased with increasing age and were modulated by individual interference-inhibition levels. Thus, age-related changes in comprehension may stem from stronger reliance on visually (vs. linguistically) conveyed meaning. These patterns represent evidence for a recent-role preference – i.e., a tendency to re-assign visually conveyed thematic roles to the same referents in temporally coordinated utterances. The findings (i) extend the generalizability of CIA predictions across stimuli, tasks, populations, and measures of interest, (ii) contribute to specifying the outcomes and mechanisms of detecting and indexing incongruent representations within the CIA, and (iii) speak to current efforts to understand the sources of variability in sentence comprehension. N2 - Diese Dissertation untersucht die Integration inkongruenter visueller Szenen- und morphologisch-kasusbezogener Informationen ("Hinweise") beim Aufbau thematischer Rollenrepräsentationen gesprochener Relativsätze auf Deutsch. Das Coordinated Interplay Account (CIA) beschreibt einen Mechanismus in zwei Schritten zur Unterstützung der visuell-linguistischen Integration, der die wechselseitige Beeinflussung visueller und sprachlicher Verarbeitung adressiert (Knoeferle & Crocker, 2006, Cog Sci). Die Ergebnisse und Dynamiken der Integration inkongruenter thematischer Rollenrepräsentationen aus verschiedenen Quellen wurden jedoch kaum untersucht. Außerdem gibt es Hinweise darauf, dass sich sowohl Zweitsprachler (L2) als auch ältere Sprecher möglicherweise relativ stärker auf nicht-syntaktische Hinweise verlassen als Erstsprachler (L1)/jüngere Sprecher. Dennoch wurde die Rolle visueller Informationen für das Verständnis thematischer Rollen bei L2-Sprechern nicht gemessen und nur begrenzt über die gesamte Lebensspanne hinweg. Thematisch eindeutige, kanonisch geordnete (subjektausgezogene) und nichtkanonisch geordnete (objektausgezogene) gesprochene Relativsätze auf Deutsch (siehe 1a-b) wurden isoliert und zusammen mit visuellen Szenen präsentiert, die entweder dieselben (kongruente) oder entgegengesetzte (inkongruente) thematische Beziehungen wie der Satz vermittelten. Die relative Beitrag jedes Hinweises zur thematischen Rollenrepräsentation wurde durch die Identifizierung des Agenten bewertet. Genauigkeits- und Latenzdaten wurden nach dem Satz von einer Stichprobe von L1- und L2-Sprechern (Zona & Felser, 2023) sowie von einer Stichprobe von L1-Sprechern über die Lebensspanne hinweg (Zona & Reifegerste, in Überprüfung) gesammelt. Darüber hinaus wurden die momentane Dynamik der Zuweisung thematischer Rollen mit Mausverfolgung in einer jungen L1-Stichprobe untersucht (Zona, in Überprüfung). Die folgenden Fragen wurden adressiert: (1) Wie beeinflussen visuelle Szenen thematische Rollenrepräsentationen kanonischer und nichtkanonischer Sätze? (2) Wie variiert der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise bei L1- und L2-Sprechern? (3) Wie verändert sich der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise im Laufe des Lebens? Die Ergebnisse zeigten zuverlässige Effekte der Inkongruenz visuell und sprachlich vermittelter thematischer Beziehungen auf thematische Rollenrepräsentationen. Inkongruente (vs. kongruente) Szenen führten zu langsameren und weniger genauen Reaktionen auf Agentenidentifikationsproben, die nach dem Satz präsentiert wurden. Der kürzlich inspizierte Agent wurde etwa 300 ms nach Beginn des Versuchs als der wahrscheinlichste Agent betrachtet, und die Übereinstimmung von visuellen Szenen und Wortstellung ermöglichte es den Verstehenden, thematische Rollen vorherzusagen. L2-Teilnehmer (vs. L1) verließen sich insgesamt stärker auf die Wortstellung. Auf nichtkanonische Klauseln, die mit inkongruenten visuellen Szenen präsentiert wurden, sagte die Sensibilität für den Kasus die Größe der Inkongruenzeffekte besser vorher als die Einteilung in L1-L2. Diese Ergebnisse legen nahe, dass die Fähigkeit des Einzelnen, bestimmte Hinweise auszunutzen, ihr Gewicht vorhersagen könnte. Die Sensibilität für den Kasus blieb über die Lebensspanne hinweg stabil, während sich visuelle Effekte mit zunehmendem Alter verstärkten und durch individuelle Interferenz-Hemmungslevel moduliert wurden. Somit können altersbedingte Veränderungen im Verständnis von einer stärkeren Abhängigkeit von visuell (vs. sprachlich) vermittelter Bedeutung herrühren. Diese Muster stellen einen Beleg für eine Präferenz für kürzlich eingeführte Rollen dar - d. h. eine Tendenz, visuell vermittelte thematische Rollen den gleichen Referenten in zeitlich koordinierten Äußerungen neu zuzuweisen. Die Ergebnisse (i) erweitern die Verallgemeinerbarkeit der Vorhersagen des CIAs über Stimuli, Aufgaben, Populationen und Interessenmaße hinweg, (ii) tragen zur Spezifizierung der Ergebnisse und Mechanismen bei der Erkennung und Indizierung inkongruenter Repräsentationen innerhalb des CIAs bei und (iii) sprechen aktuelle Bemühungen an, die Quellen der Variabilität im Satzverständnis zu verstehen. KW - spoken sentence comprehension KW - visuo-linguistic integration KW - thematic-role assignment KW - Sprachverständnis KW - Zuweisung thematischer Rollen KW - visuell-linguistische Integration Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-631857 ER - TY - THES A1 - Zolitschka, Bernd T1 - Paläoklimatische Bedeutung laminierter Sedimente Y1 - 1996 ER - TY - THES A1 - Zoerner, Dietmar T1 - Förderung von Aufmerksamkeit und Motivationserhalt durch digitale spielbasierte Lernsysteme mit spezifischer Eignung bei Autismus T1 - Promotion of attention and preservation of motivation through digital game-based learning systems with particular suitability for autism N2 - Institutionelle Bildung ist für autistische Lernende mit vielgestaltigen und spezifischen Hindernissen verbunden. Dies gilt insbesondere im Zusammenhang mit Inklusion, deren Relevanz nicht zuletzt durch das Übereinkommen der Vereinten Nationen über die Rechte von Menschen mit Behinderung gegeben ist. Diese Arbeit diskutiert zahlreiche lernrelevante Besonderheiten im Kontext von Autismus und zeigt Diskrepanzen zu den nicht immer ausreichend angemessenen institutionellen Lehrkonzepten. Eine zentrale These ist hierbei, dass die ungewöhnlich intensive Aufmerksamkeit von Autist*innen für ihre Spezialinteressen dafür genutzt werden kann, das Lernen mit fremdgestellten Inhalten zu erleichtern. Darauf aufbauend werden Lösungsansätze diskutiert, welche in einem neuartigen Konzept für ein digitales mehrgerätebasiertes Lernspiel resultieren. Eine wesentliche Herausforderung bei der Konzeption spielbasierten Lernens besteht in der adäquaten Einbindung von Lerninhalten in einen fesselnden narrativen Kontext. Am Beispiel von Übungen zur emotionalen Deutung von Mimik, welche für das Lernen von sozioemotionalen Kompetenzen besonders im Rahmen von Therapiekonzepten bei Autismus Verwendung finden, wird eine angemessene Narration vorgestellt, welche die störungsarme Einbindung dieser sehr speziellen Lerninhalte ermöglicht. Die Effekte der einzelnen Konzeptionselemente werden anhand eines prototypisch entwickelten Lernspiels untersucht. Darauf aufbauend zeigt eine quantitative Studie die gute Akzeptanz und Nutzerfreundlichkeit des Spiels und belegte vor allem die Verständlichkeit der Narration und der Spielelemente. Ein weiterer Schwerpunkt liegt in der minimalinvasiven Untersuchung möglicher Störungen des Spielerlebnisses durch den Wechsel zwischen verschiedenen Endgeräten, für die ein innovatives Messverfahren entwickelt wurde. Im Ergebnis beleuchtet diese Arbeit die Bedeutung und die Grenzen von spielbasierten Ansätzen für autistische Lernende. Ein großer Teil der vorgestellten Konzepte lässt sich auf andersartige Lernszenarien übertragen. Das dafür entwickelte technische Framework zur Realisierung narrativer Lernpfade ist ebenfalls darauf vorbereitet, für weitere Lernszenarien, gerade auch im institutionellen Kontext, Verwendung zu finden. N2 - Institutional education is associated with multifaceted and specific obstacles for autistic learners. This is especially true in the context of inclusion, the relevance of which is given not least by the United Nations Convention on the Rights of Persons with Disabilities. This thesis discusses numerous learning-relevant peculiarities in the context of autism and shows discrepancies with institutional teaching concepts that are not always sufficiently appropriate. A central thesis is that the unusually intense attention of autistic students to their special interests can be used to facilitate learning with foreign content. Based on this, solutions are discussed, which result in an innovative concept for a digital multi-devicebased learning game. A key challenge in designing game-based learning is to adequately integrate learning content into a compelling narrative context. Using the example of exercises for the emotional interpretation of facial expressions, which are used for learning socioemotional competencies especially in the context of therapy concepts for autism, an appropriate narration is presented, which enables the low-disturbance integration of this very specific learning content. The effects of the individual conceptual elements are examined based on a prototypically developed learning game. Based on this, a quantitative study shows the good acceptance and user-friendliness of the game and especially proves the comprehensibility of the narration and the game elements. Another focus is the minimally invasive investigation of possible disturbances of the game experience by switching between different end devices, for which an innovative measurement method was developed. As a result, this work sheds light on the importance and limitations of game-based approaches for autistic learners. A large part of the presented concepts can be transferred to other types of learning scenarios. The technical framework developed for the realization of narrative learning paths is also prepared to be used for other learning scenarios, especially in an institutional context. KW - Autismus KW - Spielbasiertes Lernen KW - Aufmerksamkeit KW - Attention KW - Autism KW - game based learning Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-523725 ER - TY - THES A1 - Zobolski, André ED - Reger, Guido ED - Wagner, Dieter T1 - Kooperationskompetenz im dynamischen Wettbewerb : eine Analyse im Kontext der Automobilindustrie Y1 - 2008 SN - 978-3-8349-1362-3 PB - Gabler Verlag / GWV Fachverlage GmbH Wiesbaden CY - Wiesbaden ER - TY - THES A1 - Zobel, Alexander T1 - Agilität im dynamischen Wettbewerb : Basisfähigkeit zur Bewältigung ökonomischer Turbulenzen Y1 - 2005 SN - 3-8244-0846-5 U6 - https://doi.org/10.1007/978-3-322-81216-2 PB - Deutscher Universitätsverlag CY - Wiesbaden, s.l. ER - TY - THES A1 - Zitelmann, Rainer T1 - Persönlichkeit und Verhaltensmuster der Vermögenselite in Deutschland Y1 - 2017 ER - TY - THES A1 - Zippel, Barbara T1 - Einfluss von Intraguild Predation auf die Dynamik der Planktonsukzession in einem sauren Bergbausee Y1 - 2005 CY - Potsdam ER - TY - THES A1 - Zintchenko, Arkadi T1 - Polyelektrolythkomplexbildung mit doppelhydrophilen Blockcopolymeren Y1 - 2002 ER - TY - THES A1 - Zink, Wolfgang Se`ev T1 - Synagogenordnungen in Hessen 1815 - 1848 : Formen, Probleme und Ergebnisse des Wandels synagogaler Gottesdienstgestaltung und ihrer Institutionen im frühen 19. Jahrhundert ; originale Archivdokumente hessischer Staaten und preußisch-rheinländischer Enklaven mit Einbeziehung des Königreiches Württemberg ; [Erg.- Bd.] Y1 - 1998 SN - 3-89653-381-9 PB - Mainz CY - Aachen ER - TY - THES A1 - Zink, Wolfgang Se`ev T1 - Synagogenordnungen in Hessen 1815 - 1848 : Formen, Probleme und Ergebnisse des Wandels synagogaler Gottesdienstgestaltung und ihrer Institutionen im frühen 19. Jahrhundert ; originale Archivdokumente hessischer Staaten und preußisch-rheinländischer Enklaven mit Einbeziehung des Königreiches Württemberg ; [Hauptband] Y1 - 1998 SN - 3-89653-381-9 PB - Mainz CY - Aachen ER - TY - THES A1 - Zinck, Richard T1 - Diversity, criticality and disturbance in wildfire ecosystems Y1 - 2009 CY - Potsdam ER - TY - THES A1 - Zimmermann, Marc T1 - Multifunctional patchy silica particles via microcontact printing T1 - Multifunktionale Patchy Silika Partikel mithilfe des Mikrokontaktdruckverfahrens N2 - This research addressed the question, if it is possible to simplify current microcontact printing systems for the production of anisotropic building blocks or patchy particles, by using common chemicals while still maintaining reproducibility, high precision and tunability of the Janus-balance Chapter 2 introduced the microcontact printing materials as well as their defined electrostatic interactions. In particular polydimethylsiloxane stamps, silica particles and high molecular weight polyethylenimine ink were mainly used in this research. All of these components are commercially available in large quantities and affordable, which gives this approach a huge potential for further up-scaling developments. The benefits of polymeric over molecular inks was described including its flexible influence on the printing pressure. With this alteration of the µCP concept, a new method of solvent assisted particle release mechanism enabled the switch from two-dimensional surface modification to three-dimensional structure printing on colloidal silica particles, without changing printing parameters or starting materials. This effect opened the way to use the internal volume of the achieved patches for incorporation of nano additives, introducing additional physical properties into the patches without alteration of the surface chemistry. The success of this system and its achievable range was further investigated in chapter 3 by giving detailed information about patch geometry parameters including diameter, thickness and yield. For this purpose, silica particles in a size range between 1µm and 5µm were printed with different ink concentrations to change the Janus-balance of these single patched particles. A necessary intermediate step, consisting of air-plasma treatment, for the production of trivalent particles using "sandwich" printing was discovered and comparative studies concerning the patch geometry of single and double patched particles were conducted. Additionally, the usage of structured PDMS stamps during printing was described. These results demonstrate the excellent precision of this approach and opens the pathway for even greater accuracy as further parameters can be finely tuned and investigated, e.g. humidity and temperature during stamp loading. The performance of these synthesized anisotropic colloids was further investigated in chapter 4, starting with behaviour studies in alcoholic and aqueous dispersions. Here, the stability of the applied patches was studied in a broad pH range, discovering a release mechanism by disabling the electrostatic bonding between particle surface and polyelectrolyte ink. Furthermore, the absence of strong attractive forces between divalent particles in water was investigated using XPS measurements. These results lead to the conclusion that the transfer of small PDMS oligomers onto the patch surface is shielding charges, preventing colloidal agglomeration. However, based on this knowledge, further patch modifications for particle self-assembly were introduced including physical approaches using magnetic nano additives, chemical patch functionalization with avidin-biotin or the light responsive cyclodextrin-arylazopyrazoles coupling as well as particle surface modification for the synthesis of highly amphiphilic colloids. The successful coupling, its efficiency, stability and behaviour in different solvents were evaluated to find a suitable coupling system for future assembly experiments. Based on these results the possibility of more sophisticated structures by colloidal self-assembly is given. Certain findings needed further analysis to understand their underlying mechanics, including the relatively broad patch diameter distribution and the decreasing patch thickness for smaller silica particles. Mathematical assumptions for both effects are introduced in chapter 5. First, they demonstrate the connection between the naturally occurring particle size distribution and the broadening of the patch diameter, indicating an even higher precision for this µCP approach. Second, explaining the increase of contact area between particle and ink surface due to higher particle packaging, leading to a decrease in printing pressure for smaller particles. These calculations ultimately lead to the development of a new mechanical microcontact printing approach, using centrifugal forces for high pressure control and excellent parallel alignment of printing substrates. First results with this device and the comparison with previously conducted by-hand experiments conclude this research. It furthermore displays the advantages of such a device for future applications using a mechanical printing approach, especially for accessing even smaller nano particles with great precision and excellent yield. In conclusion, this work demonstrates the successful adjustment of the µCP approach using commercially available and affordable silica particles and polyelectrolytes for high flexibility, reduced costs and higher scale-up value. Furthermore, its was possible to increase the modification potential by introducing three-dimensional patches for additional functionalization volume. While keeping a high colloidal stability, different coupling systems showed the self-assembly capabilities of this toolbox for anisotropic particles. N2 - Diese Forschungsarbeit befasste sich mit der Frage, ob es möglich ist, bekannte Mikrokontaktdruckverfahren, zur Herstellung von anisotropen Bausteinen (Patchy Partikel), weiter zu vereinfachen. Dabei sollten gängige Chemikalien verwendet werden ohne einen Verlust in Reproduzierbarkeit, hoher Präzision und Feineinstellung der Janus-Balance zu erleiden. In Kapitel 2 wurden die verwendeten Mikrokontaktdruckmaterialien sowie deren elektrostatische Wechselwirkungen vorgestellt. Insbesondere handelte es sich dabei um Polydimethylsiloxan Stempel, Silikapartikel und hoch molekulare Polyethylenimin Tinte. All diese Produkte sind kommerziel in großen und bezahlbaren Mengen erhältlich. Nicht nur die Vorteile von polymeren Tinten im Gegensatz zu molekularen Tinten wurde beschrieben, sondern auch die hohe Flexibilität dieses Verfahrens bezüglich der verwendeten Druckkraft. Mit dieser Anpassung des Mikrokontaktdrucks, wurde eine neue Methode der Lösungsmittel unterstützten Partikelablösung ermöglicht, mit deren Hilfe ein einfaches Schalten zwischen zwei dimensionaler Oberflächenfunktionalisierung und drei dimensionalem Strukturdrucks möglich war, ohne Druckparameter oder Startchemikalien zu verändern. Dadurch konnte neu erschaffenes internes Volumen verwendet werden um Nanoadditive einzuführen und so zusätzliche physikalische Eigenschaften zu integrieren, ohne die Oberflächenchemie der Patches verändert wurde. Der Erfolg dieses Systems und seine erreichbaren Grenzen wurde gründlichst in Kapitel 3 erforscht, indem detaillierte Geometrieparameter der Patches einschließlich Durchmesser, Dicke und Ausbeute, erworben wurden. Hierfür wurden Silikapartikel in einem Größenbereich von 1µm bis 5µm mit unterschiedlichen Tintenkonzentrationen bedruckt, um Veränderungen erforschen zu können. Ein notwendiger Luftplasma Ätzschritt für die Produktion von trivalenten Partikeln, mit Hilfe des sogenannten ,,Sandwich‘‘-Drucks, wurde erläutert und vergleichende Untersuchen von einfach und zweifach modifizierten Bausteinen wurden durchgeführt. Zusätzlich dazu, wurde die Verwendung von strukturierten Stempel beschrieben. Die Ergebnisse verdeutlichen die exzellente Genauigkeit dieser Methode und öffnet den Weg um eine hoch höhere Präzision zu erreichen da weitere Parametere genau eingestellt und untersucht werden können, z.B. Luftfeuchtigkeit und Temperature während der Stempelbeladung. Die Performance der herstellten anisotropen Partikel wurde in Kapitel 4 mit Verhaltensstudien in alkoholischen und wässrigen Dispersionen getestet. Dabei wurde die Stabilität der Oberflächenfunktionalisierungen in einem breiten pH Bereich untersucht. Dadurch wurde ein Ablösungsmechanismus bei sehr hohen bzw. niedrigen pH-Werten entdeckt, der zur Deaktivierung elektrostatischer Wechselwirkungen zwischen Partikeloberfläche und Polyelektrolyte Tinte führte. Desweitern wurden die Abwesenheit starker Wechselwirkung der divalenten Partikel in Wasser mit Hilfe von XPS untersucht. Das Resultat zeigte, dass der Transfer kleinster PDMS Oligomere auf die Patchoberfläche zu einer Ladungsabschirmung führte. Dadurch konnte Agglomeration verhindert werden. Aufgrund dieser Ergebnisse wurden weitere Modifikationen für Partikelassemblierung durchgeführt. Hierfür wurde die Einführung von magnetischen Nanoadditiven, die Funktionalisierung mit Avidin-Biotin sowie dem Lichtschaltbaren Cyclodextrin-Arylazopyrazol Komplexen und die Partikeloberflächenfunktionalisierung zur Herstellung amphiphiler Teilchen untersucht. Die Effizienz der Kopplung, deren Stabilität sowie das Verhalten in unterschiedlichen Lösungsmittel wurde beschrieben. Basierend auf diesen Ergebnissen können noch anspruchsvollere Strukturen durch kolloidale Selbstassemblierung erzeugt werden. Einige Ergebnisse dieser Arbeit benötigten zusätzlicher Analyse um die zugrundeliegenden Mechaniken verstehen zu können. Dazu gehörte die relative hohe Streuung des Durchmessers für unterschiedliche Partikelsysteme, sowie das Ausdünnen des Patches mit kleineren Silikapartikeln. Mathematische Modelle in Kapitel 5 beschreiben beide Effekte. Dadurch war es möglich einen Zusammenhang zwischen der natürlichen Partikelgrößenverteilung sowie der Verbreitung des Patchdurchmessers festzustellen. Des Weiteren konnte eine Verkleinerung der Druckkraft durch eine Erhöhung der Packungsdichte für kleine Partikel beschrieben werden, wodurch eine Erklärung der Ausdünnung möglich war. All diese Berechnung führten schlussendlich zur Entwicklung eines neuen mechanischen Mikrokontaktdruckverfahrens, welches mit Hilfe von Zentrifugalkräften eine hohe Druckkontrolle und eine exzellente parallele Ausrichtung zwischen den Substraten ermöglicht. Erste Ergebnisse, sowie deren Vergleich mit bisher erhaltenen Resultaten schließen diese Forschung ab. Des Weiteren zeigt es die Vorteile einer solchen Vorrichtung für kommende Applikationen, besonders um noch kleinere Nanopartikel mit einer hohen Präzision modifizieren zu können. Zusammenfassend ist zu sagen, dass diese Forschung die erfolgreiche Anpassung des Mikrokontaktdruckverfahrens mit kommerziell erhältlichen und bezahlbaren Silikapartikeln und Polyelektrolyten demonstriert, um hohe Flexibilität, reduzierte Kosten und ein erweitertes Skalierungspotential zu bieten. Zusätzlich ist es gelungen, die Funktionalisierungsdichte zu erhöhen, indem drei dimensionaler Strukturdruck bisher ungenutztes Volumen schaffen konnte. Während eine hohe kolloidale Stabilität erhalten blieb, ist es gelungen unterschiedliche Kopplungssysteme zu nutzen, um das Selbstorganisationspotential dieser Toolbox für anisotrope Partikel aufzuzeigen. KW - patchy particles KW - microcontact printing KW - silica particles KW - anisotropic colloids KW - polyelectrolytes KW - Patchy Partikel KW - Mikrokontaktdruck KW - Silika Partikel KW - Anisotrope Kolloide KW - Polyelektrolyte Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427731 ER - TY - THES A1 - Zimmermann, Linda T1 - Psychische Gesundheit von angehenden Lehrkräften in der zweiten Phase der Lehrerausbildung : Evaluation der Pilotstudie "Gesundheitsprävention durch Coachinggruppen nach dem Freiburger Modell" Y1 - 2011 SN - 978-3-8325-2780-8 PB - Logos Verl. CY - Berlin ER - TY - THES A1 - Zimmermann, Julia T1 - Population ecology of a dominant perennial grass : recruitment, growth and mortality in semi-arid savanna T2 - PhD dissertation / Helmholtz Centre for Environmental Research, UFZ Y1 - 2009 VL - 2009,4 PB - UFZ CY - Leipzig ER - TY - THES A1 - Zimmermann, Heike Hildegard T1 - Vegetation changes and treeline dynamics in northern Siberia since the last interglacial revealed by sedimentary ancient DNA metabarcoding and organelle genome assembly of modern larches Y1 - 2017 ER - TY - THES A1 - Zimmermann, Diana T1 - Direkte Arylierung BT - eine alternative Synthesemethode zur Herstellung von Absorberpolymeren für die organische Photovoltaik Y1 - 2018 ER - TY - THES A1 - Zimmermann, Beate T1 - Spatial and temporal variability of the soil saturated hydraulic conductivity in gradients of disturbance T1 - Räumliche und zeitliche Variabilität der gesättigten Bodenwasserleitfähigkeit in Störungsgradienten N2 - As land-cover conversion continues to expand into ever more remote areas in the humid tropics, montane rainforests are increasingly threatened. In the south Ecuadorian Andes, they are not only subject to man-made disturbances but also to naturally occurring landslides. I was interested in the impact of this ecosystem dynamics on a key parameter of the hydrologic cycle, the soil saturated hydraulic conductivity (synonym: permeability; Ks from here on), because it is a sensitive indicator for soil disturbances. My general objective was to quantify the effects of the regional natural and human disturbances on the saturated hydraulic conductivity and to describe the resulting spatial-temporal patterns. The main hypotheses were: 1) disturbances cause an apparent displacement of the less permeable soil layer towards the surface, either due to a loss of the permeable surface soil after land-sliding, or as a consequence of the surface soil compaction under cattle pastures; 2) ‘recovery’ from disturbance, either because of landslide re-vegetation or because of secondary succession after pasture abandonment, involves an apparent displacement of the less permeable layer back towards the original depth an 3) disturbances cause a simplification of the Ks spatial structure, i.e. the spatially dependent random variation diminishes; the subsequent recovery entails the re-establishment of the original structure. In my first study, I developed a synthesis of recent geostatistical research regarding its applicability to soil hydraulic data, including exploratory data analysis and variogram estimation techniques; I subsequently evaluated the results in terms of spatial prediction uncertainty. Concerning the exploratory data analysis, my main results were: 1) Gaussian uni- and bivariate distributions of the log-transformed data; 2) the existence of significant local trends; 3) no need for robust estimation; 4) no anisotropic variation. I found partly considerable differences in covariance parameters resulting from different variogram estimation techniques, which, in the framework of spatial prediction, were mainly reflected in the spatial connectivity of the Ks-field. Ignoring the trend component and an arbitrary use of robust estimators, however, would have the most severe consequences in this respect. Regarding variogram modeling, I encouraged restricted maximum likelihood estimation because of its accuracy and independence on the selected lags needed for experimental variograms. The second study dealt with the Ks spatial-temporal pattern in the sequences of natural and man-made disturbances characteristic for the montane rainforest study area. To investigate the disturbance effects both on global means and the spatial structure of Ks, a combined design-and model-based sampling approach was used for field-measurements at soil depths of 12.5, 20, and 50 cm (n=30-150/depth) under landslides of different ages (2 and 8 years), under actively grazed pasture, fallows following pasture abandonment (2 to 25 years of age), and under natural forest. Concerning global means, our main findings were 1) global means of the soil permeability generally decrease with increasing soil depth; 2) no significant Ks differences can be observed among landslides and compared to the natural forest; 3) a distinct permeability decrease of two orders of magnitude occurs after forest conversion to pasture at shallow soil depths, and 4) the slow regeneration process after pasture abandonment requires at least one decade. Regarding the Ks spatial structure, we found that 1) disturbances affect the Ks spatial structure in the topsoil, and 2) the largest differences in spatial patterns are associated with the subsoil permeability. In summary, the regional landslide activity seems to affect soil hydrology to a marginal extend only, which is in contrast to the pronounced drop of Ks after forest conversion. We used this spatial-temporal information combined with local rain intensities to assess the partitioning of rainfall into vertical and lateral flowpaths under undisturbed, disturbed, and regenerating land-cover types in the third study. It turned out that 1) the montane rainforest is characterized by prevailing vertical flowpaths in the topsoil, which can switch to lateral directions below 20 cm depth for a small number of rain events, which may, however, transport a high portion of the annual runoff; 2) similar hydrological flowpaths occur under the landslides except for a somewhat higher probability of impermeable layer formation in the topsoil of a young landslide, and 3) pronounced differences in runoff components can be observed for the human disturbance sequence involving the development of near-surface impeding layers for 24, 44, and 8 % of rain events for pasture, a two-year-old fallow, and a ten-year-old fallow, respectively. N2 - Der tropische Bergregenwald in den Südecuadorianischen Anden unterliegt sowohl anthropogenen Eingriffen, d.h. der Umwandlung von Naturwald in Rinderweiden, als auch natürlichen Störungen in der Form von Hangrutschen. Ziel meiner Arbeit war es, die Auswirkungen dieser regionalen Störungsdynamik auf einen Schlüsselparameter des hydrologischen Kreislaufs, die gesättigte hydraulische Wasserleitfähigkeit (Ks), zu untersuchen und die resultierenden raum-zeitlichen Muster zu beschreiben. In der ersten Studie habe ich eine Synthese aktueller geostatistischer Forschung hinsichtlich ihrer Eignung für die Analyse bodenhydrologischer Daten entwickelt. Diese beinhaltet explorative Datenanalyse und verschiedene Techniken zur Schätzung der Kovarianzparameter; die Ergebnisse habe ich in Bezug auf die Ungenauigkeit räumlicher Vorhersagen bewertet. Es hat sich dabei herausgestellt, dass die Schätztechniken teilweise beachtliche Unterschiede in den Parametern hervorrufen, welche sich hauptsächlich in der räumlichen Konnektivität widergespiegeln. Die wichtigste Rolle im Zusammenhang mit der räumlichen Vorhersage kommt jedoch den vorgeordneten explorativen Analyseschritten zu. In der zweiten Studie habe ich mich mit der Beschreibung des raum-zeitlichen Muster der Wasserleitfähigkeit in den anthropogenen und natürlichen Störungsgradienten beschäftigt. Wichtigste Ergebnisse waren, dass es keine signifikanten Unterschiede der Wasserleitfähigkeit zwischen den verschieden alten Hangrutschen und dem Naturwald gibt. Daraus lässt sich schließen, dass die natürlichen Störungen im Untersuchungsgebiet lediglich marginale Auswirkungen auf die Bodenhydrology haben. Das steht in starkem Kontrast zum anthropogenen Störungskreislauf: die Wasserleitfähigkeit im Weideboden hat gegenüber dem Naturwald um zwei Größenordnungen abgenommen; eine „Erholung“ nach Nutzungsaufgabe scheint mindestens ein Jahrzehnt in Anspruch zu nehmen. Die räumlichen Abhängigkeit von Ks in den Oberböden von Wald und einer alten Brache ist stärker als in jenen der gestörten Flächen, was auf eine störungsbedingte Beeinträchtigung der räumlichen Struktur in geringer Bodentiefe schließen lässt. In der dritten Studie habe ich diese raum-zeitlichen Informationen mit dem örtlichen Niederschlagsregime in Verbindung gebracht, um Rückschlüsse auf die Auswirkungen der störungsbedingten Änderungen von Ks auf hydrologische Fließwege zu ziehen. Es hat sich gezeigt, dass im tropischen Bergregenwald und unter Hangrutschen ubiquitäre Tiefenversickerung dominiert, es allerdings zu einer Verschiebung in laterale Fließrichtungen für die seltenen intensiven Regenereignisse kommen kann. Anthropogene Störungen gehen mit einer um bis zu 50 Prozent erhöheren Wahrscheinlichkeit des Auftretens oberflächennaher Stauschichten einher, was die Bedeutung lateraler Fließwege erhöht. Dies trifft in vergleichbarer Größenordnung auch auf ein Vergleichsökosystem im Tieflandregenwald zu. KW - Bodenhydrologie KW - Tropen KW - Landnutzungswandel KW - Geostatistik KW - Abflussbildung KW - soil hydrology KW - tropics KW - landuse change KW - geostatistics KW - runoff generation Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16402 ER - TY - THES A1 - Zimmermann, Alexander T1 - Rainfall redistribution and change of water quality in tropical forest canopies : patterns and persistence T1 - Umverteilung von Regenwasser und Änderung der Wasserqualität in Kronendächern Tropischer Wälder : Muster und Persistenz N2 - Motivations and research objectives: During the passage of rain water through a forest canopy two main processes take place. First, water is redistributed; and second, its chemical properties change substantially. The rain water redistribution and the brief contact with plant surfaces results in a large variability of both throughfall and its chemical composition. Since throughfall and its chemistry influence a range of physical, chemical and biological processes at or below the forest floor the understanding of throughfall variability and the prediction of throughfall patterns potentially improves the understanding of near-surface processes in forest ecosystems. This thesis comprises three main research objectives. The first objective is to determine the variability of throughfall and its chemistry, and to investigate some of the controlling factors. Second, I explored throughfall spatial patterns. Finally, I attempted to assess the temporal persistence of throughfall and its chemical composition. Research sites and methods: The thesis is based on investigations in a tropical montane rain forest in Ecuador, and lowland rain forest ecosystems in Brazil and Panama. The first two studies investigate both throughfall and throughfall chemistry following a deterministic approach. The third study investigates throughfall patterns with geostatistical methods, and hence, relies on a stochastic approach. Results and Conclusions: Throughfall is highly variable. The variability of throughfall in tropical forests seems to exceed that of many temperate forests. These differences, however, do not solely reflect ecosystem-inherent characteristics, more likely they also mirror management practices. Apart from biotic factors that influence throughfall variability, rainfall magnitude is an important control. Throughfall solute concentrations and solute deposition are even more variable than throughfall. In contrast to throughfall volumes, the variability of solute deposition shows no clear differences between tropical and temperate forests, hence, biodiversity is not a strong predictor of solute deposition heterogeneity. Many other factors control solute deposition patterns, for instance, solute concentration in rainfall and antecedent dry period. The temporal variability of the latter factors partly accounts for the low temporal persistence of solute deposition. In contrast, measurements of throughfall volume are quite stable over time. Results from the Panamanian research site indicate that wet and dry areas outlast consecutive wet seasons. At this research site, throughfall exhibited only weak or pure nugget autocorrelation structures over the studies lag distances. A close look at the geostatistical tools at hand provided evidence that throughfall datasets, in particular those of large events, require robust variogram estimation if one wants to avoid outlier removal. This finding is important because all geostatistical throughfall studies that have been published so far analyzed their data using the classical, non-robust variogram estimator. N2 - Motivation und Zielsetzung: Wenn Regen durch ein Kronendach fällt lassen sich zwei Prozesse beobachten: das Regenwasser wird umverteilt und die chemische Qualität des Wassers verändert sich erheblich. Die Prozesse im Kronenraum resultieren in einer hohen Variabilität des Bestandsniederschlags und dessen chemischer Zusammensetzung. Bestandsniederschlag beeinflusst eine Reihe von physikalischen, chemischen und biologischen Prozessen am Waldboden. Daher können Untersuchungen zur Variabilität und zu Mustern im Bestandsniederschlag helfen, bodennahe Prozesse besser zu verstehen. Diese Dissertation behandelt hauptsächlich drei Aspekte. Erstens, die Arbeit beschäftigt sich mit der Erfassung der Variabilität im Bestandsniederschlag und dessen chemischer Zusammensetzung, zudem werden Einflussfaktoren dieser Variabilität untersucht. Des Weiteren beschäftigt sich die Arbeit mit räumlichen Mustern des Bestandsniederschlagswassers, und drittens wird die zeitliche Stabilität des Bestandsniederschlags und dessen chemischer Zusammensetzung betrachtet. Untersuchungsgebiete und Methoden: Diese Dissertation basiert auf Untersuchungen in einem tropischen Bergregenwald in Ecuador, sowie Studien in tropischen Tieflandregenwäldern in Brasilien und Panama. Die ersten zwei Studien untersuchen Bestandsniederschlag und dessen chemische Zusammensetzung mit Hilfe deterministischer Methoden. Die Arbeit in Panama nutzt geostatistische Methoden zur Beschreibung von Bestandsniederschlagsmustern und verfolgt somit einen stochastischen Ansatz. Ergebnisse und Schlussfolgerungen: Die Variabilität des Bestandsniederschlages ist hoch; das heißt, die Menge des auf den Waldboden tropfenden Wassers kann sich je nach Standort stark unterscheiden. Diese räumliche Variabilität des Bestandsniederschlags ist in tropischen Wäldern höher als in vielen gemäßigten Waldökosystemen, was nicht allein auf verschiedenen Eigenschaften der Ökosysteme zurückzuführen ist. Vielmehr erklären sich die Unterschiede auch aus verschiedenen Waldnutzungen. Abgesehen von biologischen Faktoren beeinflusst die Regenmenge die Variabilität des Bestandsniederschlags erheblich. Die chemische Zusammensetzung des Bestandsniederschlags weist eine noch höhere Variabilität als der Bestandsniederschlag selbst auf. Unterschiede zwischen tropischen und gemäßigten Wäldern lassen sich hier allerdings nicht erkennen, weshalb die hohe Diversität tropischer Ökosysteme die Heterogenität der chemischen Zusammensetzung des Bestandsniederschlags nicht ausreichend erklärt. Eine Vielzahl anderer Faktoren kontrolliert deshalb die Variabilität der Bestandsniederschlagschemie, beispielsweise die Konzentration gelöster Stoffe im Regenwasser oder die Dauer von Trockenperioden. Deren hohe temporale Variabilität ist verantwortlich für die geringe zeitliche Stabilität von Depositionsmessungen. Im Gegensatz dazu ist die temporale Persistenz von Messungen der Bestandsniederschlagsmenge hoch. Insbesondere die Ergebnisse aus Panama zeigen, dass feuchte und trockene Messpunkte über einen Zeitraum von zwei Regenzeiten fortbestehen. Die räumlichen Bestandsniederschlagsmuster im letztgenannten Untersuchungsgebiet sind schwach bzw. weisen die Struktur eines reinen Nugget-Models auf. Die geostatistische Analyse zeigt, dass vor allem die Daten großer Regenereignisse eine robuste Modellierung des Variogramms erfordern, wenn die willkürliche Entfernung von Fernpunkten in den Daten vermieden werden soll. Dieses Resultat ist insbesondere deshalb von Bedeutung, da alle bisherigen Bestandsniederschlagsstudien den klassischen, nicht-robusten Schätzer benutzen, obwohl das Auftreten von Extremwerten in Bestandsniederschlagsdaten für viele Ökosysteme zu erwarten ist. KW - Bestandsniederschlag KW - Stoffdeposition KW - tropische Waldökosysteme KW - Geostatistik KW - throughfall KW - solute deposition KW - tropical forests KW - geostatistics Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-32556 ER - TY - THES A1 - Zimmer, Sophie T1 - Le renouveau juif à Berlin depuis 1989 : aspects culturels et religieux T1 - Die Erneuerung des jüdischen Lebens in Berlin seit 1989: kulturelle und religiöse Aspekte N2 - Die vorliegende Untersuchung verfolgt das Ziel, kulturelle und religiöse Aspekte der Erneuerung jüdischen Lebens in Berlin seit 1989 zu erforschen. Die Entwicklungen der jüdischen Gemeinschaft in der Hauptstadt seit dem Fall der Mauer und dem Zusammenbruch der Sowjetunion führen zur Wiederannäherung eines Teils der jüdischen Bevölkerung in Deutschland an die eigene Kultur, Religion und Geschichte. Dabei kommt die Pluralität der kulturellen, literarischen und religiösen Ausdrucksformen der jüdischen Identitäten zum Vorschein. Die Arbeit verdeutlicht diese in Berlin nach 1989 einsetzende kulturelle und religiöse „Renaissance“. Vier wichtige Punkte kennzeichnen das jüdische Leben in Berlin nach 1989. Erstens gewinnt Deutschland seit der Wiedervereinigung eine neue Rolle als mögliches Einwanderungsland für Juden. Vor allem mit der massiven jüdischen Einwanderung aus den Staaten der ehemaligen Sowjetunion seit den 1990er Jahren wird Deutschland allmählich als wichtiges Zentrum in der europäischen Diaspora anerkannt. Zweitens bleibt zwar die Shoah tief verankert im Gedächtnis der jüdischen Gemeinschaft; die meisten Kinder oder Enkelkinder von Überlebenden der Shoah weigern sich jedoch, ihre jüdische Identität exklusiv durch die Shoah zu definieren. Sie gründen zur Wiederentdeckung und Forderung ihres kulturellen, religiösen und historischen Erbes jüdische Gruppen und Einrichtungen in Berlin, die in den meisten Fällen alternativ zur Jüdischen Gemeinde entstehen: Künstlergruppen, jüdische Kulturvereine, Konferenzen und Podiumsdiskussionen, religiöse Kongregationen und Lernhäuser. Damit – und dies ist der dritte Punkt – verliert zwar die offizielle Jüdische Gemeinde an Bedeutung als einzige Vertreterin der jüdischen Gemeinschaft Berlins; diese kulturelle und religiöse „Renaissance“ außerhalb der offiziellen Strukturen der Gemeinde bedeutet aber auch eine wachsende Pluralität und Diversifizierung der jüdischen Gemeinschaft in Berlin. Viertens spielt Berlin die Hauptrolle in diesem Prozess. Heute werden viele ehemalige jüdische Orte neu belebt: Synagogen werden wiederentdeckt und renoviert, Denk- und Mahnmale gebaut, Stadtführungen auf der Spur des „jüdischen Berlins“ organisiert, Rabbinerseminare neu gegründet. Die Topographie Berlins bildet auch eine Inspirationsquelle für jüdische (und nichtjüdische) Schriftsteller und Künstler. Die Analyse dieser nach 1989 entstandenen religiösen Initiativen, literarischen Werke und kulturellen Produktionen dient dazu, Aspekte der kulturellen und religiösen „Renaissance“ in Berlin näher zu verdeutlichen. N2 - The aim of this study is to analyze cultural and religious aspects of the Jewish revival in Berlin since 1989. The developments in the Jewish community of the German capital since the fall of the Wall and the dissolution of the Soviet Union led a part of the Jewish population in Germany to rediscover and get closer to its own culture, religion and history, thus revealing the plurality of cultural, literary and religious expressions of Jewish identities. The dissertation analyzes this cultural and religious “renaissance” taking place in Berlin after 1989. Four key aspects characterize Jewish life in Berlin after 1989. Firstly, since the reunification, Germany gains a new role as a potential immigration country for Jews. Germany is being gradually recognized as an important center in the European Diaspora, specifically with the massive immigration of Jews from the former Soviet Union since the 1990s. Secondly, even though the Holocaust is deeply rooted in the memory of the Jewish community, most of the children or grandchildren of Holocaust survivors refuse to define their Jewish identity exclusively through the Holocaust. In order to rediscover and to claim their cultural, religious and historical heritage, they create Jewish groups and institutions in Berlin, most of them being an alternative to the official Jewish community: artistic groups, Jewish cultural associations, conferences and roundtables, religious congregations and places of study. Therefore – and this is the third point – the role of the official Jewish community as the only representative of the Berlin Jewish community becomes less important, but this cultural and religious “renaissance” outside the official structures of the community also means a growing plurality and diversification of the Jewish community in Berlin. Fourthly, Berlin plays the key role in this process. Today, many former Jewish places are being revived: synagogues are being rediscovered and renovated, memorials are being constructed, “Jewish Berlin” city tours are being organized, and rabbinical seminaries are created anew. The topography of Berlin is also a source of inspiration for Jewish (and non-Jewish) writers and artists. The analysis of these post-1989 religious initiatives, literary works and cultural productions aims to further clarify aspects of the cultural and religious “renaissance” in Berlin. KW - Juden KW - Deutschland KW - Berlin KW - 1989 KW - Wiedervereinigung KW - Judentum KW - Jews KW - Germany KW - Berlin KW - 1989 KW - reunification KW - Judaism KW - Juifs KW - Allemagne KW - Berlin KW - 1989 KW - réunification KW - judaïsme Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96920 ER - TY - THES A1 - Zillmer, Rüdiger T1 - Statistical properties and scaling of the Lyapunov exponents in stochastic systems N2 - Die vorliegende Arbeit umfaßt drei Abhandlungen, welche allgemein mit einer stochastischen Theorie für die Lyapunov-Exponenten befaßt sind. Mit Hilfe dieser Theorie werden universelle Skalengesetze untersucht, die in gekoppelten chaotischen und ungeordneten Systemen auftreten. Zunächst werden zwei zeitkontinuierliche stochastische Modelle für schwach gekoppelte chaotische Systeme eingeführt, um die Skalierung der Lyapunov-Exponenten mit der Kopplungsstärke ('coupling sensitivity of chaos') zu untersuchen. Mit Hilfe des Fokker-Planck-Formalismus werden Skalengesetze hergeleitet, die von Ergebnissen numerischer Simulationen bestätigt werden. Anschließend wird gezeigt, daß 'coupling sensitivity' im Fall gekoppelter ungeordneter Ketten auftritt, wobei der Effekt sich durch ein singuläres Anwachsen der Lokalisierungslänge äußert. Numerische Ergebnisse für gekoppelte Anderson-Modelle werden bekräftigt durch analytische Resultate für gekoppelte raumkontinuierliche Schrödinger-Gleichungen. Das resultierende Skalengesetz für die Lokalisierungslänge ähnelt der Skalierung der Lyapunov-Exponenten gekoppelter chaotischer Systeme. Schließlich wird die Statistik der exponentiellen Wachstumsrate des linearen Oszillators mit parametrischem Rauschen studiert. Es wird gezeigt, daß die Verteilung des zeitabhängigen Lyapunov-Exponenten von der Normalverteilung abweicht. Mittels der verallgemeinerten Lyapunov-Exponenten wird der Parameterbereich bestimmt, in welchem die Abweichungen von der Normalverteilung signifikant sind und Multiskalierung wesentlich wird. N2 - This work incorporates three treatises which are commonly concerned with a stochastic theory of the Lyapunov exponents. With the help of this theory universal scaling laws are investigated which appear in coupled chaotic and disordered systems. First, two continuous-time stochastic models for weakly coupled chaotic systems are introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck formalism scaling relations are derived, which are confirmed by results of numerical simulations. Next, coupling sensitivity is shown to exist for coupled disordered chains, where it appears as a singular increase of the localization length. Numerical findings for coupled Anderson models are confirmed by analytic results for coupled continuous-space Schrödinger equations. The resulting scaling relation of the localization length resembles the scaling of the Lyapunov exponent of coupled chaotic systems. Finally, the statistics of the exponential growth rate of the linear oscillator with parametric noise are studied. It is shown that the distribution of the finite-time Lyapunov exponent deviates from a Gaussian one. By means of the generalized Lyapunov exponents the parameter range is determined where the non-Gaussian part of the distribution is significant and multiscaling becomes essential. KW - Lyapunov-Exponenten KW - Chaos KW - ungeordnete Systeme KW - Lokalisierung KW - stochastische Systeme KW - 'coupling sensitivity' KW - parametrisch erregter Oszillator KW - Lyapunov exponents KW - chaos KW - disordered systems KW - localization KW - stochastic systems KW - coupling sensitivity KW - parametrically excited oscillator Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001147 ER - TY - THES A1 - Ziese, Ramona T1 - Geometric electroelasticity T1 - Geometrische Elektroelastizität N2 - In this work a diffential geometric formulation of the theory of electroelasticity is developed which also includes thermal and magnetic influences. We study the motion of bodies consisting of an elastic material that are deformed by the influence of mechanical forces, heat and an external electromagnetic field. To this end physical balance laws (conservation of mass, balance of momentum, angular momentum and energy) are established. These provide an equation that describes the motion of the body during the deformation. Here the body and the surrounding space are modeled as Riemannian manifolds, and we allow that the body has a lower dimension than the surrounding space. In this way one is not (as usual) restricted to the description of the deformation of three-dimensional bodies in a three-dimensional space, but one can also describe the deformation of membranes and the deformation in a curved space. Moreover, we formulate so-called constitutive relations that encode the properties of the used material. Balance of energy as a scalar law can easily be formulated on a Riemannian manifold. The remaining balance laws are then obtained by demanding that balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space. This generalizes a result by Marsden and Hughes that pertains to bodies that have the same dimension as the surrounding space and does not allow the presence of electromagnetic fields. Usually, in works on electroelasticity the entropy inequality is used to decide which otherwise allowed deformations are physically admissible and which are not. It is alsoemployed to derive restrictions to the possible forms of constitutive relations describing the material. Unfortunately, the opinions on the physically correct statement of the entropy inequality diverge when electromagnetic fields are present. Moreover, it is unclear how to formulate the entropy inequality in the case of a membrane that is subjected to an electromagnetic field. Thus, we show that one can replace the use of the entropy inequality by the demand that for a given process balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space and under linear rescalings of the temperature. On the one hand, this demand also yields the desired restrictions to the form of the constitutive relations. On the other hand, it needs much weaker assumptions than the arguments in physics literature that are employing the entropy inequality. Again, our result generalizes a theorem of Marsden and Hughes. This time, our result is, like theirs, only valid for bodies that have the same dimension as the surrounding space. N2 - In der vorliegenden Arbeit wird eine diffentialgeometrische Formulierung der Elektroelastizitätstheorie entwickelt, die auch thermische und magnetische Einflüsse berücksichtigt. Hierbei wird die Bewegung von Körpern untersucht, die aus einem elastischen Material bestehen und sich durch mechanische Kräfte, Wärmezufuhr und den Einfluss eines äußeren elektromagnetischen Feldes verformen. Dazu werden physikalische Bilanzgleichungen (Massenerhaltung, Impuls-, Drehimpuls- und Energiebilanz) aufgestellt, um mit deren Hilfe eine Gleichung zu formulieren, die die Bewegung des Körpers während der Deformation beschreibt. Dabei werden sowohl der Körper als auch der umgebende Raum als Riemannsche Mannigfaltigkeiten modelliert, wobei zugelassen ist, dass der Körper eine geringere Dimension hat als der ihn umgebende Raum. Auf diese Weise kann man nicht nur - wie sonst üblich - die Deformation dreidimensionaler Körper im dreidimensionalen euklidischen Raum beschreiben, sondern auch die Deformation von Membranen und die Deformation innerhalb eines gekrümmten Raums. Weiterhin werden sogenannte konstitutive Gleichungen formuliert, die die Eigenschaften des verwendeten Materials kodieren. Die Energiebilanz ist eine skalare Gleichung und kann daher leicht auf Riemannschen Mannigfaltigkeiten formuliert werden. Es wird gezeigt, dass die Forderung der Invarianz der Energiebilanz unter der Wirkung von beliebigen Diffeomorphismen auf den umgebenden Raum bereits die restlichen Bilanzgleichungen impliziert. Das verallgemeinert ein Resultat von Marsden und Hughes, das nur für Körper anwendbar ist, die die selbe Dimension wie der umgebende Raum haben und keine elektromagnetischen Felder berücksichtigt. Üblicherweise wird in Arbeiten über Elektroelastizität die Entropieungleichung verwendet, um zu entscheiden, welche Deformationen physikalisch zulässig sind und welche nicht. Sie wird außerdem verwendet, um Einschränkungen für die möglichen Formen von konstitutiven Gleichungen, die das Material beschreiben, herzuleiten. Leider gehen die Meinungen über die physikalisch korrekte Formulierung der Entropieungleichung auseinander sobald elektromagnetische Felder beteiligt sind. Weiterhin ist unklar, wie die Entropieungleichung für den Fall einer Membran, die einem elektromagnetischen Feld ausgesetzt ist, formuliert werden muss. Daher zeigen wir, dass die Benutzung der Entropieungleichung ersetzt werden kann durch die Forderung, dass für einen gegebenen Prozess die Energiebilanz invariant ist unter der Wirkung eines beliebigen Diffeomorphimus' auf den umgebenden Raum und der linearen Reskalierung der Temperatur. Zum einen liefert diese Forderung die gewünschten Einschränkungen für die Form der konstitutiven Gleichungen, zum anderen benoetigt sie viel schwächere Annahmen als die übliche Argumentation mit der Entropieungleichung, die man in der Physikliteratur findet. Unser Resultat ist dabei wieder eine Verallgemeinerung eines Theorems von Marsden und Hughes, wobei es, so wie deren Resultat, nur für Körper gilt, die als offene Teilmengen des dreidimensionalen euklidischen Raums modelliert werden können. KW - Elastizität KW - Elektrodynamik KW - Mannigfaltigkeit KW - konstitutive Gleichungen KW - Bewegungsgleichung KW - elasticity KW - electrodynamics KW - manifold KW - constitutive relations KW - equation of motion Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72504 ER - TY - THES A1 - Zieres, Gundo T1 - Change Management durch das Excellence-Modell im Gesundheitswesen : der MDK Rheinland-Pfalz als Referenzobjekt in der Gesundheitswirtschaft T1 - Change Management with the Excellence-Modell in health care : the MDK Rheinland-Pfalz as an object of reference in health economy N2 - Die gewaltigen Strukturveränderungen im Bereich des Gesundheitswesens, die in den letzten Jahren bereits erfolgten und die, die noch bevorstehen, zwingen Unternehmen, mit geplanten und gesteuerten Veränderungsprozessen die Voraussetzungen für eine kontinuierliche Anpassung an die neuen Gegebenheiten zu schaffen und somit ihre Zukunftsfähigkeit sicherzustellen. Vor diesem Hintergrund wird gezeigt, wie das Excellence-Modell der EFQM als Instrument für Veränderungsprozesse eingesetzt werden kann und es geeignet ist, Veränderungsziele zu definieren und die Zielerreichung zu bewerten. Referenzobjekt der Fallstudienanalyse, die einen Zeitraum von 13 Jahren umfasst, ist der Medizinische Dienst der Krankenversicherung Rheinland-Pfalz. Neben der Analyse und Darstellung von theoretischen Grundlagen wird an einem Unternehmen des Gesundheitswesens beispielhaft gezeigt, wie die Umsetzung in der Praxis unter Einsatz des EFQM-Modells erfolgen kann. Da das EFQM-Modell mit seiner Systematik unternehmensunabhängig eingesetzt werden kann, sind Lern- und Übertragungsmöglichkeiten strukturiert möglich. Es wird der Nachweis erbracht, dass sich das EFQM-Modell im Rahmen eines Management- und Qualitätssteue-rungsmodells als Universalmethode nutzen lässt, sofern das Management über die Kompe-tenz branchenspezifischer Anpassung verfügt. Auf dem Weg zu organisatorischer Excel-lence wird gezielt an Planungs- und Prognosetechniken des strategischen Managements (SWOT, Szenario-Analyse, Portfolio-Analyse) angeknüpft und auf das VRIO-Paradigma des Resource-based View Bezug genommen. Das EFQM-Modell wird dem Stresstest des ressourcenstrategischen Ansatzes unterzogen, um so zu zeigen, dass es sich beim EFQM-Modell um ein einzigartiges, schwer imitierbares, kaum zu substituierendes, organisatorisch verankertes und kundennutzen-stiftendes Er-folgspotenzial handeln kann. Die Arbeit liefert Impulse und konkrete Anregungen, die zu einem hohen managementprakti-schen Erkenntniszuwachs für den erfolgreichen Umgang mit dem EFQM-Modell und dem Einsatz von Qualitätsmanagementsystemen führen können. N2 - The massive structural changes in our health care system, which already happened in the past few years and those, which are following, force companies to create the conditions for a continuous adapt to new circumstances. With the help of planned and controlled change processes they need to ensure their sustainability. Against this background, it is shown how the Excellence Model of the EFQM can be used as a tool for change processes and is suitable to define and evaluate goals of change. Reference object of the case study analysis, which covers a period of thirteen years, is the medical service of health insurance in Rhineland-Palatinate. In addition to the analysis and presentation of theoretical principles it is demonstrated with the help of a German health care organization, how the implementation in practice can be performed by using the EFQM model. The EFQM model can be used in each company, regardless of its classification. Therefore it is possible, to transfer the model in a structural way to any other organization. In the context of a model for management and quality control, it is demonstrated that the EFQM model can be used as a universal method, in case the management has the authority of industry-specific adaptation. On the way to organizational excellence, planning and forecasting techniques of strategic management (SWOT, scenario analysis, portfolio analysis) as well as the VRIO paradigm of resource-based view are used. Therewith the EFQM model is subjected to the stress test of the resource-strategic approach. It is shown that the EFQM model is a unique, difficult imitable, barely substituting, organizationally anchored and customer value-creating potential for success. The paper provides impulses and concrete suggestions that can lead to a high increase in knowledge for using the EFQM model and it shows how to successfully deal with quality management systems. KW - Management KW - Excellence KW - Qualität KW - Gesundheitswesen KW - Management KW - Excellence KW - Quality KW - Health Care Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61761 ER - TY - THES A1 - Ziener, Karen T1 - Das Konfliktfeld Erholungsnutzen : Naturschutz in Nationalparken und Biosphärenreservaten Y1 - 2002 ER - TY - THES A1 - Ziemer, Gesa T1 - Verletzbare Orte : Entwurf einer praktischen Ästhetik T1 - Vulnerable places : outline of a practical aesthetics N2 - Hauptanliegen der Dissertation ist es, einen Entwurf einer praktischen Ästhetik zu lancieren, der an der Schnittstelle zwischen philosophischer Ästhetik und Kunst – genauer Performancekunst - im Zeichen der Bezugsgrösse der Verletzbarkeit steht. In jüngeren Ästhetikansätzen hat sich eine Auffassung herauskristallisiert, die nicht über, sondern mit Kunst reflektiert. Die Pointe im ‚Mit’ liegt darin, dass diese Ästhetiken die Kunst nicht erklären, sie bestimmen und damit ihre Bedeutung festlegen, sondern dass diese entlang der Kunst die Brüche, Widerstände und Zäsuren zwischen Wahrnehmen und Denken markieren und diese als produktiv bewerten. Diese Lesart etabliert ein Denken, das nicht aus der Distanz auf etwas schaut (theoria), sondern ästhetisch-reflektierend (zurückwendend, auch selbstkritisch) mit der Kunst denkt. Die Disziplin der Ästhetik - als aisthesis: Lehre der sinnlichen Wahrnehmung - nimmt innerhalb der Philosophie eine besondere Stellung ein, weil sie auf ebendiese Differenz verweist und deshalb sinnliche und nicht nur logisch-argumentatorische Denkfiguren stärkt. Als eine Möglichkeit, die Kluft, das Nicht-Einholbare, die brüchige Unzulänglichkeit des begrifflich Denkenden gegenüber ästhetischer Erfahrung zu stärken, schlage ich die Bezugsgrösse der Verletzbarkeit vor. Eine solche Ästhetik besteht aus dem Kreieren verletzbarer Orte, wobei diese auf zweierlei Weisen umkreist werden: Zum einen aus der Kunstpraxis heraus anhand der ästhetischen Figur des verletzbaren Körpes, wie er sich in der zeitgenössischen Performance zeigt. Zum anderen als ein Kreieren von Begriffen im Bewusstsein ihrer Verletzbarkeit. Ausgangspunkte sind die Denkentwürfe von Gilles Deleuze und Hans Blumenberg: Die Ästhetik von Gilles Deleuze entwirft eine konkrete Überschneidungsmöglichkeit von Kunst und Philosophie, aus der sich meine These des Mit-Kunst-Denkens entwickeln lässt. Sie kann aus der Grundvoraussetzung des Deleuzeschen Denkens heraus begründet werden, die besagt, dass nicht nur die Kunst, sondern auch die Philosophie eine schöpferische Tätigkeit ist. Beide Disziplinen beruhen auf dem Prinzip der creatio continua, durch welche die Kunst Empfindungen und die Philosophie Begriffe schöpft, wobei eben genau dieser schöpferische Prozess Kunst und Philosophie in ein produktives Verhältnis zueinander treten lässt. Wie Deleuze seine Begriffsarbeit entlang künstlerischer Praxis entwickelt, wird anhand der Analyse des bis heute wenig rezipierten Textes Ein Manifest weniger in Bezug auf das Theater von Carmelo Bene analysiert. Eine ganz anderen Zugang zum Entwurf einer praktischen Ästhetik liefert Hans Blumenberg, der eine Theorie der Unbegrifflichkeit in Aussicht stellt. Im Anschluss an seine Forderung, die Metapher wieder vermehrt in die philosophische Denkpraxis zu integrieren, radikalisiert er seine Forderung, auch das Nichtanschauliche zu berücksichtigen, indem er das gänzlich Unbegriffliche an die Seite des Begrifflichen stellt. Definitorische Schwäche zeigt sich als wahrhaftige Stärke, die in der Unbegrifflichkeit ihren Zenit erreicht. Der Schiffbruch wird von mir als zentrale Metapher – gewissermassen als Metapher der Metapher – verstanden, die das Auf-Grund-Laufen des Allwissenden veranschaulicht. Im Schiffbruch wird die produktive Kollision von Theorie und Praxis deutlich. Deleuze und Blumenberg zeigen über ‚creatio continua’ und ‚Unbegrifflichkeit’ die Grenzen des Begreifens, indem sie betonen, dass sich Ästhetik nicht nur auf künstlerische Erfahrungen bezieht, sondern selber in das Gegenwärtigmachen von Erfahrungen involviert ist. Daraus folgt, dass ästhetische Reflexion nicht nur begrifflich agieren muss. Die praktische Ästhetik animiert dazu, andere darstellerische Formen (Bilder, Töne, Körper) als differente und ebenbürtige reflexive Modi anzuerkennen und sie als verletzbarmachende Formate der Sprache an die Seite zu stellen. Diese Lesart betont den gestalterischen Aspekt der Ästhetik selber. Zur Verdeutlichung dieser Kluft zwischen (Körper-)Bild und Begriff ist der von mir mitgestaltete Film Augen blickeN der Dissertation als Kapitel beigefügt. Dieser Film zeigt Performer und Performerinnen, die sich bewusst entschieden haben, ihren ‚abweichenden’ Körper auf der Bühne zu präsentieren. Das Wort Verletzbarkeit verweist auf die paradoxe Situation, etwas Brüchiges tragfähig zu machen und dadurch auch auf eine besondere Beziehungsform und auf ein existenzielles Aufeinander-Verwiesensein der Menschen. Verletzbarkeit geht alle an, und stiftet deshalb eine Gemeinsamkeit besonderer Art. In diesem Sinne sind verletzbare Orte nicht nur ästhetische, sondern auch ethische Orte, womit die politische Dimension des Vorhabens betont wird. N2 - Vulnerable Places. Outline of a practical aesthetics The main thrust of the thesis is to launch the design for a practical aesthetics that would be situated at the interface between philosophical aesthetics and art – performance art, to be specific – with particular reference to the notion of vulnerability. In more recent approaches to aesthetics a mode of thinking has emerged that engages in reflection not about art but rather with art. The point is for aesthetics not so much to explain and determine the meaning of art but rather to proceed alongside art in order to mark and appreciate the breaks, resistances and gaps between perception and thought. This way of reading establishes a kind of thinking that engages in aesthetic reflection with art (looking back onto itself, sometimes self-critically) rather than looking at something from a distance (theoria). The discipline of aesthetics – in the sense of aisthesis, the theory of sense perception – has a special place within philosophy because it points towards exactly that difference, which strengthens sensual patterns of thought as opposed to those based on logical argument. I suggest the term vulnerability as a point of reference that will provide an opportunity to intensify the gap, the incommensurability, the fragile insufficiency of conceptual thought vis-à-vis aesthetic experience. Such an aesthetics consists in the creation of vulnerable places, revolving around them in two different circles: on the one hand approaching from the practice of art on the basis of the aesthetic figure of the vulnerable body as manifested in contemporary performance art, and on the other hand as the creation of terms and concepts with an awareness of their vulnerability. The conceptual designs of Gilles Deleuze and Hans Blumenberg form points of departure for this argument: Gilles Deleuze’ aesthetics outlines a concrete possibility of overlap between art and philosophy, on the basis of which my hypothesis of ‘thinking with art’ can be developed. It can be argued on the basis of the underlying assumptions of Deleuzian thought - the notion that not only art but also philosophy is a creative activity. Both disciplines are based on the principle of a creatio continua through which art creates sensations and philosophy concepts. And it is exactly this creative process that allows art and philosophy to enter into a productive relationship. The way Deleuze develops his conceptual work alongside artistic practice is shown on the basis of an analysis of the little known text Un manifeste de moins with reference to the theatre of Carmelo Bene. Hans Blumenberg provides a completely different approach to the design of a practical aesthetics, indicating a theory of in-conceptuality. Following his call for an increased integration of metaphor into the practice of philosophical thought, he takes this further in the more radical call to take into equal consideration the non-sensual by placing the non-conceptual side by side with the conceptual. Weakness in definition emerges as the true strength, which reaches its apogee in its in-conceptuality. I understand the shipwreck as a central metaphor – in a sense as the metaphor of metaphor – that illustrates the grounding and failure of omniscience. The shipwreck illustrates the productive collision between theory and practice. Through ‘creatio continua’ and ‘in-conceptuality’, Deleuze and Blumenberg show the limits of understanding by emphasizing that aesthetics not only refers to artistic experiences but is itself involved in the process of making experiences present. That means: Aesthetic reflection must proceed in ways other than just by conceptual means. Practical aesthetics encourages us to recognize other forms of representation (such as images, sounds, bodies) as different reflective modes of equal standing, and to place them side by side with language as forms that make one vulnerable. Such a reading emphasises the creative and design aspect of aesthetics itself. The film ‘Point of View’, which I co-produced, forms an additional chapter of the thesis in order to illustrate the gap between (body-)image and concept. The film shows performers who have consciously decided to present their ‘deviant’ bodies on stage. The term vulnerability indicates the paradoxical task to enable something fragile to carry some weight; thus it also points towards a special form of relationship, to the way human beings are existentially dependent on each other. Since vulnerability concerns everyone, it establishes a special kind of community. In that sense, vulnerable places are not just aesthetic but also ethical places, which emphasizes the political dimension of the task. KW - Ästhetik KW - Performance KW - Gilles Deleuze KW - Hans Blumenberg KW - Körper KW - performance KW - Gilles Deleuze KW - Hans Blumenberg KW - body Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7374 ER - TY - THES A1 - Ziemann, Vanessa T1 - Toxische Effekte von Arsenolipiden in humanen Kulturzellen und Caenorhabditis elegans Y1 - 2020 ER - TY - THES A1 - Ziemann, Niklas T1 - Four essays on the role of distance for economic decision-making T1 - Vier Studien zur Rolle von Distanzen für ökonomisches Entscheidungsverhalten N2 - Distances affect economic decision-making in numerous situations. The time at which we make a decision about future consumption has an impact on our consumption behavior. The spatial distance to employer, school or university impacts the place where we live and vice versa. The emotional closeness to other individuals influences our willingness to give money to them. This cumulative thesis aims to enrich the literature on the role of distance for economic decision-making. Thereby, each of my research projects sheds light on the impact of one kind of distance for efficient decision-making. N2 - Distanzen beeinflussen ökonomische Entscheidungen in vielen Situationen. Der Zeitpunkt an dem wir uns für zukünftige Ausgaben entscheiden, beeinflusst unser Konsumverhalten. Die räumliche Distanz zum Arbeitsgeber, zur Schule oder Universität beeinflusst die Wahl unseres Wohnortes und umgekehrt. Die emotionale Nähe zu anderen Menschen entscheidet darüber, ob wir diese finanziell unterstützen. Mit dieser kumulativen Doktorarbeit möchte ich die Literatur, die sich mit der Rolle von Distanzen für ökonomisches Entscheidungsverhalten beschäftigt, bereichern. Ich schaue mir in jedem meiner Forschungsprojekt an, wie eine Art von Distanz die Effizienz von Entscheidungen beeinflusst. KW - lab experiment KW - individual choices KW - Distanz KW - individuelle Entscheidungen KW - Laborexperiment KW - distance Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-591073 ER - TY - THES A1 - Ziemann, Martin Andreas T1 - Spektroskopische Untersuchungen am Sillimanit des Pegmatoids der Reinbolt Hills (Ostantarktis) : ein Beitrag zur Charakterisierung mineralbildender Fluide und der Sillimanit-Genese KW - Ostantarktis KW - Pegmatoid KW - Sillimanit KW - Gesteinsbildung KW - Fluideinschluss KW - Mikroanalyse KW - Spektroskopie Y1 - 1998 ER - TY - THES A1 - Ziehe, Andreas T1 - Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processing T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung N2 - This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals. In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization. As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed. These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms. Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings. N2 - Diese Arbeit befasst sich mit der Lösung des Problems der blinden Signalquellentrennung (BSS). Das BSS Problem tritt häufig in vielen wissenschaftlichen und technischen Anwendungen auf. Im Kern besteht das Problem darin, aus einem Gemisch von überlagerten Signalen die zugrundeliegenden Quellsignale zu extrahieren. In wissenschaftlichen Publikationen zu diesem Thema werden hauptsächlich zwei Lösungsansätze verfolgt: Ein Ansatz ist die sogenannte "Analyse der unabhängigen Komponenten", die zum Ziel hat, eine lineare Transformation V der Daten X zu finden, sodass die Komponenten Un der transformierten Daten U = V X (die sogenannten "independent components") so unabhängig wie möglich sind. Ein anderer Ansatz beruht auf einer simultanen Diagonalisierung mehrerer spezieller Matrizen, die aus den Daten gebildet werden. Diese Möglichkeit der Lösung des Problems der blinden Signalquellentrennung bildet den Schwerpunkt dieser Arbeit. Als Hauptbeitrag der vorliegenden Arbeit präsentieren wir neue Algorithmen zur simultanen Diagonalisierung mehrerer Matrizen mit Hilfe einer nicht-orthogonalen Transformation. Die neu entwickelten Algorithmen werden anhand von numerischen Simulationen getestet und mit bereits bestehenden Diagonalisierungsalgorithmen verglichen. Es zeigt sich, dass unser neues Verfahren sehr effizient und leistungsfähig ist. Schließlich werden Anwendungen der BSS Methoden auf Probleme der biomedizinischen Signalverarbeitung erläutert und anhand von realistischen biomagnetischen Messdaten wird die Nützlichkeit in der explorativen Datenanalyse unter Beweis gestellt. KW - Signaltrennung KW - Mischung KW - Diagonalisierung KW - Bioelektrisches Signal KW - Magnetoencephalographie KW - Elektroencephalographie KW - Signalquellentrennung KW - Matrizen-Eigenwertaufgabe KW - Simultane Diagonalisierung KW - Optimierungsproblem KW - blind source separation KW - BSS KW - ICA KW - independent component analysis KW - approximate joint diagonalization KW - EEG KW - MEG Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5694 ER - TY - THES A1 - Ziegler, Moritz O. T1 - The 3D in-situ stress field and its changes in geothermal reservoirs T1 - Das 3D in-situ Spannungsfeld und seine Änderungen in Geothermiereservoiren N2 - Information on the contemporary in-situ stress state of the earth’s crust is essential for geotechnical applications and physics-based seismic hazard assessment. Yet, stress data records for a data point are incomplete and their availability is usually not dense enough to allow conclusive statements. This demands a thorough examination of the in-situ stress field which is achieved by 3D geomechanicalnumerical models. However, the models spatial resolution is limited and the resulting local stress state is subject to large uncertainties that confine the significance of the findings. In addition, temporal variations of the in-situ stress field are naturally or anthropogenically induced. In my thesis I address these challenges in three manuscripts that investigate (1) the current crustal stress field orientation, (2) the 3D geomechanical-numerical modelling of the in-situ stress state, and (3) the phenomenon of injection induced temporal stress tensor rotations. In the first manuscript I present the first comprehensive stress data compilation of Iceland with 495 data records. Therefore, I analysed image logs from 57 boreholes in Iceland for indicators of the orientation of the maximum horizontal stress component. The study is the first stress survey from different kinds of stress indicators in a geologically very young and tectonically active area of an onshore spreading ridge. It reveals a distinct stress field with a depth independent stress orientation even very close to the spreading centre. In the second manuscript I present a calibrated 3D geomechanical-numerical modelling approach of the in-situ stress state of the Bavarian Molasse Basin that investigates the regional (70x70x10km³) and local (10x10x10km³) stress state. To link these two models I develop a multi-stage modelling approach that provides a reliable and efficient method to derive from the larger scale model initial and boundary conditions for the smaller scale model. Furthermore, I quantify the uncertainties in the models results which are inherent to geomechanical-numerical modelling in general and the multi-stage approach in particular. I show that the significance of the models results is mainly reduced due to the uncertainties in the material properties and the low number of available stress magnitude data records for calibration. In the third manuscript I investigate the phenomenon of injection induced temporal stress tensor rotation and its controlling factors. I conduct a sensitivity study with a 3D generic thermo-hydro-mechanical model. I show that the key control factors for the stress tensor rotation are the permeability as the decisive factor, the injection rate, and the initial differential stress. In particular for enhanced geothermal systems with a low permeability large rotations of the stress tensor are indicated. According to these findings the estimation of the initial differential stress in a reservoir is possible provided the permeability is known and the angle of stress rotation is observed. I propose that the stress tensor rotations can be a key factor in terms of the potential for induced seismicity on pre-existing faults due to the reorientation of the stress field that changes the optimal orientation of faults. N2 - Kenntnis des derzeitigen in-situ Spannungszustandes der Erdkruste ist essenziell für geotechnische Anwendungen und seismische Gefährdungsabschätzungen, welche auf physikalischen Beobachtungen basieren. Jedoch sind die Spannungsinformationen jedes Datenpunktes unvollständig und die Menge an vorhandenen Datenpunkten ist normalerweise nicht groß genug, um schlüssige Ergebnisse zu erzielen. Daher ist eine eingehende Untersuchung des in-situ Spannungsfeldes, welche durch 3D geomechanisch-numerische Modellierung geleistet wird, erforderlich. Jedoch ist die räumliche Auflösung der Modelle begrenzt und der resultierende Spannungszustand ist großen Unsicherheiten unterworfen, welche die Aussagekraft der Ergebnisse beschränken. Zusätzlich gibt es zeitliche Änderungen des Spannungsfeldes, welche durch natürliche Prozesse bedingt oder menschengemacht sind. In meiner Dissertation behandle ich diese Herausforderungen in drei Manuskripten, welche (1) die Orientierung des derzeitigen Spannungszustandes, (2) die 3D geomechanisch-numerische Modellierung des in-situ Spannungszustandes und (3) das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors zum Thema haben. In dem ersten Manuskript präsentiere ich die erste umfassende Spannungsdatensammlung von Island mit insgesamt 495 Einträgen. Dafür habe ich Bilddatenlogs aus 57 Bohrlöchern in Island auf Indikatoren der maximalen horizontalen Spannungsorientierung hin untersucht. Diese Studie ist die erste ganzheitliche Spannungsuntersuchung, welche sich auf verschiedene Indikatoren der Spannungsorientierung stützt und in einem geologisch sehr jungen und tektonisch aktiven Gebiet auf einem Mittelozeanischen Rücken an Land liegt. Es zeigt sich, dass selbst sehr nahe an der Plattengrenze eine tiefenunabhängige, eindeutige Spannungsorientierung existiert. In dem zweiten Manuskript präsentiere ich einen kalibrierten 3D geomechanisch-numerischen Modellierungsansatz des in-situ Spannungszustandes des bayrischen Molassebeckens welches den regionalen (70x70x10km³) und den lokalen (10x10x10km³) Spannungszustand untersucht. Um diese zwei Modelle zu verbinden, habe ich ein mehrstufigen Modellansatz entworfen, welcher eine zuverlässige und effiziente Methode darstellt um Randbedingungen und Initialbedingungen für das kleinere Modell aus dem größeren Modell abzuleiten. Des Weiteren quantifiziere ich die Unsicherheiten in den Modellergebnissen, welche im Allgemeinen durch geomechanisch-numerische Modellierung und im Speziellen durch den Mehrstufenansatz entstehen. Ich zeige, dass die Signifikanz der Modellergebnisse hauptsächlich durch die Unsicherheiten in den Materialeigenschaften sowie der geringen Anzahl vorhandener Spannungsmagnitudendaten zur Kalibrierung reduziert wird. In dem dritten Manuskript untersuche ich das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors und deren kontrollierende Parameter. Ich führe eine Sensitivitätsanalyse mit einem generischen 3D thermo-hydro-mechanischen Modell durch. Darin zeige ich, dass die Schlüsselparameter, welche die Rotationen des Spannungstensors kontrollieren, die Permeabilität des Reservoirgesteins als der entscheidende Faktor, die Injektionsrate und die initiale Differenzspannung sind. Insbesondere für geothermische Systeme nach dem Hot-Dry-Rock-Verfahren mit einer geringen Permeabilität weisen die Ergebnisse auf große Rotationen des Spannungstensors hin. Gemäß diesen Ergebnissen kann die initiale Differenzspannung in einem Reservoir abgeschätzt werden, sollte die Permeabilität bekannt sein und der Winkel der Spannungsrotation beobachtet werden. Ich schlage vor, dass Spannungsrotationen ein Schlüsselfaktor in Bezug auf das Potenzial für induzierte Seismizität sind, welche auf prä-existierenden Störungen entsteht, die durch die Reorientierung des Spannungsfeldes optimal orientiert werden. KW - stress KW - stress changes KW - induced seismicity KW - geothermal KW - geomechanical modelling KW - Spannung KW - Spannungsänderungen KW - induzierte Seismizität KW - Geothermie KW - geomechanische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403838 ER - TY - THES A1 - Zieger, Tobias T1 - Self-adaptive data quality BT - automating duplicate detection N2 - Carrying out business processes successfully is closely linked to the quality of the data inventory in an organization. Lacks in data quality lead to problems: Incorrect address data prevents (timely) shipments to customers. Erroneous orders lead to returns and thus to unnecessary effort. Wrong pricing forces companies to miss out on revenues or to impair customer satisfaction. If orders or customer records cannot be retrieved, complaint management takes longer. Due to erroneous inventories, too few or too much supplies might be reordered. A special problem with data quality and the reason for many of the issues mentioned above are duplicates in databases. Duplicates are different representations of same real-world objects in a dataset. However, these representations differ from each other and are for that reason hard to match by a computer. Moreover, the number of required comparisons to find those duplicates grows with the square of the dataset size. To cleanse the data, these duplicates must be detected and removed. Duplicate detection is a very laborious process. To achieve satisfactory results, appropriate software must be created and configured (similarity measures, partitioning keys, thresholds, etc.). Both requires much manual effort and experience. This thesis addresses automation of parameter selection for duplicate detection and presents several novel approaches that eliminate the need for human experience in parts of the duplicate detection process. A pre-processing step is introduced that analyzes the datasets in question and classifies their attributes semantically. Not only do these annotations help understanding the respective datasets, but they also facilitate subsequent steps, for example, by selecting appropriate similarity measures or normalizing the data upfront. This approach works without schema information. Following that, we show a partitioning technique that strongly reduces the number of pair comparisons for the duplicate detection process. The approach automatically finds particularly suitable partitioning keys that simultaneously allow for effective and efficient duplicate retrieval. By means of a user study, we demonstrate that this technique finds partitioning keys that outperform expert suggestions and additionally does not need manual configuration. Furthermore, this approach can be applied independently of the attribute types. To measure the success of a duplicate detection process and to execute the described partitioning approach, a gold standard is required that provides information about the actual duplicates in a training dataset. This thesis presents a technique that uses existing duplicate detection results and crowdsourcing to create a near gold standard that can be used for the purposes above. Another part of the thesis describes and evaluates strategies how to reduce these crowdsourcing costs and to achieve a consensus with less effort. N2 - Die erfolgreiche Ausführung von Geschäftsprozessen ist eng an die Datenqualität der Datenbestände in einer Organisation geknüpft. Bestehen Mängel in der Datenqualität, kann es zu Problemen kommen: Unkorrekte Adressdaten verhindern, dass Kunden (rechtzeitig) beliefert werden. Fehlerhafte Bestellungen führen zu Reklamationen und somit zu unnötigem Aufwand. Falsche Preisauszeichnungen zwingen Unternehmen, auf Einnahmen zu verzichten oder gefährden die Kundenzufriedenheit. Können Bestellungen oder Kundendaten nicht gefunden werden, verlängert sich die Abarbeitung von Beschwerden. Durch fehlerhafte Inventarisierung wird zu wenig oder zu viel Nachschub bestellt. Ein spezielles Datenqualitätsproblem und der Grund für viele der genannten Datenqualitätsprobleme sind Duplikate in Datenbanken. Duplikate sind verschiedene Repräsentationen derselben Realweltobjekte im Datenbestand. Allerdings unterscheiden sich diese Repräsentationen voneinander und sind so für den Computer nur schwer als zusammengehörig zu erkennen. Außerdem wächst die Anzahl der zur Aufdeckung der Duplikate benötigten Vergleiche quadratisch mit der Datensatzgröße. Zum Zwecke der Datenreinigung müssen diese Duplikate erkannt und beseitigt werden. Diese Duplikaterkennung ist ein sehr aufwändiger Prozess. Um gute Ergebnisse zu erzielen, ist die Erstellung von entsprechender Software und das Konfigurieren vieler Parameter (Ähnlichkeitsmaße, Partitionierungsschlüssel, Schwellwerte usw.) nötig. Beides erfordert viel manuellen Aufwand und Erfahrung. Diese Dissertation befasst sich mit dem Automatisieren der Parameterwahl für die Duplikaterkennung und stellt verschiedene neuartige Verfahren vor, durch die Teile des Duplikaterkennungsprozesses ohne menschliche Erfahrung gestaltet werden können. Es wird ein Vorverarbeitungsschritt vorgestellt, der die betreffenden Datensätze analysiert und deren Attribute automatisch semantisch klassifiziert. Durch diese Annotationen wird nicht nur das Verständnis des Datensatzes verbessert, sondern es werden darüber hinaus die folgenden Schritte erleichtert, zum Beispiel können so geeignete Ähnlichkeitsmaße ausgewählt oder die Daten normalisiert werden. Dabei kommt der Ansatz ohne Schemainformationen aus. Anschließend wird ein Partitionierungsverfahren gezeigt, das die Anzahl der für die Duplikaterkennung benötigten Vergleiche stark reduziert. Das Verfahren findet automatisch besonders geeignete Partitionierungsschlüssel, die eine gleichzeitig effektive und effiziente Duplikatsuche ermöglichen. Anhand einer Nutzerstudie wird gezeigt, dass die so gefundenen Partitionierungsschlüssel Expertenvorschlägen überlegen sind und zudem keine menschliche Konfiguration benötigen. Außerdem lässt sich das Verfahren unabhängig von den Attributtypen anwenden. Zum Messen des Erfolges eines Duplikaterkennungsverfahrens und für das zuvor beschriebene Partitionierungsverfahren ist ein Goldstandard nötig, der Auskunft über die zu findenden Duplikate gibt. Die Dissertation stellt ein Verfahren vor, das anhand mehrerer vorhandener Duplikaterkennungsergebnisse und dem Einsatz von Crowdsourcing einen Nahezu-Goldstandard erzeugt, der für die beschriebenen Zwecke eingesetzt werden kann. Ein weiterer Teil der Arbeit beschreibt und evaluiert Strategien, wie die Kosten dieses Crowdsourcingeinsatzes reduziert werden können und mit geringerem Aufwand ein Konsens erreicht wird. KW - data quality KW - Datenqualität KW - Duplikaterkennung KW - duplicate detection KW - Machine Learning KW - Information Retrieval KW - Automatisierung KW - automation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410573 ER - TY - THES A1 - Ziege, Ricardo T1 - Growth dynamics and mechanical properties of E. coli biofilms T1 - Wachstumsdynamik und mechanische Eigenschaften von E. coli Biofilmen N2 - Biofilms are complex living materials that form as bacteria get embedded in a matrix of self-produced protein and polysaccharide fibres. The formation of a network of extracellular biopolymer fibres contributes to the cohesion of the biofilm by promoting cell-cell attachment and by mediating biofilm-substrate interactions. This sessile mode of bacteria growth has been well studied by microbiologists to prevent the detrimental effects of biofilms in medical and industrial settings. Indeed, biofilms are associated with increased antibiotic resistance in bacterial infections, and they can also cause clogging of pipelines or promote bio-corrosion. However, biofilms also gained interest from biophysics due to their ability to form complex morphological patterns during growth. Recently, the emerging field of engineered living materials investigates biofilm mechanical properties at multiple length scales and leverages the tools of synthetic biology to tune the functions of their constitutive biopolymers. This doctoral thesis aims at clarifying how the morphogenesis of Escherichia coli (E. coli) biofilms is influenced by their growth dynamics and mechanical properties. To address this question, I used methods from cell mechanics and materials science. I first studied how biological activity in biofilms gives rise to non-uniform growth patterns. In a second study, I investigated how E. coli biofilm morphogenesis and its mechanical properties adapt to an environmental stimulus, namely the water content of their substrate. Finally, I estimated how the mechanical properties of E. coli biofilms are altered when the bacteria express different extracellular biopolymers. On nutritive hydrogels, micron-sized E. coli cells can build centimetre-large biofilms. During this process, bacterial proliferation and matrix production introduce mechanical stresses in the biofilm, which release through the formation of macroscopic wrinkles and delaminated buckles. To relate these biological and mechanical phenomena, I used time-lapse fluorescence imaging to track cell and matrix surface densities through the early and late stages of E. coli biofilm growth. Colocalization of high cell and matrix densities at the periphery precede the onset of mechanical instabilities at this annular region. Early growth is detected at this outer annulus, which was analysed by adding fluorescent microspheres to the bacterial inoculum. But only when high rates of matrix production are present in the biofilm centre, does overall biofilm spreading initiate along the solid-air interface. By tracking larger fluorescent particles for a long time, I could distinguish several kinematic stages of E. coli biofilm expansion and observed a transition from non-linear to linear velocity profiles, which precedes the emergence of wrinkles at the biofilm periphery. Decomposing particle velocities to their radial and circumferential components revealed a last kinematic stage, where biofilm movement is mostly directed towards the radial delaminated buckles, which verticalize. The resulting compressive strains computed in these regions were observed to substantially deform the underlying agar substrates. The co-localization of higher cell and matrix densities towards an annular region and the succession of several kinematic stages are thus expected to promote the emergence of mechanical instabilities at the biofilm periphery. These experimental findings are predicted to advance future modelling approaches of biofilm morphogenesis. E. coli biofilm morphogenesis is further anticipated to depend on external stimuli from the environment. To clarify how the water could be used to tune biofilm material properties, we quantified E. coli biofilm growth, wrinkling dynamics and rigidity as a function of the water content of the nutritive substrates. Time-lapse microscopy and computational image analysis revealed that substrates with high water content promote biofilm spreading kinetics, while substrates with low water content promote biofilm wrinkling. The wrinkles observed on biofilm cross-sections appeared more bent on substrates with high water content, while they tended to be more vertical on substrates with low water content. Both wet and dry biomass, accumulated over 4 days of culture, were larger in biofilms cultured on substrates with high water content, despite extra porosity within the matrix layer. Finally, the micro-indentation analysis revealed that substrates with low water content supported the formation of stiffer biofilms. This study shows that E. coli biofilms respond to the water content of their substrate, which might be used for tuning their material properties in view of further applications. Biofilm material properties further depend on the composition and structure of the matrix of extracellular proteins and polysaccharides. In particular, E. coli biofilms were suggested to present tissue-like elasticity due to a dense fibre network consisting of amyloid curli and phosphoethanolamine-modified cellulose. To understand the contribution of these components to the emergent mechanical properties of E. coli biofilms, we performed micro-indentation on biofilms grown from bacteria of several strains. Besides showing higher dry masses, larger spreading diameters and slightly reduced water contents, biofilms expressing both main matrix components also presented high rigidities in the range of several hundred kPa, similar to biofilms containing only curli fibres. In contrast, a lack of amyloid curli fibres provides much higher adhesive energies and more viscoelastic fluid-like material behaviour. Therefore, the combination of amyloid curli and phosphoethanolamine-modified cellulose fibres implies the formation of a composite material whereby the amyloid curli fibres provide rigidity to E. coli biofilms, whereas the phosphoethanolamine-modified cellulose rather acts as a glue. These findings motivate further studies involving purified versions of these protein and polysaccharide components to better understand how their interactions benefit biofilm functions. All three studies depict different aspects of biofilm morphogenesis, which are interrelated. The first work reveals the correlation between non-uniform biological activities and the emergence of mechanical instabilities in the biofilm. The second work acknowledges the adaptive nature of E. coli biofilm morphogenesis and its mechanical properties to an environmental stimulus, namely water. Finally, the last study reveals the complementary role of the individual matrix components in the formation of a stable biofilm material, which not only forms complex morphologies but also functions as a protective shield for the bacteria it contains. Our experimental findings on E. coli biofilm morphogenesis and their mechanical properties can have further implications for fundamental and applied biofilm research fields. N2 - Biofilme sind komplexe lebende Materialien, die sich bilden, wenn Bakterien in eine Matrix aus selbstproduzierten Protein- und Polysaccharidfasern eingebettet werden. Die Bildung eines Netzwerks aus extrazellulären Biopolymerfasern trägt zum Zusammenhalt des Biofilms bei, indem sie die Zell-Zell-Anhaftung fördert und die Wechselwirkungen zwischen Biofilm und Substrat vermittelt. Diese sessile Form des Bakterienwachstums wurde von Mikrobiologen eingehend untersucht, um die schädlichen Auswirkungen von Biofilmen in der Medizin und Industrie zu verhindern. Biofilme werden nämlich mit einer erhöhten Antibiotikaresistenz bei bakteriellen Infektionen in Verbindung gebracht, und sie können auch zur Verstopfung von Rohrleitungen führen oder Biokorrosion fördern. Biofilme sind jedoch auch für die Biophysik von Interesse, da sie während ihres Wachstums komplexe morphologische Muster bilden können. In jüngster Zeit werden auf dem aufstrebenden Gebiet der künstlich hergestellten lebenden Materialien die mechanischen Eigenschaften von Biofilmen auf verschiedenen Längenskalen untersucht und die Werkzeuge der synthetischen Biologie genutzt, um die Funktionen ihrer konstitutiven Biopolymere zu beeinflussen. In dieser Doktorarbeit soll geklärt werden, wie die Morphogenese von Escherichia coli (E. coli)-Biofilmen durch deren Wachstumsdynamik und mechanische Eigenschaften beeinflusst wird. Um dieser Frage nachzugehen, habe ich Methoden aus der Zellmechanik und der Materialwissenschaft verwendet. Zunächst habe ich untersucht, wie die biologische Aktivität in Biofilmen zu ungleichmäßigen Wachstumsmustern führt. In einer zweiten Studie untersuchte ich, wie sich die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften an einen Umweltstimulus, nämlich den Wassergehalt des Substrats, anpassen. Schließlich habe ich abgeschätzt, wie sich die mechanischen Eigenschaften von E. coli-Biofilmen verändern, wenn die Bakterien verschiedene extrazelluläre Biopolymere exprimieren. Auf nährstoffhaltigen Hydrogelen können mikrometergroße E. coli-Zellen zentimetergroße Biofilme bilden. Während dieses Prozesses führen die bakterielle Vermehrung und die Matrixproduktion zu mechanischen Spannungen im Biofilm, die sich durch die Bildung von makroskopischen Falten und delaminierten Knicken entladen. Um diese biologischen und mechanischen Phänomene miteinander in Beziehung zu setzen, habe ich mit Hilfe von Zeitraffer-Fluoreszenzaufnahmen die Zell- und Matrixoberflächendichte in den frühen und späten Phasen des E. coli-Biofilmwachstums verfolgt. Die Kolokalisierung hoher Zell- und Matrixdichten an der Peripherie geht dem Auftreten mechanischer Instabilitäten in diesem ringförmigen Bereich voraus. An diesem äußeren Ring wird ein frühes Wachstum festgestellt, das durch Zugabe von fluoreszierenden Mikrokugeln zum bakteriellen Inokulum analysiert wurde. Aber nur wenn im Zentrum des Biofilms hohe Raten der Matrixproduktion vorhanden sind, beginnt die Ausbreitung des gesamten Biofilms entlang der Feststoff-Luft-Grenzfläche. Indem ich größere fluoreszierende Partikel über einen längeren Zeitraum verfolgte, konnte ich mehrere kinematische Stadien der E. coli-Biofilmexpansion unterscheiden und einen Übergang von nichtlinearen zu linearen Geschwindigkeitsprofilen beobachten, der dem Auftreten von Falten an der Biofilmperipherie vorausgeht. Die Zerlegung der Partikelgeschwindigkeiten in ihre radialen und umlaufenden Komponenten ergab ein letztes kinematisches Stadium, in dem die Bewegung des Biofilms hauptsächlich auf die radialen delaminierten Knicke gerichtet ist, die sich vertikalisieren. Die in diesen Regionen berechneten Druckspannungen verformen die darunter liegenden Agarsubstrate erheblich. Die gleichzeitige Ansammlung höherer Zell- und Matrixdichten in einer ringförmigen Region und die Abfolge mehrerer kinematischer Stadien dürften somit das Entstehen mechanischer Instabilitäten an der Biofilm-Peripherie fördern. Diese experimentellen Ergebnisse werden voraussichtlich zukünftige Modellierungsansätze der Biofilmmorphogenese voranbringen. Die Morphogenese des E. coli-Biofilms wird voraussichtlich auch von externen Stimuli aus der Umwelt abhängen. Um zu klären, wie das Wasser zur Einstellung der Materialeigenschaften von Biofilmen genutzt werden könnte, haben wir das Wachstum, die Faltenbildung und die Steifigkeit von E. coli-Biofilmen in Abhängigkeit vom Wassergehalt der Nährsubstrate quantifiziert. Zeitraffermikroskopie und computergestützte Bildanalyse zeigten, dass Substrate mit hohem Wassergehalt die Ausbreitungskinetik des Biofilms fördern, während Substrate mit niedrigem Wassergehalt die Faltenbildung des Biofilms begünstigen. Die auf Biofilm-Querschnitten beobachteten Falten erschienen auf Substraten mit hohem Wassergehalt stärker gebogen, während sie auf Substraten mit niedrigem Wassergehalt eher vertikal verliefen. Sowohl die feuchte als auch die trockene Biomasse, die während der 4-tägigen Kultur akkumuliert wurde, war in Biofilmen, die auf Substraten mit hohem Wassergehalt gezüchtet wurden, größer, trotz der zusätzlichen Porosität innerhalb der Matrixschicht. Schließlich ergab die Mikroindentationsanalyse, dass Substrate mit niedrigem Wassergehalt die Bildung von steiferen Biofilmen begünstigten. Diese Studie zeigt, dass E. coli-Biofilme auf den Wassergehalt ihres Substrats reagieren, was für die Abstimmung ihrer Materialeigenschaften im Hinblick auf weitere Anwendungen genutzt werden könnte. Die Materialeigenschaften von Biofilmen hängen außerdem von der Zusammensetzung und Struktur der Matrix aus extrazellulären Proteinen und Polysacchariden ab. Insbesondere wurde vermutet, dass E. coli-Biofilme aufgrund eines dichten Fasernetzwerks aus Amyloid-Curli und Phosphoethanolamin-modifizierter Cellulose eine gewebeähnliche Elastizität aufweisen. Um den Beitrag dieser Komponenten zu den entstehenden mechanischen Eigenschaften von E. coli-Biofilmen zu verstehen, führten wir an Biofilmen, die aus Bakterien verschiedener Stämme gewachsen waren, Mikroeindrücke durch. Biofilme, die beide Hauptmatrixkomponenten enthalten, wiesen nicht nur eine höhere Trockenmasse, einen größeren Ausbreitungsdurchmesser und einen leicht verringerten Wassergehalt auf, sondern auch eine hohe Steifigkeit im Bereich von mehreren hundert kPa, ähnlich wie Biofilme, die nur Curli-Fasern enthalten. Das Fehlen von Amyloid-Curli-Fasern führt dagegen zu deutlich höheren Adhäsionsenergien und einem viskoelastischeren, flüssigkeitsähnlichen Materialverhalten. Die Kombination von Amyloid-Curli-Fasern und Phosphoethanolamin-modifizierten Cellulosefasern impliziert daher die Bildung eines Verbundmaterials, bei dem die Amyloid-Curli-Fasern den E. coli-Biofilmen Steifigkeit verleihen, während die Phosphoethanolamin-modifizierte Cellulose eher als Klebstoff wirkt. Diese Ergebnisse motivieren zu weiteren Studien mit gereinigten Versionen dieser Protein- und Polysaccharidkomponenten, um besser zu verstehen, wie ihre Interaktionen die Funktionen des Biofilms unterstützen. Alle drei Studien zeigen verschiedene Aspekte der Biofilm-Morphogenese, die miteinander verbunden sind. Die erste Arbeit zeigt den Zusammenhang zwischen ungleichmäßigen biologischen Aktivitäten und dem Auftreten mechanischer Instabilitäten im Biofilm auf. Die zweite Arbeit bestätigt die Anpassungsfähigkeit der Morphogenese des E. coli-Biofilms und seiner mechanischen Eigenschaften an einen Umweltreiz, nämlich Wasser. Die letzte Studie schließlich zeigt die komplementäre Rolle der einzelnen Matrixkomponenten bei der Bildung eines stabilen Biofilmmaterials, das nicht nur komplexe Morphologien bildet, sondern auch als Schutzschild für die darin enthaltenen Bakterien fungiert. Unsere experimentellen Erkenntnisse über die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften können weitere Auswirkungen auf grundlegende und angewandte Biofilm-Forschungsbereiche haben. KW - biofilm KW - E. coli KW - living materials KW - mechanobiology KW - E. coli KW - Biofilm KW - lebende Materialien KW - Mechanobiologie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559869 ER - TY - THES A1 - Ziege, Eva-Maria T1 - Mythische Kohärenz : Diskursanalyse des völkischen Antisemitismus Y1 - 2001 SN - 3-89669-767-6 PB - UVK-Verl.-Ges CY - Konstanz ER - TY - THES A1 - Zickfeld, Kirsten T1 - Modeling large-scale singular climate events for integrated assessment N2 - Erkenntnisse aus paläoklimatologischen Studien, theoretischen Betrachtungen und Modellsimulationen deuten darauf hin, dass anthropogene Emissionen von Treibhausgasen und Aerosolen zu großskaligen, singulären Klimaereignissen führen könnten. Diese bezeichnen stark nichtlineare, abrupte Klimaänderungen, mit regionalen bis hin zu globalen Auswirkungen. Ziel dieser Arbeit ist die Entwicklung von Modellen zweier maßgeblicher Komponenten des Klimasystems, die singuläres Verhalten aufweisen könnten: die atlantische thermohaline Zirkulation (THC) und der indische Monsun. Diese Modelle sind so konzipiert, dass sie den Anforderungen der "Integrated Assessment"-Modellierung genügen, d.h., sie sind realistisch, recheneffizient, transparent und flexibel. Das THC-Modell ist ein einfaches, interhemisphärisches Boxmodell, das anhand von Daten kalibriert wird, die mit einem gekoppelten Klimamodell mittlerer Komplexität erzeugt wurden. Das Modell wird durch die globale Mitteltemperatur angetrieben, die mit Hilfe eines linearen Downscaling-Verfahrens in regionale Wärme- und Süßwasserflüsse übersetzt wird. Die Ergebnisse einer Vielzahl von zeitabhängigen Simulationen zeigen, dass das Modell in der Lage ist, maßgebliche Eigenschaften des Verhaltens komplexer Klimamodelle wiederzugeben, wie die Sensitivität bezüglich des Ausmaßes, der regionalen Verteilung und der Rate der Klimaänderung. Der indische Monsun wird anhand eines neuartigen eindimensionalen Boxmodells der tropischen Atmosphäre beschrieben. Dieses enthält Parmetrisierungen der Oberflächen- und Strahlungsflüsse, des hydrologischen Kreislaufs und derHydrologie der Landoberfläche. Trotz des hohen Idealisierungsgrades ist das Modell in der Lage, relevante Aspekte der beobachteten Monsundynamik, wie z.B. den Jahresgang des Niederschlags und das Eintritts- sowie Rückzugsdatum des Sommermonsuns, zufrieden stellend zu simulieren. Außerdem erfasst das Modell die Sensitivitätdes Monsuns bezüglich Änderungen der Treibhausgas- und Aerosolkonzentrationen, die aus komplexeren Modellen bekannt sind. Eine vereinfachte Version des Monsunmodells wird für die Untersuchung des qualitativen Systemverhaltens in Abhängigkeit von Änderungen der Randbedingungen eingesetzt. Das bemerkenswerteste Ergebnis ist das Auftreten einer Sattelknotenbifurkation des Sommermonsuns für kritische Werte der Albedo oder der Sonneneinstrahlung. Darüber hinaus weist das Modell zwei stabile Zustände auf: neben dem niederschlagsreichen Sommermonsun besteht ein Zustand, der sich durch einen schwachen hydrologischen Kreislauf auszeichnet. Das Beachtliche an diesen Ergebnissen ist, dass anthropogene Störungen der plantetaren Albedo, wie Schwefelemissionen und/oder Landnutzungsänderungen, zu einer Destabilisierung des indischen Monsuns führen könnten. Das THC-Boxmodell findet exemplarische Anwendung in einem "Integrated Assessment" von Klimaschutzstrategien. Basierend auf dem konzeptionellen und methodischen Gerüst des Leitplankenansatzes werden Emissionskorridore (d.h. zulässige Spannen an CO2-Emissionen) berechnet, die das Risiko eines THC-Zusammenbruchs begrenzen sowie sozioökonomische Randbedingungen berücksichtigen. Die Ergebnisse zeigen u.a. eine starke Abhängigkeit der Breite der Emissionskorridore von der Klima- und hydrologischen Sensitivität. Für kleine Werte einer oder beider Sensitivitäten liegt der obere Korridorrand bei weit höheren Emissionswerten als jene, die von plausiblen Emissionsszenarien für das 21. Jahrhundert erreicht werden. Für große Werte der Sensitivitäten hingegen, verlassen schon niedrige Emissionsszenarien den Korridor in den frühen Jahrzehnten des 21. Jahrhunderts. Dies impliziert eine Abkehr von den gegenwärtigen Emissionstrends innherhalb der kommenden Jahrzehnte, wenn das Risko eines THC Zusammenbruchs gering gehalten werden soll. Anhand einer Vielzahl von Anwendungen - von Sensitivitäts- über Bifurkationsanalysen hin zu integrierter Modellierung - zeigt diese Arbeit den Wert reduzierter Modelle auf. Die Ergebnisse und die daraus zu ziehenden Schlussfolgerungen liefern einen wertvollen Beitrag zu der wissenschaftlichen und politischen Diskussion bezüglich der Folgen des anthropogenen Klimawandels und der langfristigen Klimaschutzziele. N2 - Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004. KW - Nichtlineare Dynamik KW - 'Reduced-Form' Modellierung KW - Thermohaline Atlantikzirkulation KW - Indischer Monsun KW - Integrated Assessment KW - Nonlinear Dynamics KW - Reduced-Form Modeling KW - Atlantic Thermohaline Circulation KW - Indian Monsoon KW - Integrated Assessment Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001176 ER - TY - THES A1 - Zibulski, Romy T1 - Taxonomic composition and biochemical and isotopic characteristics of North-Siberian mosses and their application to the palaeoecological reconstruction of tundra polygon development Y1 - 2014 ER - TY - THES A1 - Zhu, Fangjun T1 - Gene evolution and expression patterns in the all-female fish Amazon molly: Poecilia formosa Y1 - 2016 ER - TY - THES A1 - Zhou, Xu T1 - Atmospheric interactions with land surface in the arctic based on regional climate model solutions Y1 - 2014 ER - TY - THES A1 - Zhou, Xiangqian T1 - Modeling of spatially distributed nitrate transport to investigate the effects of drought and river restoration in the Bode catchment, Central Germany N2 - The European Water Framework Directive (WFD) has identified river morphological alteration and diffuse pollution as the two main pressures affecting water bodies in Europe at the catchment scale. Consequently, river restoration has become a priority to achieve the WFD's objective of good ecological status. However, little is known about the effects of stream morphological changes, such as re-meandering, on in-stream nitrate retention at the river network scale. Therefore, catchment nitrate modeling is necessary to guide the implementation of spatially targeted and cost-effective mitigation measures. Meanwhile, Germany, like many other regions in central Europe, has experienced consecutive summer droughts from 2015-2018, resulting in significant changes in river nitrate concentrations in various catchments. However, the mechanistic exploration of catchment nitrate responses to changing weather conditions is still lacking. Firstly, a fully distributed, process-based catchment Nitrate model (mHM-Nitrate) was used, which was properly calibrated and comprehensively evaluated at numerous spatially distributed nitrate sampling locations. Three calibration schemes were designed, taking into account land use, stream order, and mean nitrate concentrations, and they varied in spatial coverage but used data from the same period (2011–2019). The model performance for discharge was similar among the three schemes, with Nash-Sutcliffe Efficiency (NSE) scores ranging from 0.88 to 0.92. However, for nitrate concentrations, scheme 2 outperformed schemes 1 and 3 when compared to observed data from eight gauging stations. This was likely because scheme 2 incorporated a diverse range of data, including low discharge values and nitrate concentrations, and thus provided a better representation of within-catchment heterogenous. Therefore, the study suggests that strategically selecting gauging stations that reflect the full range of within-catchment heterogeneity is more important for calibration than simply increasing the number of stations. Secondly, the mHM-Nitrate model was used to reveal the causal relations between sequential droughts and nitrate concentration in the Bode catchment (3200 km2) in central Germany, where stream nitrate concentrations exhibited contrasting trends from upstream to downstream reaches. The model was evaluated using data from six gauging stations, reflecting different levels of runoff components and their associated nitrate-mixing from upstream to downstream. Results indicated that the mHM-Nitrate model reproduced dynamics of daily discharge and nitrate concentration well, with Nash-Sutcliffe Efficiency ≥ 0.73 for discharge and Kling-Gupta Efficiency ≥ 0.50 for nitrate concentration at most stations. Particularly, the spatially contrasting trends of nitrate concentration were successfully captured by the model. The decrease of nitrate concentration in the lowland area in drought years (2015-2018) was presumably due to (1) limited terrestrial export loading (ca. 40% lower than that of normal years 2004-2014), and (2) increased in-stream retention efficiency (20% higher in summer within the whole river network). From a mechanistic modelling perspective, this study provided insights into spatially heterogeneous flow and nitrate dynamics and effects of sequential droughts, which shed light on water-quality responses to future climate change, as droughts are projected to be more frequent. Thirdly, this study investigated the effects of stream restoration via re-meandering on in-stream nitrate retention at network-scale in the well-monitored Bode catchment. The mHM-Nitrate model showed good performance in reproducing daily discharge and nitrate concentrations, with median Kling-Gupta values of 0.78 and 0.74, respectively. The mean and standard deviation of gross nitrate retention efficiency, which accounted for both denitrification and assimilatory uptake, were 5.1 ± 0.61% and 74.7 ± 23.2% in winter and summer, respectively, within the stream network. The study found that in the summer, denitrification rates were about two times higher in lowland sub-catchments dominated by agricultural lands than in mountainous sub-catchments dominated by forested areas, with median ± SD of 204 ± 22.6 and 102 ± 22.1 mg N m-2 d-1, respectively. Similarly, assimilatory uptake rates were approximately five times higher in streams surrounded by lowland agricultural areas than in those in higher-elevation, forested areas, with median ± SD of 200 ± 27.1 and 39.1 ± 8.7 mg N m-2 d-1, respectively. Therefore, restoration strategies targeting lowland agricultural areas may have greater potential for increasing nitrate retention. The study also found that restoring stream sinuosity could increase net nitrate retention efficiency by up to 25.4 ± 5.3%, with greater effects seen in small streams. These results suggest that restoration efforts should consider augmenting stream sinuosity to increase nitrate retention and decrease nitrate concentrations at the catchment scale. N2 - Die Europäische Wasserrahmenrichtlinie hat die morphologischen Veränderungen der Flüsse und die diffuse Verschmutzung als die Hauptprobleme der Gewässer in Europa identifiziert. Um diese Probleme anzugehen, hat die Renaturierung von Fließgewässern hohe Priorität. Es ist jedoch nur wenig darüber bekannt, wie sich Veränderungen der Flussform, wie z. B. die Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässer auswirken. Deutschland hat in den letzten Jahren Dürreperioden erlebt, die zu Veränderungen der Nitratkonzentration in den Fließgewässern geführt haben. Es gibt jedoch nur wenig Erkenntnisse darüber, wie sich diese Dürreperioden auf die Nitratkonzentration auswirken. Zur Untersuchung dieser Einflüsse kann eine Modellierung des Nitrat-Transports und -Rückhalts in Einzugsgebieten wichtige Hinweise zu wirksamen Reduzierungsmaßnahmen liefern. In dieser Studie wurde ein prozessbasiertes hydrologisches Wasserqualitätsmodell (mHM-Nitrate) verwendet, um die Nitratdynamik im Einzugsgebiet der Bode (3200 km2) zu simulieren. Das Modell wurde anhand von Daten aus verschiedenen Teileinzugsgebieten kalibriert und bewertet. Es wurden drei Kalibrierungsvarianten entwickelt, die die Flächennutzung, die Ordnung der Fließgewässer und die mittleren Nitratkonzentrationen mit unterschiedlichem Detaillierungsgrad berücksichtigten. Die Modellierungsgüte für den Abfluss war bei allen drei Kalibrierungsvarianten ähnlich, während sich bei den Nitratkonzentrationen deutliche Unterschiede ergaben. Die Studie zeigte, dass die Auswahl von Messstationen, die die charakteristischen Gebietseigenschaften widerspiegeln, für die Nitrat-Kalibrierung wichtiger ist als die reine Anzahl der Messstationen. Das Modell wurde auch verwendet, um die Beziehung zwischen Dürreperioden und der Nitratdynamik im Bodegebiet zu untersuchen. Das Modell gab die Dynamik von Abfluss und Nitrat sehr gut wider und erfasste hierbei auch die räumlichen Unterschiede in den Nitratkonzentrationen sehr gut. Die Studie ergab, dass Dürreperioden zu niedrigeren Nitratkonzentrationen in den landwirtschaftlich genutzten Gebieten im Tiefland führten, was auf einen geringeren terrestrischen Export und einen erhöhten Rückhalt in den Fließgewässern zurückzuführen war. Die Untersuchung liefert Erkenntnisse über die Auswirkungen von Dürren auf den Nitrataustrag, was für das Verständnis der Auswirkungen des künftigen Klimawandels wichtig ist. Darüber hinaus untersuchte die Studie die Auswirkungen der Renaturierung von Fließgewässern, insbesondere der Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässernetz. Die Untersuchung zeigte, dass der gewässerinterne Nitratrückhalt in landwirtschaftlichen Tieflandgebieten höher war als in bewaldeten Gebieten. Die Wiederherstellung natürlich meandrierender Fließgewässer erhöhte die Nitratretention und verringerte die Nitratkonzentration im Fließgewässer, insbesondere in kleinen Bächen in landwirtschaftlichen Gebieten. Dies deutet darauf hin, dass bei Sanierungsmaßnahmen die Erhöhung der Gewässersinuosität berücksichtigt werden sollte, um den Nitratrückhalt und die Wasserqualität insbesondere in den Teiflandgebieten zu erhöhen. KW - multi-site calibration KW - spatiotemporal validation KW - uncertainty KW - parameter transferability KW - drought KW - catchment hydrology Water quality model KW - river restoration KW - stream sinuosity KW - mHM-Nitrate model KW - stream denitrification KW - assimilatory uptake KW - Kalibrierung an mehreren Standorten KW - räumlich-zeitliche Validierung KW - Ungewissheit KW - Übertragbarkeit der Parameter KW - Dürre KW - Einzugsgebietshydrologie Wasserqualitätsmodell KW - Restaurierung von Flüssen KW - Strömungsneigung KW - mHM-Nitrat-Modell KW - Bachdenitrifikation KW - assimilatorische Aufnahme Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-621059 ER - TY - THES A1 - Zhou, Wei T1 - Access control model and policies for collaborative environments Y1 - 2008 CY - Potsdam ER - TY - THES A1 - Zhou, Shuo T1 - Biological evaluation and sulfation of polymer networks from glycerol glycidyl ether N2 - Cardiovascular diseases are the main cause of death worldwide, and their prevalence is expected to rise in the coming years. Polymer-based artificial replacements have been widely used for the treatment of cardiovascular diseases. Coagulation and thrombus formation on the interfaces between the materials and the human physiological environment are key issues leading to the failure of the medical device in clinical implantation. The surface properties of the materials have a strong influence on the protein adsorption and can direct the blood cell adhesion behavior on the interfaces. Furthermore, implant-associated infections will be induced by bacterial adhesion and subsequent biofilm formation at the implantation site. Thus, it is important to improve the hemocompatibility of an implant by altering the surface properties. One of the effective strategies is surface passivation to achieve protein/cell repelling ability to reduce the risk of thrombosis. This thesis consists of synthesis, functionalization, sterilization, and biological evaluation of bulk poly(glycerol glycidyl ether) (polyGGE), which is a highly crosslinked polyether-based polymer synthesized by cationic ring-opening polymerization. PolyGGE is hypothesized to be able to resist plasma protein adsorption and bacterial adhesion due to analogous chemical structure as polyethylene glycol and hyperbranched polyglycerol. Hydroxyl end groups of polyGGE provide possibilities to be functionalized with sulfates to mimic the anti-thrombogenic function of the endothelial glycocalyx. PolyGGE was synthesized by polymerization of the commercially available monomer glycerol glycidyl ether, which was characterized as a mixture of mono-, di- and tri-glycidyl ether. Cationic ring opening-polymerization of this monomer was carried out by ultraviolet (UV) initiation of the photo-initiator diphenyliodonium hexafluorophosphate. With the increased UV curing time, more epoxides in the side chains of the monomers participated in chemical crosslinking, resulting in an increase of Young’s modulus, while the value of elongation at break of polyGGE first increased due to the propagation of the polymer chains then decreased with the increase of crosslinking density. Eventually, the chain propagation can be effectively terminated by potassium hydroxide aqueous solution. PolyGGE exhibited different tensile properties in hydrated conditions at body temperature compared to the values in the dry state at room temperature. Both Young’s modulus and values of elongation at break were remarkably reduced when tested in water at 37 °C, which was above the glass transition temperature of polyGGE. At physiological conditions, entanglements of the ployGGE networks unfolded and the free volume of networks were replaced by water molecules as softener, which increased the mobility of the polymer chains, resulting in a lower Young’s modulus. Protein adsorption analysis was performed on polyGGE films with 30 min UV curing using an enzyme-linked immunosorbent assay. PolyGGE could effectively prevent the adsorption of human plasma fibrinogen, albumin, and fibronectin at the interface of human plasma and polyGGE films. The protein resistance of polyGGE was comparable to the negative controls: the hemocompatible polydimethylsiloxane (PDMS), showing its potential as a coating material for cardiovascular implants. Moreover, antimicrobial tests of bacterial activity using isothermal microcalorimetry and the microscopic image of direct bacteria culturing demonstrated that polyGGE could directly interfere biofilm formation and growth of both Gram-negative and antibiotic-resistant Gram-positive bacteria, indicating the potential application of polyGGE for combating the risk of hospital-acquired infections and preventing drug-resistant superbug spreading. To investigate its cell compatibility, polyGGE films were extracted by different solvents (ethanol, chloroform, acetone) and cell culture medium. Indirect cytotoxicity tests showed extracted polyGGE films still had toxic effects on L929 fibroblast cells. High-performance liquid chromatography/electrospray ionization mass spectrometry revealed the occurrence of organochlorine-containing compounds released during the polymer-cell culture medium interaction. A constant level of those organochlorine-containing compounds was confirmed from GGE monomer by a specific peak of C-Cl stretching in infrared spectra of GGE. This is assumed to be the main reason causing the increased cell membrane permeability and decreased metabolic activity, leading to cell death. Attempts as changing solvents were made to remove toxic substances, however, the release of these small molecules seems to be sluggish. The densely crosslinked polyGGE networks can possibly contribute to the trapping of organochlorine-containing compounds. These results provide valuable information for exploring the potentially toxic substances, leaching from polyGGE networks, and propose a feasible strategy for minimizing the cytotoxicity via reducing their crosslinking density. Sulfamic acid/ N-Methyl-2-pyrrolidone (NMP) were selected as the reagents for the sulfation of polyGGE surfaces. Fourier transform attenuated total reflection infrared spectroscopy (ATR-FT-IR) was used to monitor the functionalization kinetics and the results confirmed the successful sulfate grafting on the surface of polyGGE with the covalent bond -C-O-S-. X-ray photoelectron spectroscopy was used to determine the element composition on the surface and the cross-section of the functionalized polyGGE and sulfation within 15 min guarantees the sulfation only takes place on the surface while not occurring in the bulk of the polymer. The concentration of grafted sulfates increased with the increasing reaction time. The hydrophilicity of the surface of polyGGE was highly increased due to the increase of negatively charged end groups. Three sterilization techniques including autoclaving, gamma irradiation, and ethylene oxide (EtO) sterilization were used for polyGGE sulfates. Results from ATR-FT-IR and Toluidine Blue O quantitative assay demonstrated the total loss of the sulfates after autoclave sterilization, which was also confirmed by the increased water contact angle. Little influence on the concentration of sulfates was found for gamma-irradiated and autoclaving sterilized polyGGE sulfates. To investigate the thermal influence on polyGGE sulfates, one strategy was to use poly(hydroxyethyl acrylate) sulfates (PHEAS) for modeling. The thermogravimetric analysis profile of PHEAS demonstrated that sulfates are not thermally stable independent of the substrate materials and decomposition of sulfates occurs at around 100 °C. Although gamma irradiation also showed little negative effect on the sulfate content, the color change in the polyGGE sulfates indicates chemical or physical change might occur in the polymer. EtO sterilization was validated as the most suitable sterilization technique to maintain the chemical structure of polyGGE sulfates. In conclusion, the conducted work proved that bulk polyGGE can be used as an antifouling coating material and shows its antimicrobial potential. Sulfates functionalization can be effectively realized using sulfamic acid/NMP. EtO sterilization is the most suitable sterilization technique for grafted sulfates. Besides, this thesis also offers a good strategy for the analysis of toxic leachable substances using suitable physicochemical characterization techniques. Future work will focus on minimizing/eliminating the release of toxic substances via reducing the crosslinking density. Another interesting aspect is to study whether grafted sulfates can meet the need for anti-thrombogenicity. N2 - Herz-Kreislauf-Erkrankungen sind weltweit die Haupttodesursache, und es wird erwartet, dass ihre Prävalenz in den kommenden Jahren zunehmen wird. Künstlicher Ersatz auf Polymerbasis wird in großem Umfang für die Behandlung von Herz-Kreislauf-Erkrankungen eingesetzt. Gerinnung und Thrombenbildung an den Grenzflächen zwischen den Materialien und der menschlichen physiologischen Umgebung sind ein Hauptproblem, das zum Versagen des Medizinprodukts bei der klinischen Implantation führt. Die Oberflächeneigenschaften der Materialien haben einen starken Einfluss auf die Proteinadsorption und können das Adhäsionsverhalten von Blutzellen an den Grenzflächen steuern. Darüber hinaus werden Implantat-assoziierte Infektionen durch bakterielle Adhäsion und anschließende Biofilmbildung an der Implantationsstelle ausgelöst. Daher ist es wichtig, die Hämokompatibilität eines Implantats durch Veränderung der Oberflächeneigenschaften zu verbessern. Eine der wirksamen Strategien ist die Oberflächenpassivierung, um die Fähigkeit zur Protein-/Zellabweisung zu erreichen und so das Thromboserisiko zu verringern. Diese Arbeit befasst sich mit der Synthese, Funktionalisierung, Sterilisation und biologischen Bewertung von Poly(glycerin glycidyl ether) (polyGGE), einem stark vernetzten Polymer auf Polyetherbasis, das durch kationische Ringöffnungspolymerisation hergestellt wird. Es wird angenommen, dass PolyGGE aufgrund seiner ähnlichen chemischen Struktur wie Polyethylenglykol und hyperverzweigtes Polyglycerin der Adsorption von Plasmaproteinen und der Anhaftung von Bakterien widerstehen kann. Die Hydroxyl-Endgruppen von PolyGGE können mit Sulfaten funktionalisiert werden, um die antithrombogene Funktion der endothelialen Glykokalyx zu imitieren. PolyGGE wurde durch Polymerisation des kommerziell erhältlichen Monomers Glycerin Glycidyl ether synthetisiert, das als Mischung aus Mono-, Di- und Triglycidylether charakterisiert wurde. Die kationische Ringöffnungspolymerisation dieses Monomers wurde mit Hilfe des Photoinitiators Diphenyliodoniumhexafluorophosphat durch Ultraviolett (UV) ausgelöst. Mit zunehmender UV-Härtungszeit nahmen mehr Epoxide in den Seitenketten der Monomere an der chemischen Vernetzung teil, was zu einem Anstieg des Elastizitätsmoduls führte, während der Wert der Bruchdehnung von polyGGE zunächst aufgrund der Ausbreitung der Polymerketten anstieg und dann mit zunehmender Vernetzungsdichte abnahm. Schließlich kann die Kettenausbreitung durch wässrige Kaliumhydroxidlösung wirksam gestoppt werden. PolyGGE wies im hydratisierten Zustand bei Körpertemperatur andere Zugeigenschaften auf als im trockenen Zustand bei Raumtemperatur. Sowohl der Elastizitätsmodul als auch die Werte der Bruchdehnung waren deutlich reduziert, wenn sie in Wasser bei 37 °C getestet wurden, was oberhalb der Glasübergangstemperatur von PolyGGE lag. Unter physiologischen Bedingungen entfalteten sich die Verflechtungen der PolyGGE-Netzwerke und das freie Volumen der Netzwerke wurde durch Wassermoleküle als Weichmacher ersetzt, was die Mobilität der Polymerketten erhöhte und zu einem niedrigeren Elastizitätsmodul führte. Die Proteinadsorptionsanalyse wurde an PolyGGE-Filmen mit 30-minütiger UV-Härtung unter Verwendung eines Enzymimmunoassays durchgeführt. PolyGGE konnte die Adsorption von Fibrinogen, Albumin und Fibronektin aus menschlichem Plasma an der Grenzfläche zwischen menschlichem Plasma und PolyGGE-Filmen wirksam verhindern. Die Proteinresistenz von PolyGGE war vergleichbar mit den Negativkontrollen: dem hämokompatiblen Polydimethylsiloxan, was sein Potenzial als Beschichtungsmaterial für kardiovaskuläre Implantate zeigt. Darüber hinaus zeigten antimikrobielle Tests der bakteriellen Aktivität mittels isothermischer Mikrokalorimetrie und das mikroskopische Bild der direkten Bakterienkultur, dass PolyGGE die Biofilmbildung und das Wachstum sowohl von gramnegativen als auch von antibiotikaresistenten grampositiven Bakterien direkt stören kann, was auf die potenzielle Anwendung von PolyGGE zur Bekämpfung des Risikos von Krankenhausinfektionen und zur Verhinderung der Ausbreitung arzneimittelresistenter Superbugs hinweist. Um die Zellkompatibilität zu untersuchen, wurden polyGGE-Folien mit verschiedenen Lösungsmitteln (Ethanol, Chloroform, Aceton) und Zellkulturmedium extrahiert. Indirekte Zytotoxizitätstests zeigten, dass die extrahierten polyGGE-Filme immer noch eine toxische Wirkung auf L929-Fibroblastenzellen hatten. Die Hochleistungsflüssigkeitschromatographie/Elektrospray-Ionisations-Massenspektrometrie zeigte das Auftreten von chlororganischen Derivaten, die während der Interaktion zwischen Polymer und Zellkulturmedium freigesetzt wurden. Ein konstantes Niveau dieser chlororganischen Derivate wurde vom GGE-Monomer durch einen spezifischen C-Cl-Streckungspeak im Infrarotspektrum von GGE bestätigt. Es wird angenommen, dass dies der Hauptgrund für die erhöhte Permeabilität der Zellmembran und die verringerte Stoffwechselaktivität ist, was zum Zelltod führt. Es wurden Versuche unternommen, die Lösungsmittel zu wechseln, um die toxischen Substanzen zu entfernen, aber die Freisetzung dieser kleinen Moleküle scheint nur langsam zu erfolgen. Die dicht vernetzten polyGGE-Netzwerke können möglicherweise zum Einschluss chloridhaltiger Verbindungen beitragen. Diese Ergebnisse liefern wertvolle Informationen für die Erforschung potenzieller toxischer Substanzen, die aus PolyGGE-Netzwerken ausgewaschen werden, und schlagen eine praktikable Strategie zur Minimierung der Zytotoxizität durch Verringerung der Vernetzungsdichte vor. Als Reagenzien für die Sulfatierung von PolyGGE-Oberflächen wurden Sulfaminsäure und N-Methyl-2-Pyrrolidon (NMP) gewählt. Die Fourier-Transformations-Infrarotspektroskopie mit abgeschwächter Totalreflexion (ATR-FT-IR) wurde zur Überwachung der Funktionalisierungskinetik eingesetzt, und die Ergebnisse bestätigten die erfolgreiche Sulfatpfropfung auf der Oberfläche von PolyGGE mit der kovalenten Bindung -C-O-S-. Mit Hilfe der Röntgen-Photoelektronenspektroskopie wurde die Elementzusammensetzung auf der Oberfläche und der Querschnitt des funktionalisierten PolyGGE bestimmt, und die Sulfatierung innerhalb von 15 Minuten garantiert, dass die Sulfatierung nur auf der Oberfläche stattfindet, während sie in der Masse des Polymers nicht vorkommt. Die Konzentration der gepfropften Sulfate nahm mit zunehmender Reaktionszeit zu. Die Hydrophilie der Oberfläche von polyGGE wurde durch die Zunahme negativ geladener Endgruppen stark erhöht. Für die PolyGGE-Sulfate wurden drei Sterilisationstechniken verwendet: Autoklavieren, Gammastrahlenbestrahlung und Ethylenoxid (EtO)-Sterilisation. Die Ergebnisse der quantitativen ATR-FT-IR und Toluidinblau O-Untersuchung zeigten den vollständigen Verlust der Sulfate nach der Sterilisation im Autoklaven, was auch durch den erhöhten Wasserkontaktwinkel bestätigt wurde. Bei den mit Gammastrahlen und im Autoklaven sterilisierten PolyGGE-Sulfaten wurde nur ein geringer Einfluss auf die Sulfatkonzentration festgestellt. Um den thermischen Einfluss auf PolyGGE-Sulfate zu untersuchen, bestand eine Strategie darin, ein Poly(hydroxyethylacrylat)-Sulfat (PHEAS) für die Modellierung zu verwenden. Das Profil der thermogravimetrischen Analyse von PHEAS zeigte, dass Sulfate unabhängig von den Substratmaterialien thermisch nicht stabil sind und die Zersetzung der Sulfate bei etwa 100 °C stattfindet. Obwohl die Gammasterilisation ebenfalls kaum negative Auswirkungen auf den Sulfatgehalt hat, deutet die Farbveränderung der PolyGGE-Sulfate darauf hin, dass chemische oder physikalische Veränderungen im Polymer auftreten könnten. Die EtO-Sterilisation erwies sich als die am besten geeignete Sterilisationstechnik, um die chemische Struktur der PolyGGE-Sulfate zu erhalten. Zusammenfassend lässt sich sagen, dass die durchgeführte Arbeit bewiesen hat, dass PolyGGE als Antifouling-Beschichtungsmaterial verwendet werden kann und sein antimikrobielles Potenzial zeigt. Die Funktionalisierung der Sulfate kann mit Sulfaminsäure/NMP effektiv durchgeführt werden. Die EtO-Sterilisation ist die am besten geeignete Sterilisationstechnik für gepfropfte Sulfate. Darüber hinaus bietet diese Arbeit auch eine gute Strategie für die Analyse toxischer auslaugbarer Substanzen mit Hilfe geeigneter physikalisch-chemischer Charakterisierungstechniken. Zukünftige Arbeiten werden sich darauf konzentrieren, die Freisetzung toxischer Substanzen durch Verringerung der Vernetzungsdichte zu minimieren bzw. zu eliminieren. Ein weiterer interessanter Aspekt ist die Untersuchung, ob gepfropfte Sulfate den Anforderungen an die Anti-Thrombogenität gerecht werden können. KW - Sulfation KW - Antifouling KW - antimicrobial KW - Polyether Y1 - 2022 ER - TY - THES A1 - Zhou, Fei T1 - Optimization of foreign gene expression in plastids Y1 - 2008 ER - TY - THES A1 - Zhou, Bin T1 - On the assessment of surface urban heat island T1 - Bewertung des urbanen Hitzeinseleffekts BT - size, urban form, and seasonality BT - Stadtgröße, Stadtform, und Seasonalität N2 - Inwiefern Städte unter den Megatrends der Urbanisierung und des Klimawandels nachhaltig gestaltet werden können, bleibt umstritten. Dies ist zum Teil auf unzureichende Kenntnisse der Mensch-Umwelt-Interaktionen zurückzuführen. Als die am vollständigsten dokumentierte anthropogene Klimamodifikation ruft der Urbane Hitzeinsel (UHI) Effekt weltweit Sorgen hinsichtlich der Gesundheit der Bevölkerung hervor. Dazu kommt noch ein immer häufigeres und intensiveres Auftreten von Hitzewellen, wodurch das Wohlbefinden der Stadtbewohner weiter beeinträchtigt wird. Trotz eines deutlichen Anstiegs der Zahl der UHI-bezogenen Veröffentlichungen in den letzten Jahrzehnten haben die unterschiedlichen Definitionen von städtischen und ländlichen Gebieten in bisherigen Studien die allgemeine Vergleichbarkeit der Resultate stark erschwert. Darüber hinaus haben nur wenige Studien den UHI-Effekt und seine Einflussfaktoren anhand einer Kombination der Landnutzungsdaten und der thermischen Fernerkundung systematisch untersucht. Diese Arbeit stellt einen allgemeinen Rahmen zur Quantifizierung von UHI-Intensitäten mittels eines automatisierten Algorithmus vor, wobei Städte als Agglomerationen maximal räumlicher Kontinuität basierend auf Landnutzungsdaten identifiziert, sowie deren ländliche Umfelder analog definiert werden. Durch Verknüpfung der Landnutzungsdaten mit Landoberflächentemperaturen von Satelliten kann die UHI-Intensität robust und konsistent berechnet werden. Anhand dieser Innovation wurde nicht nur der Zusammenhang zwischen Stadtgröße und UHI-Intensität erneut untersucht, sondern auch die Auswirkungen der Stadtform auf die UHI-Intensität quantifiziert. Diese Arbeit leistet vielfältige Beiträge zum tieferen Verständnis des UHI-Phänomens. Erstens wurde eine log-lineare Beziehung zwischen UHI-Intensität und Stadtgröße unter Berücksichtigung der 5,000 europäischen Städte bestätigt. Werden kleinere Städte auch berücksichtigt, ergibt sich eine log-logistische Beziehung. Zweitens besteht ein komplexes Zusammenspiel zwischen der Stadtform und der UHI-Intensität: die Stadtgröße stellt den stärksten Einfluss auf die UHI-Intensität dar, gefolgt von der fraktalen Dimension und der Anisometrie. Allerdings zeigen ihre relativen Beiträge zur UHI-Intensität eine regionale Heterogenität, welche die Bedeutung räumlicher Muster während der Umsetzung von UHI-Anpassungsmaßnahmen hervorhebt. Des Weiteren ergibt sich eine neue Saisonalität der UHI-Intensität für individuelle Städte in Form von Hysteresekurven, die eine Phasenverschiebung zwischen den Zeitreihen der UHI-Intensität und der Hintergrundtemperatur andeutet. Diese Saisonalität wurde anhand von Luft- und Landoberflächentemperaturen untersucht, indem die Satellitenbeobachtung und die Modellierung der urbanen Grenzschicht mittels des UrbClim-Modells kombiniert wurden. Am Beispiel von London ist die Diskrepanz der Saisonalitäten zwischen den beiden Temperaturen vor allem auf die mit der einfallenden Sonnenstrahlung verbundene Besonderheit der Landoberflächentemperatur zurückzuführen. Darüber hinaus spielt das regionale Klima eine wichtige Rolle bei der Entwicklung der UHI. Diese Arbeit ist eine der ersten Studien dieser Art, die eine systematische und statistische Untersuchung des UHI-Effektes ermöglicht. Die Ergebnisse sind von besonderer Bedeutung für die allgemeine räumliche Planung und Regulierung auf Meso- und Makroebenen, damit sich Vorteile der rapiden Urbanisierung nutzbar machen und zeitgleich die folgende Hitzebelastung proaktiv vermindern lassen. N2 - To what extent cities can be made sustainable under the mega-trends of urbanization and climate change remains a matter of unresolved scientific debate. Our inability in answering this question lies partly in the deficient knowledge regarding pivotal humanenvironment interactions. Regarded as the most well documented anthropogenic climate modification, the urban heat island (UHI) effect – the warmth of urban areas relative to the rural hinterland – has raised great public health concerns globally. Worse still, heat waves are being observed and are projected to increase in both frequency and intensity, which further impairs the well-being of urban dwellers. Albeit with a substantial increase in the number of publications on UHI in the recent decades, the diverse urban-rural definitions applied in previous studies have remarkably hampered the general comparability of results achieved. In addition, few studies have attempted to synergize the land use data and thermal remote sensing to systematically assess UHI and its contributing factors. Given these research gaps, this work presents a general framework to systematically quantify the UHI effect based on an automated algorithm, whereby cities are defined as clusters of maximum spatial continuity on the basis of land use data, with their rural hinterland being defined analogously. By combining land use data with spatially explicit surface skin temperatures from satellites, the surface UHI intensity can be calculated in a consistent and robust manner. This facilitates monitoring, benchmarking, and categorizing UHI intensities for cities across scales. In light of this innovation, the relationship between city size and UHI intensity has been investigated, as well as the contributions of urban form indicators to the UHI intensity. This work delivers manifold contributions to the understanding of the UHI, which have complemented and advanced a number of previous studies. Firstly, a log-linear relationship between surface UHI intensity and city size has been confirmed among the 5,000 European cities. The relationship can be extended to a log-logistic one, when taking a wider range of small-sized cities into account. Secondly, this work reveals a complex interplay between UHI intensity and urban form. City size is found to have the strongest influence on the UHI intensity, followed by the fractality and the anisometry. However, their relative contributions to the surface UHI intensity depict a pronounced regional heterogeneity, indicating the importance of considering spatial patterns of UHI while implementing UHI adaptation measures. Lastly, this work presents a novel seasonality of the UHI intensity for individual clusters in the form of hysteresis-like curves, implying a phase shift between the time series of UHI intensity and background temperatures. Combining satellite observation and urban boundary layer simulation, the seasonal variations of UHI are assessed from both screen and skin levels. Taking London as an example, this work ascribes the discrepancies between the seasonality observed at different levels mainly to the peculiarities of surface skin temperatures associated with the incoming solar radiation. In addition, the efforts in classifying cities according to their UHI characteristics highlight the important role of regional climates in determining the UHI. This work serves as one of the first studies conducted to systematically and statistically scrutinize the UHI. The outcomes of this work are of particular relevance for the overall spatial planning and regulation at meso- and macro levels in order to harness the benefits of rapid urbanization, while proactively minimizing its ensuing thermal stress. KW - urban heat island effect KW - surface urban heat island effect KW - UHI KW - urban form KW - der Urbane Hitzeinsel Effekt KW - der Städtische Wärmeinseleffekt KW - der Urbane Hitzeinsel Effekt basierend auf Landoberflächentemperatur KW - UHI KW - die Stadtform Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404383 ER - TY - THES A1 - Zheng, Chunming T1 - Bursting and synchronization in noisy oscillatory systems T1 - Bursting und Synchronisation in verrauschten, oszillierenden Systemen N2 - Noise is ubiquitous in nature and usually results in rich dynamics in stochastic systems such as oscillatory systems, which exist in such various fields as physics, biology and complex networks. The correlation and synchronization of two or many oscillators are widely studied topics in recent years. In this thesis, we mainly investigate two problems, i.e., the stochastic bursting phenomenon in noisy excitable systems and synchronization in a three-dimensional Kuramoto model with noise. Stochastic bursting here refers to a sequence of coherent spike train, where each spike has random number of followers due to the combined effects of both time delay and noise. Synchronization, as a universal phenomenon in nonlinear dynamical systems, is well illustrated in the Kuramoto model, a prominent model in the description of collective motion. In the first part of this thesis, an idealized point process, valid if the characteristic timescales in the problem are well separated, is used to describe statistical properties such as the power spectral density and the interspike interval distribution. We show how the main parameters of the point process, the spontaneous excitation rate, and the probability to induce a spike during the delay action can be calculated from the solutions of a stationary and a forced Fokker-Planck equation. We extend it to the delay-coupled case and derive analytically the statistics of the spikes in each neuron, the pairwise correlations between any two neurons, and the spectrum of the total output from the network. In the second part, we investigate the three-dimensional noisy Kuramoto model, which can be used to describe the synchronization in a swarming model with helical trajectory. In the case without natural frequency, the Kuramoto model can be connected with the Vicsek model, which is widely studied in collective motion and swarming of active matter. We analyze the linear stability of the incoherent state and derive the critical coupling strength above which the incoherent state loses stability. In the limit of no natural frequency, an exact self-consistent equation of the mean field is derived and extended straightforward to any high-dimensional case. N2 - Rauschen ist in der Natur allgegenwärtig und führt zu einer reichen Dynamik in stochastischen Systemen von gekoppelten Oszillatoren, die in so unterschiedlichen Bereichen wie Physik, Biologie und in komplexen Netzwerken existieren. Korrelation und Synchronisation von zwei oder vielen Oszillatoren ist in den letzten Jahren ein aktives Forschungsfeld. In dieser Arbeit untersuchen wir hauptsächlich zwei Probleme, d.h. das stochastische Burst-Phänomen in verrauschten anregbaren Systemen und die Synchronisation in einem dreidimensionalen Kuramoto-Modell mit Rauschen. Stochastisches Bursting bezieht sich hier auf eine Folge von kohärenten Spike-Zügen, bei denen jeder Spike aufgrund der kombinierten Effekte von Zeitverzögerung und Rauschen eine zufällige Anzahl von Folge Spikes aufweist. Die Synchronisation als universelles Phänomen in nichtlinearen dynamischen Systemen kann anhand des Kuramoto-Modells, einem grundlegenden Modell bei der gekoppelter Oszillatoren und kollektiver Bewegung, gut demonstriert und analysiert werden. Im ersten Teil dieser Arbeit wird ein idealisierter Punktprozess betrachtet, der gültig ist, wenn die charakteristischen Zeitskalen im Problem gut voneinander getrennt sind,um statistische Eigenschaften wie die spektrale Leistungsdichte und die Intervallverteilung zwischen Neuronen Impulsen zu beschreiben. Wir zeigen, wie die Hauptparameter des Punktprozesses, die spontane Anregungsrate und die Wahrscheinlichkeit, während der Verzögerungsaktion einen Impuls zu induzieren, aus den Lösungen einer stationären und einer getriebenen Fokker-Planck-Gleichung berechnet werden können. Wir erweitern dieses Ergebnis auf den verzögerungsgekoppelten Fall und leiten analytisch die Statistiken der Impulse in jedem Neuron, die paarweisen Korrelationen zwischen zwei beliebigen Neuronen und das Spektrum der Zeitreihe alle Impulse aus dem Netzwerk ab. Im zweiten Teil untersuchen wir das dreidimensionale verrauschte Kuramoto-Modell, mit dem die Synchronisation eines Schwarmmodells mit schraubenförmigen Flugbahnen beschrieben werden kann. Im Fall ohne Eigenfrequenz jedes Teilchensist das System äquivalent zum Vicsek Modell, welches in der Beschreibung der kollektiven Bewegung von Schwärmen und aktiver Materie eine breite Anwendung findet. Wir analysieren die lineare Stabilität des inkohärenten Zustands und leiten die kritische Kopplungsstärke ab, oberhalb derer der inkohärente Zustand an Stabilität verliert. Im Fall ohne Eigenfrequenz wird eine exakte selbstkonsistente Gleichung für das mittlere Feld abgeleitet und direkt für höherdimensionale Bewegungen verallgemeinert. KW - Synchronization KW - Kuramoto model KW - Oscillation KW - stochastic bursting KW - Synchronisation KW - Kuramoto-Modell KW - Oszillatoren KW - Stochastisches Bursting Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-500199 ER - TY - THES A1 - Zhelavskaya, Irina S. T1 - Modeling of the Plasmasphere Dynamics T1 - Modellierung der Plasmasphärendynamik N2 - The plasmasphere is a dynamic region of cold, dense plasma surrounding the Earth. Its shape and size are highly susceptible to variations in solar and geomagnetic conditions. Having an accurate model of plasma density in the plasmasphere is important for GNSS navigation and for predicting hazardous effects of radiation in space on spacecraft. The distribution of cold plasma and its dynamic dependence on solar wind and geomagnetic conditions remain, however, poorly quantified. Existing empirical models of plasma density tend to be oversimplified as they are based on statistical averages over static parameters. Understanding the global dynamics of the plasmasphere using observations from space remains a challenge, as existing density measurements are sparse and limited to locations where satellites can provide in-situ observations. In this dissertation, we demonstrate how such sparse electron density measurements can be used to reconstruct the global electron density distribution in the plasmasphere and capture its dynamic dependence on solar wind and geomagnetic conditions. First, we develop an automated algorithm to determine the electron density from in-situ measurements of the electric field on the Van Allen Probes spacecraft. In particular, we design a neural network to infer the upper hybrid resonance frequency from the dynamic spectrograms obtained with the Electric and Magnetic Field Instrument Suite and Integrated Science (EMFISIS) instrumentation suite, which is then used to calculate the electron number density. The developed Neural-network-based Upper hybrid Resonance Determination (NURD) algorithm is applied to more than four years of EMFISIS measurements to produce the publicly available electron density data set. We utilize the obtained electron density data set to develop a new global model of plasma density by employing a neural network-based modeling approach. In addition to the location, the model takes the time history of geomagnetic indices and location as inputs, and produces electron density in the equatorial plane as an output. It is extensively validated using in-situ density measurements from the Van Allen Probes mission, and also by comparing the predicted global evolution of the plasmasphere with the global IMAGE EUV images of He+ distribution. The model successfully reproduces erosion of the plasmasphere on the night side as well as plume formation and evolution, and agrees well with data. The performance of neural networks strongly depends on the availability of training data, which is limited during intervals of high geomagnetic activity. In order to provide reliable density predictions during such intervals, we can employ physics-based modeling. We develop a new approach for optimally combining the neural network- and physics-based models of the plasmasphere by means of data assimilation. The developed approach utilizes advantages of both neural network- and physics-based modeling and produces reliable global plasma density reconstructions for quiet, disturbed, and extreme geomagnetic conditions. Finally, we extend the developed machine learning-based tools and apply them to another important problem in the field of space weather, the prediction of the geomagnetic index Kp. The Kp index is one of the most widely used indicators for space weather alerts and serves as input to various models, such as for the thermosphere, the radiation belts and the plasmasphere. It is therefore crucial to predict the Kp index accurately. Previous work in this area has mostly employed artificial neural networks to nowcast and make short-term predictions of Kp, basing their inferences on the recent history of Kp and solar wind measurements at L1. We analyze how the performance of neural networks compares to other machine learning algorithms for nowcasting and forecasting Kp for up to 12 hours ahead. Additionally, we investigate several machine learning and information theory methods for selecting the optimal inputs to a predictive model of Kp. The developed tools for feature selection can also be applied to other problems in space physics in order to reduce the input dimensionality and identify the most important drivers. Research outlined in this dissertation clearly demonstrates that machine learning tools can be used to develop empirical models from sparse data and also can be used to understand the underlying physical processes. Combining machine learning, physics-based modeling and data assimilation allows us to develop novel methods benefiting from these different approaches. N2 - Die Plasmasphäre ist eine die Erde umgebende dynamische Region aus kaltem, dichtem Plasma. Ihre Form und Größe sind sehr anfällig für Schwankungen der solaren und geomagnetischen Bedingungen. Ein präzises Modell der Plasmadichte in der Plasmasphäre ist wichtig für die GNSS-Navigation und für die Vorhersage gefährlicher Auswirkungen der kosmischen Strahlung auf Raumfahrzeuge. Die Verteilung des kalten Plasmas und seine dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen sind jedoch nach wie vor nur unzureichend quantifiziert. Bestehende empirische Modelle der Plasmadichte sind in der Regel zu stark vereinfacht, da sie auf statistischen Durchschnittswerten statischer Parameter basieren. Das Verständnis der globalen Dynamik der Plasmasphäre anhand von Beobachtungen aus dem Weltraum bleibt eine Herausforderung, da vorhandene Dichtemessungen spärlich sind und sich auf Orte beschränken, an denen Satelliten In-situ-Beobachtungen liefern können. In dieser Dissertation zeigen wir, wie solche spärlichen Elektronendichtemessungen verwendet werden können, um die globale Elektronendichteverteilung in der Plasmasphäre zu rekonstruieren und ihre dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen zu erfassen. Zunächst entwickeln wir einen automatisierten Algorithmus zur Bestimmung der Elektronendichte aus In-situ-Messungen des elektrischen Feldes der Van Allen Probes Raumsonden. Insbesondere entwerfen wir ein neuronales Netzwerk, um die obere Hybridresonanzfrequenz aus den dynamischen Spektrogrammen abzuleiten, die wir durch die Instrumentensuite „Electric and Magnetic Field Instrument Suite“ (EMFISIS) erhielten, welche dann zur Berechnung der Elektronenzahldichte verwendet wird. Der entwickelte „Neural-network-based Upper Hybrid Resonance Determination“ (NURD)-Algorithmus wird auf mehr als vier Jahre der EMFISIS-Messungen angewendet, um den öffentlich verfügbaren Elektronendichte-Datensatz zu erstellen. Wir verwenden den erhaltenen Elektronendichte-Datensatz, um ein neues globales Modell der Plasmadichte zu entwickeln, indem wir einen auf einem neuronalen Netzwerk basierenden Modellierungsansatz verwenden. Zusätzlich zum Ort nimmt das Modell den zeitlichen Verlauf der geomagnetischen Indizes und des Ortes als Eingabe und erzeugt als Ausgabe die Elektronendichte in der äquatorialebene. Dies wird ausführlich anhand von In-situ-Dichtemessungen der Van Allen Probes-Mission und durch den Vergleich der vom Modell vorhergesagten globalen Entwicklung der Plasmasphäre mit den globalen IMAGE EUV-Bildern der He+ -Verteilung validiert. Das Modell reproduziert erfolgreich die Erosion der Plasmasphäre auf der Nachtseite sowie die Bildung und Entwicklung von Fahnen und stimmt gut mit den Daten überein. Die Leistung neuronaler Netze hängt stark von der Verfügbarkeit von Trainingsdaten ab, die für Intervalle hoher geomagnetischer Aktivität nur spärlich vorhanden sind. Um zuverlässige Dichtevorhersagen während solcher Intervalle zu liefern, können wir eine physikalische Modellierung verwenden. Wir entwickeln einen neuen Ansatz zur optimalen Kombination der neuronalen Netzwerk- und physikbasierenden Modelle der Plasmasphäre mittels Datenassimilation. Der entwickelte Ansatz nutzt sowohl die Vorteile neuronaler Netze als auch die physikalischen Modellierung und liefert zuverlässige Rekonstruktionen der globalen Plasmadichte für ruhige, gestörte und extreme geomagnetische Bedingungen. Schließlich erweitern wir die entwickelten auf maschinellem Lernen basierten Werkzeuge und wenden sie auf ein weiteres wichtiges Problem im Bereich des Weltraumwetters an, die Vorhersage des geomagnetischen Index Kp. Der Kp-Index ist einer der am häufigsten verwendeten Indikatoren für Weltraumwetterwarnungen und dient als Eingabe für verschiedene Modelle, z.B. für die Thermosphäre, die Strahlungsgürtel und die Plasmasphäre. Es ist daher wichtig, den Kp-Index genau vorherzusagen. Frühere Arbeiten in diesem Bereich verwendeten hauptsächlich künstliche neuronale Netze, um Kurzzeit-Kp-Vorhersagen zu treffen, wobei deren Schlussfolgerungen auf der jüngsten Vergangenheit von Kp- und Sonnenwindmessungen am L1-Punkt beruhten. Wir analysieren, wie sich die Leistung neuronaler Netze im Vergleich zu anderen Algorithmen für maschinelles Lernen verhält, um kurz- und längerfristige Kp-Voraussagen von bis zu 12 Stunden treffen zu können. Zusätzlich untersuchen wir verschiedene Methoden des maschinellen Lernens und der Informationstheorie zur Auswahl der optimalen Eingaben für ein Vorhersagemodell von Kp. Die entwickelten Werkzeuge zur Merkmalsauswahl können auch auf andere Probleme in der Weltraumphysik angewendet werden, um die Eingabedimensionalität zu reduzieren und die wichtigsten Treiber zu identifizieren. Die in dieser Dissertation skizzierten Untersuchungen zeigen deutlich, dass Werkzeuge für maschinelles Lernen sowohl zur Entwicklung empirischer Modelle aus spärlichen Daten als auch zum Verstehen zugrunde liegender physikalischer Prozesse genutzt werden können. Die Kombination von maschinellem Lernen, physikbasierter Modellierung und Datenassimilation ermöglicht es uns, kombinierte Methoden zu entwickeln, die von unterschiedlichen Ansätzen profitieren. KW - Plasmasphere KW - Inner magnetosphere KW - Neural networks KW - Machine learning KW - Modeling KW - Kp index KW - Geomagnetic activity KW - Data assimilation KW - Validation KW - IMAGE EUV KW - Kalman filter KW - Plasmasphäre KW - Innere Magnetosphäre KW - Neuronale Netze KW - Maschinelles Lernen KW - Modellieren KW - Forecasting KW - Kp-Index KW - Geomagnetische Aktivität KW - Datenassimilation KW - Validierung KW - Kalman Filter KW - Prognose Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-482433 ER - TY - THES A1 - Zhao, Yuhang T1 - Synthesis and surface functionalization on plasmonic nanoparticles for optical applications N2 - This thesis focuses on the synthesis of novel functional materials based on plasmonic nanoparticles. Three systems with targeted surface modification and functionalization have been designed and synthesized, involving modified perylenediimide doped silica-coated silver nanowires, polydopamine or TiO2 coated gold-palladium nanorods and thiolated poly(ethylene glycol) (PEG-SH)/dodecanethiol (DDT) modified silver nanospheres. Their possible applications as plasmonic resonators, chiral sensors as well as photo-catalysts have been studied. In addition, the interaction between silver nanospheres and 2,3,5,6-Tetrafluoro-7,7,8,8-tetracyanoquinodimethane (F4TCNQ) molecules has also been investigated in detail. In the first part of the thesis, surface modification on Ag nanowires (NWs) with optimized silica coating through a modified Stöber method has been firstly conducted, employing sodium hydroxide (NaOH) to replace ammonia solution (NH4OH). The coated silver nanowires with a smooth silica shell have been investigated by single-particle dark-field scattering spectroscopy, transmission electron microscopy and electron-energy loss spectroscopy to characterize the morphologies and structural components. The silica-coated silver nanowires can be further functionalized with fluorescent molecules in the silica shell via a facile one-step coating method. The as-synthesized nanowire is further coupled with a gold nanosphere by spin-coating for the application of the sub-diffractional chiral sensor for the first time. The exciton-plasmon-photon interconversion in the system eases the signal detection in the perfectly matched 1D nanostructure and contributes to the high contrast of the subwavelength chiral sensing for the polarized light. In the second part of the thesis, dumbbell-shaped Au-Pd nanorods coated with a layer of polydopamine (PDA) or titanium dioxide (TiO2) have been constructed. The PDA- and TiO2- coated Au-Pd nanorods show a strong photothermal conversion performance under NIR illumination. Moreover, the catalytic performance of the particles has been investigated using the reduction of 4-nitrophenol (4-NP) as the model reaction. Under light irradiation, the PDA-coated Au-Pd nanorods exhibit a superior catalytic activity by increasing the reaction rate constant of 3 times. The Arrhenius-like behavior of the reaction with similar activation energies in the presence and absence of light irradiation indicates the photoheating effect to be the dominant mechanism of the reaction acceleration. Thus, we attribute the enhanced performance of the catalysis to the strong photothermal effect that is driven by the optical excitation of the gold surface plasmon as well as the synergy with the PDA layer. In the third part, the kinetic study on the adsorption of 2,3,5,6-Tetrafluoro-7,7,8,8-tetracyanoquino-dimethane (F4TCNQ) on the surface of Ag nanoparticles (Ag NPs) in chloroform has been reported in detail. Based on the results obtained from the UV-vis-NIR absorption spectroscopy, cryogenic transmission electron microscopy (cryo-TEM), scanning nano-beam electron diffraction (NBED) and electron energy loss spectroscopy (EELS), a two-step interaction kinetics has been proposed for the Ag NPs and F4TCNQ molecules. It includes the first step of electron transfer from Ag NPs to F4TCNQ indicated by the ionization of F4TCNQ, and the second step of the formation of Ag-F4TCNQ complex. The whole process has been followed via UV-vis-NIR absorption spectroscopy, which reveals distinct kinetics at two stages: the instantaneous ionization and the long-term complex formation. The kinetics and the influence of the molar ratio of Ag NPs/F4TCNQ molecules on the interaction between Ag NPs and F4TCNQ molecules in the organic solution are reported herein for the first time. Furthermore, the control experiment with silica-coated Ag NPs indicates that the charge transfer at the surface between Ag NPs and F4TCNQ molecules has been prohibited by a silica layer of 18 nm. KW - plasmonic nanoparticles KW - silica KW - polydopamine KW - TiO2 KW - chiral sensing KW - catalysis KW - surface interaction Y1 - 2021 ER - TY - THES A1 - Zhao, Xueru T1 - Palaeoclimate and palaeoenvironment evolution from the last glacial maximum into the early holocene (23-8 ka BP) derived from Lago Grande di Monticchio sediment record (S Italy) Y1 - 2021 ER - TY - THES A1 - Zhao, Liming T1 - Characterization genes involved in leaf development and senescence of arabidopsis Y1 - 2015 ER - TY - THES A1 - Zhao, Li T1 - Sustainable approaches towards novel nitrogen-doped carbonaceous structures Y1 - 2010 CY - Potsdam ER - TY - THES A1 - Zhang, Zhuodong T1 - A regional scale study of wind erosion in the Xilingele grassland based on computational fluid dynamics Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Zhang, Yunming T1 - Understanding the functional specialization of poly(A) polymerases in Arabidopsis thaliana Y1 - 2018 ER - TY - THES A1 - Zhang, Youjun T1 - Investigation of the TCA cycle and glycolytic metabolons and their physiological impacts in plants Y1 - 2016 ER - TY - THES A1 - Zhang, Xiaorong T1 - Electrosynthesis and characterization of molecularly imprinted polymers for peptides and proteins Y1 - 2019 ER - TY - THES A1 - Zhang, Xiaolin T1 - Evaluation of nitrogen dynamics in high-order streams and rivers based on high-frequency monitoring T1 - Bewertung der Stickstoffdynamik in Fliessgewässern 4.-6. Ordnung auf der Grundlage zeitlich hochaufgelöster Sensormessungen N2 - Nutrient storage, transform and transport are important processes for achieving environmental and ecological health, as well as conducting water management plans. Nitrogen is one of the most noticeable elements due to its impacts on tremendous consequences of eutrophication in aquatic systems. Among all nitrogen components, researches on nitrate are blooming because of widespread deployments of in-situ high-frequency sensors. Monitoring and studying nitrate can become a paradigm for any other reactive substances that may damage environmental conditions and cause economic losses. Identifying nitrate storage and its transport within a catchment are inspiring to the management of agricultural activities and municipal planning. Storm events are periods when hydrological dynamics activate the exchange between nitrate storage and flow pathways. In this dissertation, long-term high-frequency monitoring data at three gauging stations in the Selke river were used to quantify event-scale nitrate concentration-discharge (C-Q) hysteretic relationships. The Selke catchment is characterized into three nested subcatchments by heterogeneous physiographic conditions and land use. With quantified hysteresis indices, impacts of seasonality and landscape gradients on C-Q relationships are explored. For example, arable area has deep nitrate legacy and can be activated with high intensity precipitation during wetting/wet periods (i.e., the strong hydrological connectivity). Hence, specific shapes of C-Q relationships in river networks can identify targeted locations and periods for agricultural management actions within the catchment to decrease nitrate output into downstream aquatic systems like the ocean. The capacity of streams for removing nitrate is of both scientific and social interest, which makes the quantification motivated. Although measurements of nitrate dynamics are advanced compared to other substances, the methodology to directly quantify nitrate uptake pathways is still limited spatiotemporally. The major problem is the complex convolution of hydrological and biogeochemical processes, which limits in-situ measurements (e.g., isotope addition) usually to small streams with steady flow conditions. This makes the extrapolation of nitrate dynamics to large streams highly uncertain. Hence, understanding of in-stream nitrate dynamic in large rivers is still necessary. High-frequency monitoring of nitrate mass balance between upstream and downstream measurement sites can quantitatively disentangle multi-path nitrate uptake dynamics at the reach scale (3-8 km). In this dissertation, we conducted this approach in large stream reaches with varying hydro-morphological and environmental conditions for several periods, confirming its success in disentangling nitrate uptake pathways and their temporal dynamics. Net nitrate uptake, autotrophic assimilation and heterotrophic uptake were disentangled, as well as their various diel and seasonal patterns. Natural streams generally can remove more nitrate under similar environmental conditions and heterotrophic uptake becomes dominant during post-wet seasons. Such two-station monitoring provided novel insights into reach-scale nitrate uptake processes in large streams. Long-term in-stream nitrate dynamics can also be evaluated with the application of water quality model. This is among the first time to use a data-model fusion approach to upscale the two-station methodology in large-streams with complex flow dynamics under long-term high-frequency monitoring, assessing the in-stream nitrate retention and its responses to drought disturbances from seasonal to sub-daily scale. Nitrate retention (both net uptake and net release) exhibited substantial seasonality, which also differed in the investigated normal and drought years. In the normal years, winter and early spring seasons exhibited extensive net releases, then general net uptake occurred after the annual high-flow season at later spring and early summer with autotrophic processes dominating and during later summer-autumn low-flow periods with heterotrophy-characteristics predominating. Net nitrate release occurred since late autumn until the next early spring. In the drought years, the late-autumn net releases were not so consistently persisted as in the normal years and the predominance of autotrophic processes occurred across seasons. Aforementioned comprehensive results of nitrate dynamics on stream scale facilitate the understanding of instream processes, as well as raise the importance of scientific monitoring schemes for hydrology and water quality parameters. N2 - Die Speicherung, Umwandlung und der Transport von Nährstoffen sind wichtige Prozesse, welche den ökologische Status der Fließgewässer bestimmen. Aufgrund seiner Auswirkungen auf die Eutrophierung von aquatischen Systemen ist hierbei Stickstoff eines der wichtigsten Elemente. Durch neue Entwicklungen in der Sensortechnik zeigt die Forschung zum Nitrat derzeit eine besonders große Dynamik. In dieser Dissertation werden die hysteretischen Beziehungen zwischen Nitratkonzentration und Abfluss (C-Q) an drei Pegeln der Selke im Bodegebiet analysiert, um die Dynamik von Nitratspeicherung und -transport während Hochwasserereignissen in einem genesteten Einzugsgebiet zu untersuchen. Verschiedene Kombinationen der C-Q-Hysterese-Indizes deuten auf unterschiedliche Muster des Nitrat-Transports und seiner Einflussfaktoren hin. Die Hysterese im Uhrzeigersinn tritt eher während der Trockenzeit auf, was auf eine geringe hydrologische Konnektivität vom Land zum Fließgewässer auf den Export distaler Nitratquellen hinweist. Im untersten Einzugsgebiet der Selke dominieren Verdünnungseffekte, die möglicherweise durch Abflüsse aus flussaufwärts gelegenen Teileinzugsgebieten während der Niederschlagsereignisse oder durch schnelle Abflüsse von befestigten Flächen beeinflusst wurden. Unterschiede in der Reaktion des Nitratexports auf Abflussereignisse können während sommerlicher Trockenperioden verstärkt werden, wenn sich die hydrologische Konnektivität und die biogeochemischen Prozesse stark verändern. Daher können spezifische Formen von C-Q-Beziehungen in Fließgewässern zur Verortung und Bestimmung von Zeiträume für landwirtschaftliche Bewirtschaftungsmaßnahmen innerhalb des Wassereinzugsgebiets genutzt werden, um den Nitrateintrag in die Fließ- und Standgewässer zu verringern. Die Fähigkeit von Fließgewässern, Nitrat zu entfernen, ist sowohl von wissenschaftlichem als auch von gesellschaftlichem Interesse. Obwohl die Untersuchungen der Nitratdynamik im Vergleich zu anderen Wasserinhaltsstoffen fortgeschritten sind, ist die Methodik zur direkten Quantifizierung der Nitrataufnahme- und -retention räumlich und zeitlich nicht vollständig verstanden. Das Hauptproblem ist die komplexe Verflechtung von hydrologischen und biogeochemischen Prozessen. In-situ-Messungen (z. B. Isotopenanreicherung) sind aufgrund methodischer Beschränkungen in der Regel auf kleine Fließgewässer mit konstanten Strömungsverhältnissen beschränkt. Dadurch ist die Extrapolation der Nitratdynamik auf große Bäche und kleine Flüsse mit großen Unsicherheiten behaftet. Daher bestehen große Defizite beim Verständnis der Nitratdynamik in größeren Fließgewässer. Die hochfrequente Messung der Nitrat-Massenbilanz zwischen flussaufwärts und flussabwärts gelegenen Messstellen kann die Dynamik der Nitrataufnahme über unterschiedliche Aufnahme- und Retentionspfade anhand der gezielten Untersuchung von Gewässerabschnitten (3-8 km) quantitativ erfassen. In dieser Dissertation wurde dieser Ansatz in Fließgewässern mittlerer Größe mit unterschiedlichen hydro-morphologischen und saisonalen Bedingungen eingesetzt. Die Ergebnisse erlaubten eine Aufschlüsselung der unterschiedlichen Nitrataufnahmewege und ihrer zeitlichen Dynamik. Die Netto-Nitrataufnahme, die autotrophe Assimilation und die heterotrophe Aufnahme sowie ihre unterschiedlichen tages- und jahreszeitlichen Muster konnten analysiert werden. Natürliche Fließgewässer können im Allgemeinen unter ähnlichen Umweltbedingungen mehr Nitrat entfernen als anthropogen überprägte Fließgewässer. Es konnte gezeigt werden, dass die heterotrophe Aufnahme während der trockenen Jahreszeit dominiert. Auf der Basis von gezielten Untersuchungen von Gewässerabschnitten lieferte die Zwei-Stationen-Methode neue Einblicke in die Prozesse der Nitrataufnahme in größeren Fließgewässern. Die langfristige Nitratdynamik in Fließgewässern kann auch durch die zusätzliche Anwendung von Wasserqualitätsmodellen analysiert werden. Dies ist eines der ersten Forschungsvorhaben, bei dem die Zwei-Stationen-Methode in größeren Fließgewässern mit komplexer Strömungsdynamik im Rahmen einer zeitliche hochaufgelösten Langzeitüberwachung eingesetzt wird, um den Nitratrückhalt im Fließgewässer und den Einfluss von Niedrigwasserbedingungen hinsichtlich saisonaler und diurnaler Zeitskalen zu untersuchen. Der Nitratrückhalt (sowohl die Nettoaufnahme als auch die Nettoabgabe) wies erhebliche saisonale Schwankungen auf, die sich auch in den untersuchten normalen Jahren und Jahren mit ausgeprägten Niedrigwasserbedingungen unterschieden. In den normalen Jahren kam es im Winter und zu Beginn des Frühjahrs zu einer umfangreichen Freisetzung von Stickstoff, während die Nettoaufnahme nach der jährlichen abflussreichen Winterperiode im späteren Frühjahr und im Frühsommer am höchsten war, wobei autotrophe Prozesse dominierten. Während der Niedrigwasserperioden im Spätsommer und Herbst dominierte bei der Netto-Stickstoffretention die heterotrophe Aufnahme. Die Netto-Nitratfreisetzung erfolgte vom Spätherbst bis zum folgenden Frühjahr. In den Dürrejahren war die Netto-Nitratfreisetzung im Spätherbst weniger konstant wie in den Normaljahren, und die autotrophen Prozesse dominierten über die Jahreszeiten hinweg. Diese umfassenden Ergebnisse der Nitratdynamik in größeren Fließgewässern verbessern das Verständnis von gewässerinternen Umsetzungsprozessen und zeigen die Möglichkeiten auf, die der gezielte Einsatz von zeitlich hochaufgelöster Sensormessungen in der Gewässerüberwachung bieten kann. KW - high-frequency monitoring KW - in-stream nitrogen dynamics KW - high-order streams and rivers KW - Bäche und Flüsse hoher Ordnung KW - Stickstoffdynamik in Fliessgewässern KW - zeitlich hochaufgelöste Sensormessungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-607642 ER - TY - THES A1 - Zhang, Weiyi T1 - Functional Poly(ionic liquid) Materials based on Poly(1,2,4-triazolium)s Y1 - 2017 ER - TY - THES A1 - Zhang, Shuhao T1 - Synthesis and self-assembly of protein-polymer conjugates for the preparation of biocatalytically active membranes T1 - Synthese und Selbstassemblierung von Protein/Polymer-Konjugaten für die Herstellung einer biokatalytisch aktiven Membran N2 - This thesis covers the synthesis of conjugates of 2-Deoxy-D-ribose-5-phosphate aldolase (DERA) with suitable polymers and the subsequent immobilization of these conjugates in thin films via two different approaches. 2-Deoxy-D-ribose-5-phosphate aldolase (DERA) is a biocatalyst that is capable of converting acetaldehyde and a second aldehyde as acceptor into enantiomerically pure mono- and diyhydroxyaldehydes, which are important structural motifs in a number of pharmaceutically active compounds. Conjugation and immobilization renders the enzyme applicable for utilization in a continuously run biocatalytic process which avoids the common problem of product inhibition. Within this thesis, conjugates of DERA and poly(N-isopropylacrylamide) (PNIPAm) for immobilization via a self-assembly approach were synthesized and isolated, as well as conjugates with poly(N,N-dimethylacrylamide) (PDMAA) for a simplified and scalable spray-coating approach. For the DERA/PNIPAm-conjugates different synthesis routes were tested, including grafting-from and grafting-to, both being common methods for the conjugation. Furthermore, both lysines and cysteines were addressed for the conjugation in order to find optimum conjugation conditions. It turned out that conjugation via lysine causes severe activity loss as one lysine plays a key role in the catalyzing mechanism. The conjugation via the cysteines by a grafting-to approach using pyridyl disulfide (PDS) end-group functionalized polymers led to high conjugation efficiencies in the presence of polymer solubilizing NaSCN. The resulting conjugates maintained enzymatic activity and also gained high acetaldehyde tolerance which is necessary for their use later on in an industrial relevant process after their immobilization. The resulting DERA/PNIPAm conjugates exhibited enhanced interfacial activity at the air/water interface compared to the single components, which is an important pre-requisite for the immobilization via the self-assembly approach. Conjugates with longer polymer chains formed homogeneous films on silicon wafers and glass slides while the ones with short chains could only form isolated aggregates. On top of that, long chain conjugates showed better activity maintenance upon the immobilization. The crosslinking of conjugates, as well as their fixation on the support materials, are important for the mechanical stability of the films obtained from the self-assembly process. Therefore, in a second step, we introduced the UV-crosslinkable monomer DMMIBA to the PNIPAm polymers to be used for conjugation. The introduction of DMMIBA reduced the lower critical solution temperature (LCST) of the polymer and thus the water solubility at ambient conditions, resulting in lower conjugation efficiencies and in turn slightly poorer acetaldehyde tolerance of the resulting conjugates. Unlike the DERA/PNIPAm, the conjugates from the copolymer P(NIPAM-co-DMMIBA) formed continuous, homogenous films only after the crosslinking step via UV-treatment. For a firm binding of the crosslinked films, a functionalization protocol for the model support material cyclic olefin copolymer (COC) and the final target support, PAN based membranes, was developed that introduces analogue UV-reactive groups to the support surface. The conjugates immobilized on the modified COC films maintained enzymatic activity and showed good mechanical stability after several cycles of activity assessment. Conjugates with longer polymer chains, however, showed a higher degree of crosslinking after the UV-treatment leading to a pronounced loss of activity. A porous PAN membrane onto which the conjugates were immobilized as well, was finally transferred to a dead end filtration membrane module to catalyze the aldol reaction of the industrially relevant mixture of acetaldehyde and hexanal in a continuous mode. Mono aldol product was detectable, but yields were comparably low and the operational stability needs to be further improved Another approach towards immobilization of DERA conjugates that was followed, was to generate the conjugates in situ by simply mixing enzyme and polymer and spray coat the mixture onto the membrane support. Compared to the previous approach, the focus was more put on simplicity and a possible scalability of the immobilization. Conjugates were thus only generated in-situ and not further isolated and characterized. For the conjugation, PDMAA equipped with N-2-thiolactone acrylamide (TlaAm) side chains was used, an amine-reactive comonomer that can react with the lysine residues of DERA, as well as with amino groups introduced to a desired support surface. Furthermore disulfide formation after hydrolysis of the Tla groups causes a crosslinking effect. The synthesized copolymer poly(N,N-Dimethylacrylamide-co-N-2-thiolactone acrylamide) (P(DMAA-co-TlaAm)) thus serves a multiple purpose including protein binding, crosslinking and binding to support materials. The mixture of DERA and polymer could be immobilized on the PAN support by spray-coating under partial maintenance of enzymatic activity. To improve the acetaldehyde tolerance, the polymer in used was further equipped with cysteine reactive PDS end-groups that had been used for the conjugation as described in the first part of the thesis. The generated conjugates indeed showed good acetaldehyde tolerance and were thus used to be coated onto PAN membrane supports. Post treatment with a basic aqueous solution of H2O2 was supposed to further crosslink the spray-coated film hydrolysis and oxidation of the thiolactone groups. However, a washing off of the material was observed. Optimization is thus still necessary. N2 - Die vorliegende Arbeit beschreibt die Synthese von Konjugaten aus 2-Deoxy-D-ribose-5-phosphat aldolase (DERA) und geeigneten Polymeren sowie deren nachfolgende Immobilisierung in dünnen Filmen mittels zwei verschiedener Herangehensweisen. DERA ist ein Biokatalysator, der in der Lage ist, Acetaldehyd mit einem weiteren Aldehyd zu enantiomerenreinen Mono- und Dihydroxyaldehyden zu verknüpfen. Diese Verbindungen sind wichtige Strukturmotive für eine Reihe von pharmazeutisch aktiven Verbindungen. Konjugation und Immobilisierung machen das Enzym nutzbar für den Einsatz in einem kontinuierlich betriebenen, biokatalytischen Prozess, welcher das bekannte Problem der Produktinhibierung umgeht. In der vorliegenden Arbeit wurden einerseits Konjugate aus DERA und Poly(N-isopropylacrylamid) (PNIPAm) für die Immobilisierung mittels eines Selbstassemblierungsverfahrens synthetisiert und isoliert, sowie andererseits entsprechende Konjugate mit Poly(N,N-dimethylacrylamid) (PDMAA) für ein vereinfachtes und skalierbares Immobilisierungsverfahren mittels Sprühauftrag hergestellt. Für die DERA/PNIPAm-Konjugate wurden verschiedene Syntheserouten getestet, einschließlich grafting-from und grafting-to. Beide Methoden werden standardmäßig für entsprechende Konjugationen eingesetzt. Weiterhin wurden sowohl die Lysine als auch die Cysteine des Enzyms für die Konjugation herangezogen, um optimale Konjugationsbedingungen zu finden. Konjugation über die Lysine verursachte deutliche Aktivitätsverluste, da ein Lysin auch die Schlüsselrolle im katalytischen Mechanismus des Enzyms spielt. Die Konjugation über die Cysteine sowie einen grafting-to-Ansatz unter Nutzung eines entsprechenden Polymers mit cysteinreaktiver Pyridyldisulfid-Endgruppe (PDS) führte zu einer hohen Konjugationseffizienz, sofern polymersolubilisierendes NaSCN eingesetzt wurde. Die resultierenden Konjugate behielten ihre enzymatische Aktivität bei deutlich gesteigerter Toleranz gegenüber Acetaldehyd. Beide Aspekte sind wichtig für den Einsatz des Enzyms in einem industriell relevanten Prozess nach dem Immobilisierungsschritt. Die DERA/PNIPAm-Konjugate zeigten eine erhöhte Oberflächenaktivität im Vergleich zu den Einzelkomponenten, was eine wichtige Voraussetzung für die Immobilisierung über eine Selbstassemblierung darstellt. Konjugate mit relativ langen Polymerketten bildeten nach dem Selbstassemblierungsschritt homogene Filme auf Silizium-Wafern und Glass-Objektträgern während Konjugate mit kurzen Ketten nur isolierte Aggregate bildeten. Darüber hinaus zeigten die Konjugate mit längeren Ketten einen besseren Erhalt der Enzymaktivität im Zuge der Immobilisierung. Die nachträgliche Vernetzung der Konjugate, sowie ihre feste Anbindung an die Trägermaterialien sind wichtige Voraussetzungen für die mechanische Stabilität des aus dem Selbstassemblierungsschritt erhaltenen Films. Aus diesem Grund wurde in einem zweiten Schritt das UV-vernetzbare Monomer DMMIBA in das für die Konjugation vorgesehene, PNIPAm-basierte Polymer eingeführt. Die Einbindung von DMMIBA setzte die untere kritische Lösungstemperatur (LCST) und damit die Löslichkeit des Polymers in Wasser bei Raumtemperatur herab. Dies führte zu niedrigeren Konjugationseffizienzen und damit zu einer etwas schlechteren Acetaldehydtoleranz der resultierenden Konjugate. Anders als im Fall von DERA/PNIPAm, bildeten die mit P(NIPAM-co-DMMIBA) synthetisierten Konjugate einen homogenen Film nur nach Vernetzung mittels UV-Behandlung aus. Für eine feste Anbindung des vernetzten Films wurde ein Funktionalisierungsprotokoll für das Modell-Trägermaterial aus cycloolefinischem Copolymer (COC) und das letztliche Zielmaterial, PAN-basierte Membranen, entwickelt, welches analoge UV-reaktive Gruppen auf der Trägeroberfläche erzeugt. Die auf COC immobilisierten Konjugate bewahrten ihre Enzymaktivität und zeigten eine gute mechanische Stabilität nach mehreren Aktivitäts-Messzyklen. Der Einsatz von Konjugaten mit längeren Polymerketten führte jedoch zu Filmen mit zu hohem Vernetzungsgrad was einen deutlichen Aktivitätsverlust bedingte. Eine poröse, PAN-basierte Membran, auf welcher die Konjugate ebenso immobilisiert wurden, wurde schlussendlich in ein Dead-End-Filtrationsmodul überführt, um die Aldolreaktion eines industriell relevanten Gemisches aus Acetaldehyd und Hexanal in einem kontinuierlich betriebenen Verfahren durchzuführen. Es konnte Monoaldolprodukt detektiert werden, jedoch waren die Ausbeuten vergleichsweise niedrig, während sich die operative Stabilität als verbesserungswürdig erwies. Ein weiterer Immobilisierungsansatz für DERA-Konjugate, beinhaltete die in-situ-Generierung der Konjugate durch einfaches Vermischen von Enzym und Polymer gefolgt von unmittelbaren Auftrag des Materials auf ein Membranträgermaterial mittels Sprühen. Im Vergleich zum ersten Ansatz lag der Fokus hier mehr auf der Einfachheit und prinzipiellen Skalierbarkeit der Immobilisierung. Daher wurden die Konjugate hier nur in-situ erzeugt und nicht weiter isoliert sowie charakterisiert. Für die Konjugation wurde PDMAA herangezogen, welches mit Thiolactongruppen entlang der Seitenkette ausgerüstet ist. Die Thiolactongruppen sind reaktiv gegenüber Aminen und können daher sowohl mit den Lysineinheiten der DERA reagieren als auch mit Aminogruppen, die im Vorfeld auf dem Trägermaterial erzeugt wurden. Darüber hinaus können durch Hydrolyse der Thiolactoneinheiten sowie anschließender Ausbildung von Disulfidbrücken Vernetzungspunkte erzeugt werden. Das hergestellte Copolymer poly(N,N-Dimethylacrylamide-co-N-2-thiolactone acrylamide) (P(DMAA-co-TlaAm) übernimmt daher mehrere Aufgaben einschließlich Proteinbindung, Vernetzung und Anbindung an das Trägermaterial. Mischungen aus DERA und Polymer konnten durch Sprühauftrag auf funktionalisierten PAN-Trägermaterialien unter teilweisem Erhalt der Enzymaktivität immobilisiert werden. Um auch hier die Acetaldehydtoleranz zu verbessern, wurde das Polymer in einem zweiten Schritt wieder mit PDS-Endgruppen ausgerüstet, die schon zuvor im ersten Teil der Arbeit für die Konjugatsynthese mittels grafting-to herangezogen wurden. Die hergestellten Konjugate zeigten eine gute Acetaldehydtoleranz und wurden daher verwendet, um PAN-Membranen zu beschichten. Eine Nachbehandlung mittels einer basischen Wasserstoffperoxidlösung sollte den aufgesprühten Film vernetzen. Im Ergebnis wurde jedoch ein großer Teil des aufgebrachten Materials im Zuge dieses Schritts heruntergewaschen. Eine weitere Optimierung dieses Schritts ist daher noch notwendig. KW - 2-deoxy-D-ribose-5-phoshphate aldolase KW - enzyme immobilization KW - enzymatically active membrane KW - enzyme/polymer conjugate KW - self-assembly Y1 - 2019 ER - TY - THES A1 - Zhang, Quanchao T1 - Shape-memory properties of polymeric micro-scale objects prepared by electrospinning and electrospraying N2 - The ongoing trend of miniaturizing multifunctional devices, especially for minimally-invasive medical or sensor applications demands new strategies for designing the required functional polymeric micro-components or micro-devices. Here, polymers, which are capable of active movement, when an external stimulus is applied (e.g. shape-memory polymers), are intensively discussed as promising material candidates for realization of multifunctional micro-components. In this context further research activities are needed to gain a better knowledge about the underlying working principles for functionalization of polymeric micro-scale objects with a shape-memory effect. First reports about electrospun solid microfiber scaffolds, demonstrated a much more pronounced shape-memory effect than their bulk counterparts, indicating the high potential of electrospun micro-objects. Based on these initial findings this thesis was aimed at exploring whether the alteration of the geometry of micro-scale electrospun polymeric objects can serve as suitable parameter to tailor their shape-memory properties. The central hypothesis was that different geometries should result in different degrees of macromolecular chain orientation in the polymeric micro-scale objects, which will influence their mechanical properties as well as thermally-induced shape-memory function. As electrospun micro-scale objects, microfiber scaffolds composed of hollow microfibers with different wall thickness and electrosprayed microparticles as well as their magneto-sensitive nanocomposites all prepared from the same polymer exhibiting pronounced bulk shape-memory properties were investigated. For this work a thermoplastic multiblock copolymer, named PDC, with excellent bulk shape-memory properties, associated with crystallizable oligo(ε-caprolactone) (OCL) switching domains, was chosen for the preparation of electrospun micro-scale objects, while crystallizable oligo(p-dioxanone) (OPDO) segments serve as hard domains in PDC. In the first part of the thesis microfiber scaffolds with different microfiber geometries (solid or hollow with different wall thickness) were discussed. Hollow microfiber based PDC scaffolds were prepared by coaxial electrospinning from a 1, 1, 1, 3, 3, 3 hexafluoro-2-propanol (HFP) solution with a polymer concentration of 13% w·v-1. Here as a first step core-shell fiber scaffolds consisting of microfibers with a PDC shell and sacrificial poly(ethylene glycol) (PEG) core are generated. The hollow PDC microfibers were achieved after dissolving the PEG core with water. The utilization of a fixed electrospinning setup and the same polymer concentration of the PDC spinning solution could ensure the fabrication of microfibers with almost identical outer diameters of 1.4 ± 0.3 µm as determined by scanning electron microscopy (SEM). Different hollow microfiber wall thicknesses of 0.5 ± 0.2 and 0.3 ± 0.2 µm (analyzed by SEM) have been realized by variation of the mass flow rate, while solid microfibers were obtained by coaxial electrospinning without supplying any core solution. Differential scanning calorimetry experiments and tensile tests at ambient temperature revealed an increase in degree of OCL crystallinity form χc,OCL = 34 ± 1% to 43 ± 1% and a decrease in elongation of break from 800 ± 40% to 200 ± 50% associated with an increase in Young´s modulus and failture stress for PDC hollow microfiber scaffolds when compared with soild fibers. The observed effects were enhanced with decreasing wall thickness of the single hollow fibers. The shape-memory properties of the electrospun PDC scaffolds were quantified by cyclic, thermomechanical tensile tests. Here, scaffolds comprising hollow microfibers exhibited lower shape fixity ratios around Rf = 82 ± 1% and higher shape recovery ratios of Rr = 67 ± 1% associated to more pronounced relaxation at constant strain during the first test cycle and a lower switching temperature of Tsw = 33 ± 1 °C than the fibrous meshes consisting of solid microfibers. These findings strongly support the central hypothesis that different fiber geometries (solid or hollow with different wall thickness) in electrospun scaffolds result in different degrees of macromolecular chain orientation in the polymeric micro-scale objects, which can be applied as design parameter for tailoring their mechanical and shape-memory properties. The second part of the thesis deals with electrosprayed particulate PDC micro-scale objects. Almost spherical PDC microparticles with diameters of 3.9 ± 0.9 μm (as determined by SEM) were achieved by electrospraying of HFP solution with a polymer concentration of 2% w·v-1. In contrast, smaller particles with sizes of 400 ± 100 nm or 1.2 ± 0.3 μm were obtained for the magneto-sensitive composite PDC microparticles containing 23 ± 0.5 wt% superparamagnetic magnetite nanoparticles (mNPs). All prepared PDC microparticles exhibited a similar overall crystallinity like the PDC bulk material as analyzed by DSC. AFM nanoindentation results revealed no influence of the nanofiller incorporation on the local mechanical properties represented by the reduced modulus determined for pure PDC microparticles and magneto-sensitive composite PDC microparticles with similar diameters around 1.3 µm. It was found that the reduced modulus of the nanocomposite microparticles increased substantially with decreasing particles size from 2.4 ± 0.9 GPa (1.2 µm) to 11.9 ± 3.1 GPa (0.4 µm), which can be related to a higher orientation of the macromolecules at the surface of smaller sized microparticles. The magneto-sensitivity of such nanocomposite microparticles could be demonstrated in two aspects. One was by attracting/collecting the composite micro-objects with an external permanent magnet. The other one was by a inductive heating to 44 ± 1 °C, which is well above the melting transition of the OCL switching domains, when compacted to a 10 x 10 mm2 film with a thickness of 10 µm and exposed to an alternating magnet field with an magnetic field strength of 30 kA·m-1. Both functions are of great relevance for designing next generation drug delivery systems combining targeting and on demand release. By a compression approach shape-memory functionalization of individual microparticles could be realized. Here different programming pressures and compression temperatures were applied. The shape-recovery capability of the programmed PDC microparticles was quantified by online and off-line heating experiments analyzed via microscopy measurement. The obtained shape-memory properties were found to be strongly depending on the applied programming pressure and temperature. The best shape-memory performance with a high shape recovery rate of about Rr = 80±1% was obtained when a low pressure of 0.2 MPa was applied at 55 °C. Finally, it was demonstrated that PDC microparticles can be utilized as micro building parts for preparation of a macroscopic film with temporary stability by compression of a densely packed array of PDC microparticles at 60 °C followed by subsequent cooling to ambient temperature. This film disintegrates into individual microparticles upon heating to 60 °C. Based on this technology the design of stable macroscopic release systems can be envisioned, which can be easily fixed at the site of treatment (i.e. by suturing) and disintegrate on demand to microparticles facilitating the drug release. In summary, the results of this thesis could confirm the central hypothesis that the variation of the geometry of polymeric micro-objects is a suitable parameter to adjust their shape-memory performance by changing the degree of macromolecular chain orientation in the specimens or by enabling new functions like on demand disintegration. These fundamental findings might be relevant for designing novel miniaturized multifunctional polymer-based devices. KW - shape-memory effect KW - microparticles KW - hollow microfibers KW - geometry Y1 - 2018 ER - TY - THES A1 - Zhang, Jianrui T1 - Completely water-based emulsions as compartmentalized systems via pickering stabilization N2 - Completely water-based systems are of interest for the development of novel material for various reasons: On one hand, they provide benign environment for biological systems and on the other hand they facilitate effective molecular transport in a membrane-free environment. In order to investigate the general potential of aqueous two-phase systems (ATPSs) for biomaterials and compartmentalized systems, various solid particles were applied to stabilize all-aqueous emulsion droplets. The target ATPS to be investigated should be prepared via mixing of two aqueous solutions of water-soluble polymers, which turn biphasic when exceeding a critical polymer concentration. Hydrophilic polymers with a wide range of molar mass such as dextran/poly(ethylene glycol) (PEG) can therefore be applied. Solid particles adsorbed at the interfaces can be exceptionally efficient stabilizers forming so-called Pickering emulsions, and nanoparticles can bridge the correlation length of polymer solutions and are thereby the best option for water-in-water emulsions. The first approach towards the investigation of ATPS was conducted with all aqueous dextran-PEG emulsions in the presence of poly(dopamine) particles (PDP) in Chapter 4. The water-in-water emulsions were formed with a PEG/dextran system via utilizing PDP as stabilizers. Studies of the formed emulsions were performed via laser scanning confocal microscope (CLSM), optical microscope (OM), cryo-scanning electron microscope (SEM) and tensiometry. The stable emulsions (at least 16 weeks) were demulsified easily via dilution or surfactant addition. Furthermore, the solid PDP at the water-water interface were crosslinked in order to inhibit demulsification of the Pickering emulsion. Transmission electron microscope (TEM) and scanning electron microscope (SEM) were used to visualize the morphology of PDP before and after crosslinking. PDP stabilized water-in-water emulsions were utilized in the following Chapter 5 to form supramolecular compartmentalized hydrogels. Here, hydrogels were prepared in pre-formed water-in-water emulsions and gelled via α-cyclodextrin-PEG (α-CD-PEG) inclusion complex formation. Studies of the formed complexes were performed via X-ray powder diffraction (XRD) and the mechanical properties of the hydrogels were measured with oscillatory shear rheology. In order to verify the compartmentalized state and its triggered decomposition, hydrogels and emulsions were assessed via OM, SEM and CLSM. The last chapter broadens the investigations from the previous two systems by utilizing various carbon nitrides (CN) as different stabilizers in ATPS. CN introduces another way to trigger demulsification, namely irradiation with visible light. Therefore, emulsification and demulsification with various triggers were probed. The investigated all aqueous multi-phase systems will act as model for future fabrication of biocompatible materials, cell micropatterning as well as separation of compartmentalized systems. N2 - Komplett wässrige Systeme sind aus vielerlei Hinsicht interessant für die Entwicklung neuer Materialien: Zum Einen eignet sich die wässrige Umgebung für Anwendung in biologischen System und zum Anderen ermöglicht eine Membran-freie Umgebung erleichterten Stofftransport. In dieser Arbeit wurden verschiedene Partikeltypen zur Stabilisierung von Wasser-in-Wasser Emulsionströpfchen eingesetzt, um das Potenzial von ATPSs (Aqueous two-phase systems (DE: Wässrige Zweiphasensysteme)) für Biomaterialien und kompartmentalisierte Systeme zu untersuchen. Das zu untersuchende ATPS sollte durch Mischen von zwei wässrigen Lösungen wasserlöslicher Polymere hergestellt werden und bei Überschreiten einer kritischen Polymerkonzentration zweiphasig werden. Als hydrophile Polymer wurden Dextran und Poly(ethylenglycol) (PEG) für die Bildung des ATPS angewendet. Die Grenzfläche zwischen den beiden Phasen in ATPSs ist undefiniert und erstreckt sich über einen Bereich, deshalb müssen Partikel für die Stabilisierung des ATPS eingesetzt werden. Die an den Grenzflächen adsorbierten Partikel können effizient als Stabilisatoren fungieren und die sogenannten Pickering-Emulsionen bilden. Der erste Ansatz der Untersuchung von Wasser-in-Wasser Emulsionen wurde mit dem Dextran-PEG-System in Gegenwart von Poly(dopamin)-Partikeln (PDP) als Stabilisatoren durchgeführt. Die bis zu 16 Wochen stabilen Emulsionen konnten mittels Verdünnung oder Tensidzugabe gebrochen werden. Weiterhin wurde die stabilisierenden PDP vernetzt, um eine Deemulgierung der Pickering-Emulsion zu verhindern. Des Weiteren wurden PDP stabiliserte Emulsionen verwednet, um supramolekulare kompartmentalisierte Hydrogele herzustellen. Hier wurden Hydrogele in vorgeformten Wasser-in-Wasser-Emulsionen hergestellt und über die Bildung des α-Cyclodextrin-PEG Komplexes geliert. Die gebildeten Komplexe wurden mittels XRD erforscht und die mechanischen Eigenschaften der Hydrogele mit Rheologie gemessen. Zuletzt wurde die Forschung der zwei vorherigen erwähnten Systemen erweitert, indem verschiedene Kohlenstoffnitride (CN) als Stabilisatoren in ATPS verwendet wurden. Der Einsatz von CN ermöglichte dabei einen weiteren Stimulus zur Deemulgierung, nämlich sichtbares Licht. So wurden Emulgierung und Deemulgierung mit verschiedenen äußeren Reizen untersucht. Die verschiedenen Wasser-in-Wasser Emulsionen werden ein Modell für die zukünftige Herstellung biokompatibler Materialien, die örtlche Zellstrukturierung sowie die Trennung von Kompartimentsystemen liefern. T2 - Vollständig wasserbasierte Pickeringemulsionen als Kompartimentsysteme KW - emulsion KW - water-in-water KW - ATPS KW - Emulsionen KW - Wasser-in-Wasser Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-476542 ER - TY - THES A1 - Zhang, Hui T1 - Leistungsdiagnostik im Tischtennis : Analyse der realen und der mathematisch-simulativen Spielstärken in der Herren-Weltklasse Y1 - 2003 ER - TY - THES A1 - Zhang, Heshou T1 - Magnetic fields in the universe BT - Diagnostics, turbulent properties, and their implications N2 - The galactic interstellar medium is magnetized and turbulent. The magnetic field and turbulence play important roles in many astrophysical mechanisms, including cosmic ray transport, star formation, etc. Therefore, measurements of magnetic field and turbulence information are crucial for the proper interpretation of astronomical observations. Nonetheless, the magnetic field observation is quite challenging, especially, there is not universal magnetic tracer for diffuse medium. Moreover, the modelling of turbulence can be oversimplified due to the lack of observational tools to diagnose the plasma properties of the turbulence in the galactic interstellar medium. The studies presented in this thesis have addressed these challenges by bridging the theoretical studies of magnetic field and turbulence with numerical simulations and observations. The following research are presented in this thesis. The first observational evidence of the novel magnetic tracer, ground state alignment (GSA), is discovered, revealing the three-dimensional magnetic field as well as 2 orders of magnitude higher precision comparing to previous observational study in the stellar atmosphere of the post-AGB 89 Herculis. Moreover, the application of GSA in the sub-millimeter fine-structure lines is comprehensively studied for different elements and with magnetohydrodynamic simulations. Furthermore, the influence of GSA effect on the spectroscopy is analyzed and it is found that measurable variation will be produced on the spectral line intensity and the line ratio without accounting for the optical pumping process or magnetic field. Additionally, a novel method to measure plasma modes in the interstellar medium, Signatures from Polarization Analysis (SPA), is proposed and applied to real observations. Magneto-sonic modes are discovered in different types of interstellar medium. An explanation is provided for the long-standing mystery, the origin of γ-ray enhanced emission “Cygnus Cocoon”, based on the comparison between the outcome of SPA and multi-waveband observational data. These novel methods have strong potentials for broader observational applications and will play crucial roles in future multi-wavelength astronomy. N2 - Das interstellare Medium ist magnetisiert und turbulent. Das Magnetfeld und die Turbulenz spielen eine wichtige Rolle in vielen astrophysikalischen Prozessen, unter anderem beim Transport kosmischer Strahlung, bei der Entstehung von Sternen usw. Daher sind Messungen des Magnetfelds und der Turbulenz entscheidend bei der korrekten Interpretation astronomischer Beobachtungen. Dennoch ist die Messung des astronomischen Magnetfeldes eine große Herausforderung, besonders da es keinen universellen magnetischen Tracer für diffuse Medien gibt. Außerdem kann es aufgrund des Mangels an geeigneten Beobachtungswerkzeugen für die Plasmaeigenschaften der galaktischen Turbulenz zu übermäßigen Vereinfachungen bei der Turbulenzmodellierung kommen. Die in dieser Arbeit vorgestellten Forschungsergebnisse beschäftigen sich mit diesen Herausforderungen; die Theorien des Magnetfeldes und der Turbulenz werden durch numerische Simulationen und Beobachtungen anwendbar gemacht. Die erste Anwendung eines neuen magnetischen Markers, Ground State Alignment (GSA, deutsch „Grundzustandsausrichtung“), wird vorgestellt. Dabei wird das dreidimensionale Magnetfeld in der Analyse von Beobachtungsdaten aus der stellaren Atmosphäre des post-AGB 89 Herculis um zwei Größenordnungen genauer bestimmt als bei den bisherigen Methoden. Zusätzlich wird die Anwendung von GSA bei der Analyse von sub-millimeter Feinstrukturlinien ausführlich für verschiedene Elemente mit Hilfe von magnetohydrodynamischen Simulationen getestet. Auch der Einfluss von GSA-Effekten auf spektroskopische Analysen wird untersucht; dabei stellt sich heraus, dass messbare Variationen in der Linienbreite und im Verhältnis der Linien verursacht werden, ohne dass optische Pumpprozesse oder das Magnetfeld berücksichtigt werden. Des Weiteren wird die Signatures from Polarization Analysis (SPA, deutsch „Signatur-aus-Polarisationsanalyse“) als neue Messmethode für Plasmamoden im galaktischen Medium vorgestellt und auf reale Beobachtungen angewandt. In verschiedenen galaktischen Medien werden magneto-akustische Moden gefunden. Durch den Vergleich von Ergebnissen der SPA mit Beobachtungsdaten aus verschiedenen elektromagnetischen Frequenzbereichen kann die bisher ungeklärte Herkunft der gammastrahlenverstärkten Emission „Cygnus Cocoon“ erklärt werden. Diese neuen Methoden haben das Potential für eine breitere Anwendung bei der Analyse von Beobachtungen und werden in der Zukunft eine wichtige Rolle in der Multiwellenlängen-Astronomie spielen. KW - magnetic field KW - turbulence KW - polarization KW - interstellar medium KW - cosmic ray propagation Y1 - 2021 ER - TY - THES A1 - Zhang, Guosheng T1 - Zur Vermittlung von Lexik im Fremdsprachenunterricht : am Beispiel des Deutschen als Fremdsprache für chinesische Lerner T2 - Berichte aus der Pädagogik Y1 - 2001 SN - 3-8265-8791-x SN - 0945-0920 PB - Shaker CY - Aachen ER - TY - THES A1 - Zhang, Gong T1 - Transient ribosomal attenuation as a generic mechanism to coordinate protein biosynthesis and biogenesis Y1 - 2009 CY - Potsdam ER - TY - THES A1 - Zhang, Bo T1 - Magnetic fields near microstructured surfaces : application to atom chips T1 - Magnetische Felder in der Nähe von microstrukturierten Oberflächen : Anwendung auf Atomchips N2 - Microfabricated solid-state surfaces, also called atom chip', have become a well-established technique to trap and manipulate atoms. This has simplified applications in atom interferometry, quantum information processing, and studies of many-body systems. Magnetic trapping potentials with arbitrary geommetries are generated with atom chip by miniaturized current-carrying conductors integrated on a solid substrate. Atoms can be trapped and cooled to microKelvin and even nanoKelvin temperatures in such microchip trap. However, cold atoms can be significantly perturbed by the chip surface, typically held at room temperature. The magnetic field fluctuations generated by thermal currents in the chip elements may induce spin flips of atoms and result in loss, heating and decoherence. In this thesis, we extend previous work on spin flip rates induced by magnetic noise and consider the more complex geometries that are typically encountered in atom chips: layered structures and metallic wires of finite cross-section. We also discuss a few aspects of atom chips traps built with superconducting structures that have been suggested as a means to suppress magnetic field fluctuations. The thesis describes calculations of spin flip rates based on magnetic Green functions that are computed analytically and numerically. For a chip with a top metallic layer, the magnetic noise depends essentially on the thickness of that layer, as long as the layers below have a much smaller conductivity. Based on this result, scaling laws for loss rates above a thin metallic layer are derived. A good agreement with experiments is obtained in the regime where the atom-surface distance is comparable to the skin depth of metal. Since in the experiments, metallic layers are always etched to separate wires carrying different currents, the impact of the finite lateral wire size on the magnetic noise has been taken into account. The local spectrum of the magnetic field near a metallic microstructure has been investigated numerically with the help of boundary integral equations. The magnetic noise significantly depends on polarizations above flat wires with finite lateral width, in stark contrast to an infinitely wide wire. Correlations between multiple wires are also taken into account. In the last part, superconducting atom chips are considered. Magnetic traps generated by superconducting wires in the Meissner state and the mixed state are studied analytically by a conformal mapping method and also numerically. The properties of the traps created by superconducting wires are investigated and compared to normal conducting wires: they behave qualitatively quite similar and open a route to further trap miniaturization, due to the advantage of low magnetic noise. We discuss critical currents and fields for several geometries. N2 - Mikrotechnologische Oberflächen, sogenannte Atomchips, sind eine etablierte Methode zum Speichern und Manipulieren von Atomen geworden. Das hat Anwendungen in der Atom-Interferometrie, Quanteninformationsverarbeitung und Vielteilchensystemen vereinfacht. Magnetische Fallenpotentiale mit beliebigen Geometrien werden durch Atomchips mit miniaturisierten stromführenden Leiterbahnen auf einer Festkörperunterlage realisiert. Atome können bei Temperaturen im $\mu$ K oder sogar nK-Bereich in einer solchen Falle gespeichert und gekühlt werden. Allerdings können kalte Atome signifikant durch die Chip-Oberfläche gestört werden, die sich typischerweise auf Raumtemperatur befindet. Die durch thermische Ströme im Chip erzeugten magnetischen Feldfluktuationen können Spin-Flips der Atome induzieren und Verlust, Erwärmung und Dekohärenz zur Folge haben. In dieser Dissertation erweitern wir frühere Arbeiten über durch magnetisches Rauschen induzierte Spin-Flip-Ratenund betrachten kompliziertere Geometrien, wie sie typischerweise auf einem Atom-Chip anzutreffen sind: Geschichtete Strukturen und metallische Leitungen mit endlichem Querschnitt. Wir diskutieren auch einige Aspekte von Aomchips aus Supraleitenden Strukturen die als Mittel zur Unterdrückung magnetischer Feldfluktuationen vorgeschlagen wurden. Die Arbeit beschreibt analytische und numerische Rechnungen von Spin-Flip Raten auf Grundlage magnetischer Greensfunktionen. Für einen Chip mit einem metallischen Top-Layer hängt das magnetische Rauschen hauptsächlich von der Dicke des Layers ab, solange die unteren Layer eine deutlich kleinere Leitfähigkeit haben. Auf Grundlage dieses Ergebnisses werden Skalengesetze für Verlustraten über einem dünnen metallischen Leiter hergeleitet. Eine gute Übereinstimmung mit Experimenten wird in dem Bereich erreicht, wo der Abstand zwischen Atom und Oberfläche in der Größenordnung der Eindringtiefe des Metalls ist. Da in Experimenten metallische Layer immer geätzt werden, um verschiedene stromleitende Bahnen vonenander zu trennen, wurde der Einfluß eines endlichen Querschnittsauf das magnetische Rauschen berücksichtigt. Das lokale Spektrum des magnetischen Feldes in der Nähe einer metallischen Mikrostruktur wurde mit Hilfe von Randintegralen numerisch untersucht. Das magnetische Rauschen hängt signifikant von der Polarisierung über flachen Leiterbahnen mit endlichem Querschnitt ab, im Unterschied zu einem unendlich breiten Leiter. Es wurden auch Korrelationen zwischen mehreren Leitern berücksichtigt. Im letzten Teil werden supraleitende Atomchips betrachtet. Magnetische Fallen, die von supraleitenden Bahnen im Meissner Zustand und im gemischten Zustand sind werden analytisch durch die Methode der konformen Abbildung und numerisch untersucht. Die Eigenschaften der durch supraleitende Bahnen erzeugten Fallen werden erforscht und mit normal leitenden verglichen: Sie verhalten sich qualitativ sehr ähnlich und öffnen einen Weg zur weiteren Miniaturisierung von Fallen, wegen dem Vorteil von geringem magnetischem Rauschen. Wir diskutieren kritische Ströme und Felder für einige Geometrien. KW - Magnetische Felder KW - Atom chip KW - Supraleiter KW - magnetisches Rauschen KW - microstrukturierte Oberfläche KW - magnetic fields KW - atom chip KW - superconductors KW - magnetic noise KW - microstructured surface Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-28984 ER - TY - THES A1 - Zhang, Baichen T1 - Dissection of phloem transport in cucurbitaceae by metabolomic analysis T1 - Analyse des Phloemtransports bei Cucurbitaceae mittels Metabolomics N2 - This thesis aimed to investigate several fundamental and perplexing questions relating to the phloem loading and transport mechanisms of Cucurbita maxima, by combining metabolomic analysis with cell biological techniques. This putative symplastic loading species has long been used for experiments on phloem anatomy, phloem biochemistry, phloem transport physiology and phloem signalling. Symplastic loading species have been proposed to use a polymer trapping mechanism to accumulate RFO (raffinose family oligosaccharides) sugars to build up high osmotic pressure in minor veins which sustains a concentration gradient that drives mass flow. However, extensive evidence indicating a low sugar concentration in their phloem exudates is a long-known problem that conflicts with this hypothesis. Previous metabolomic analysis shows the concentration of many small molecules in phloem exudates is higher than that of leaf tissues, which indicates an active apoplastic loading step. Therefore, in the view of the phloem metabolome, a symplastic loading mechanism cannot explain how small molecules other than RFO sugars are loaded into phloem. Most studies of phloem physiology using cucurbits have neglected the possible functions of vascular architecture in phloem transport. It is well known that there are two phloem systems in cucurbits with distinctly different anatomical features: central phloem and extrafascicular phloem. However, mistaken conclusions on sources of cucurbit phloem exudation from previous reports have hindered consideration of the idea that there may be important differences between these two phloem systems. The major results are summarized as below: 1) O-linked glycans in C.maxima were structurally identified as beta-1,3 linked glucose polymers, and the composition of glycans in cucurbits was found to be species-specific. Inter-species grafting experiments proved that these glycans are phloem mobile and transported uni-directionally from scion to stock. 2) As indicated by stable isotopic labelling experiments, a considerable amount of carbon is incorporated into small metabolites in phloem exudates. However, the incorporation of carbon into RFO sugars is much faster than for other metabolites. 3) Both CO2 labelling experiments and comparative metabolomic analysis of phloem exudates and leaf tissues indicated that metabolic processes other than RFO sugar metabolism play an important role in cucurbit phloem physiology. 4) The underlying assumption that the central phloem of cucurbits continuously releases exudates after physical incision was proved wrong by rigorous experiments including direct observation by normal microscopy and combined multiple-microscopic methods. Errors in previous experimental confirmation of phloem exudation in cucurbits are critically discussed. 5) Extrafascicular phloem was proved to be functional, as indicated by phloem-mobile carboxyfluorescein tracer studies. Commissural sieve tubes interconnect phloem bundles into a complete super-symplastic network. 6) Extrafascicular phloem represents the main source of exudates following physical incision. The major transported metabolites by these extrafacicular phloem are non-sugar compounds including amino acids, O-glycans, amines. 7) Central phloem contains almost exclusively RFO sugars, the estimated amount of which is up to 1 to 2 molar. The major RFO sugar present in central phloem is stachyose. 8) Cucurbits utilize two structurally different phloem systems for transporting different group of metabolites (RFO sugars and non-RFO sugar compounds). This implies that cucurbits may use spatially separated loading mechanisms (apoplastic loading for extrafascicular phloem and symplastic loading for central phloem) for supply of nutrients to sinks. 9) Along the transport systems, RFO sugars were mainly distributed within central phloem tissues. There were only small amounts of RFO sugars present in xylem tissues (millimolar range) and trace amounts of RFO sugars in cortex and pith. The composition of small molecules in external central phloem is very different from that in internal central phloem. 10) Aggregated P-proteins were manually dissected from central phloem and analysed by both SDS-PAGE and mass spectrometry. Partial sequences of peptides were obtained by QTOF de novo sequencing from trypsin digests of three SDS-PAGE bands. None of these partial sequences shows significant homology to known cucurbit phloem proteins or other plant proteins. This proves that these central phloem proteins are a completely new group of proteins different from those in extrafascicular phloem. The extensively analysed P-proteins reported in literature to date are therefore now shown to arise from extrafascicular phloem and not central phloem, and therefore do not appear to be involved in the occlusion processes in central phloem. N2 - Phloem transportiert ein ausgedehntes Spektrum an Molekülen zwischen Pflanzenorganen, um Wachstum und Entwicklung zu koordinieren. Folglich ist eine umfassende und unvoreingenommene Metabolom-Analyse notwendig, um unser Verständnis über den Transport von Stoffwechselprodukten sowie über Phloemtransport zu vertiefen. Phloemexsudate von Kürbispflanzen werden unter Verwendung der Metabolom-Analyse analysiert. Bei diesen Pflanzen wird angenommen, dass sie symplastische Beladungswege verwenden, um Photoassmilate als Ausgangsschritt des Phloemtransportes zu konzentrieren. Zwei neue Familien Callose-verwandter Substanzen, 1,3-Overknüpfte Glycane, sowie eine Reihe anderer kleinerer Metabolite werden in den Phloemexsudaten detektiert. Metabolom-Daten und physiologische Experimente widersprechen früher berichtetem Verständnis des Phloemexsudationsprozesses in Kürbispflanzen. Folglich bestätigt sich der Phloemexsudationsprozeß durch Kombination unterschiedlicher mikroskopischer Techniken. Kürbispflanzen besitzen zwei Phloemsysteme mit eindeutigen anatomischen Eigenschaften. Es zeigt sich, daß Phloemexsudate in Kürbissen hauptsächlich vom extrafaszikulären Phloem, nicht vom zentralen Phloem, stammen. In den letzten Jahrzehnten wurde gewöhnlich mißverstanden, daß Phloemexsudate vom zentralen Phloem stammen. Die eindeutigen metabolischen Profile der unterschiedlichen Phloemsysteme, die durch Metabolom-Analysen in der räumlichen Auflösung beobachtet werden, bestätigen die unterschiedlichen physiologischen Funktionen der zwei unterschiedlichen Phloemsysteme: das zentrale Phloem transportiert hauptsächlich Zucker, während das extrafaszikuläre Phloem ein ausgedehntes Spektrum von Metaboliten transportiert. Es kann auch ein unterschiedliches metabolisches Profil kleiner Moleküle zwischen internem und externem zentralem Phloem beobachtet werden. Von Strukturproteinen des zentralen Phloems wurden auch Proben genommen und mittels Massenspektrometrie analysiert. Diese Proteine erweisen sich als neuartige Proteine, die sich zu denen im extrafaszikulären Phloem unterscheiden. Dies bestätigt ferner den Funktionsunterschied der unterschiedlichen Phloemsysteme in Kürbispflanzen. Basierend auf diesen neuartigen Entdeckungen des Phloem-Metaboloms und dem vorhergehenden Wissen über den Phloemtransport in Kürbispflanzen, wird ein neues Modell vorgeschlagen, um den Mechanismus des Phloemtransports in der symplastischen Beladung zu verstehen. KW - phloem KW - metabolomics KW - cucurbits KW - phloem proteins KW - phloem KW - symplastic loading KW - metabolomic analysis KW - p-proteins KW - phloem architecture Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6644 ER - TY - THES A1 - Zeuschner, Steffen Peer T1 - Magnetoacoustics observed with ultrafast x-ray diffraction N2 - In the present thesis I investigate the lattice dynamics of thin film hetero structures of magnetically ordered materials upon femtosecond laser excitation as a probing and manipulation scheme for the spin system. The quantitative assessment of laser induced thermal dynamics as well as generated picosecond acoustic pulses and their respective impact on the magnetization dynamics of thin films is a challenging endeavor. All the more, the development and implementation of effective experimental tools and comprehensive models are paramount to propel future academic and technological progress. In all experiments in the scope of this cumulative dissertation, I examine the crystal lattice of nanoscale thin films upon the excitation with femtosecond laser pulses. The relative change of the lattice constant due to thermal expansion or picosecond strain pulses is directly monitored by an ultrafast X-ray diffraction (UXRD) setup with a femtosecond laser-driven plasma X-ray source (PXS). Phonons and spins alike exert stress on the lattice, which responds according to the elastic properties of the material, rendering the lattice a versatile sensor for all sorts of ultrafast interactions. On the one hand, I investigate materials with strong magneto-elastic properties; The highly magnetostrictive rare-earth compound TbFe2, elemental Dysprosium or the technological relevant Invar material FePt. On the other hand I conduct a comprehensive study on the lattice dynamics of Bi1Y2Fe5O12 (Bi:YIG), which exhibits high-frequency coherent spin dynamics upon femtosecond laser excitation according to the literature. Higher order standing spinwaves (SSWs) are triggered by coherent and incoherent motion of atoms, in other words phonons, which I quantified with UXRD. We are able to unite the experimental observations of the lattice and magnetization dynamics qualitatively and quantitatively. This is done with a combination of multi-temperature, elastic, magneto-elastic, anisotropy and micro-magnetic modeling. The collective data from UXRD, to probe the lattice, and time-resolved magneto-optical Kerr effect (tr-MOKE) measurements, to monitor the magnetization, were previously collected at different experimental setups. To improve the precision of the quantitative assessment of lattice and magnetization dynamics alike, our group implemented a combination of UXRD and tr-MOKE in a singular experimental setup, which is to my knowledge, the first of its kind. I helped with the conception and commissioning of this novel experimental station, which allows the simultaneous observation of lattice and magnetization dynamics on an ultrafast timescale under identical excitation conditions. Furthermore, I developed a new X-ray diffraction measurement routine which significantly reduces the measurement time of UXRD experiments by up to an order of magnitude. It is called reciprocal space slicing (RSS) and utilizes an area detector to monitor the angular motion of X-ray diffraction peaks, which is associated with lattice constant changes, without a time-consuming scan of the diffraction angles with the goniometer. RSS is particularly useful for ultrafast diffraction experiments, since measurement time at large scale facilities like synchrotrons and free electron lasers is a scarce and expensive resource. However, RSS is not limited to ultrafast experiments and can even be extended to other diffraction techniques with neutrons or electrons. N2 - In der vorliegenden Arbeit untersuche ich die Gitterdynamik von magnetisch geordneten und dünnen Filmen, deren Spinsystem mit Femtosekunden-Laserpulsen angeregt und untersucht wird. Die Quantifizierung der laserinduzierten thermischen Dynamik, der erzeugten Pikosekunden-Schallpulse sowie deren jeweiliger Einfluss auf die Magnetisierungsdynamik ist ein schwieriges Unterfangen. Umso mehr ist die Entwicklung und Anwendung von effizienten experimentellen Konzepten und umfangreichen Modellen grundlegend für das Antreiben des zukünftigen wissenschaftlichen und technologischen Fortschritt. In jedem Experiment dieser kummulativen Dissertation untersuche ich das Kristallgitter von Nanometer dünnen Filmen nach der Anregung mit Femtosekunden-Laserpulsen. Die relative Änderung der Gitterkonstante, hervorgerufen durch thermische Ausdehnung oder Pikosekunden-Schallpulse, wird dabei direkt mittels ultraschneller Röntgenbeugung (UXRD) gemessen. Der Aufbau nutzt zur Bereitstellung von ultrakurzen Röntgenpulsen eine lasergetriebene Plasma-Röntgenquelle (PXS). Phononen und Spins üben gleichermaßen einen Druck auf das Gitter aus, welches entsprechend der elastsischen Eigenschaften des Materials reagiert, was das Gitter zu einem vielseitigen Sensor für ultraschenlle Wechselwirkungen macht. Zum einen untersuche ich Materialien mit starken magnetoelastischen Eigentschaften: die stark magnetostriktive Seltenen-Erden-Verbindung TbFe2, elementares Dysprosium oder das technologisch relavante Invar-Material FePt. Zum anderen habe ich eine umfangreiche Studie der Gitterdynamik von Bi1Y2Fe5O12 (Bi:YIG) angestellt, in dem der Literatur zufolge hochfrequente kohärente Spindynamiken durch Femtosekunden-Laseranregung zu beobachten sind. Diese stehenden Spinwellen (SSWs) höherer Ordnung entstehen durch die kohärente und inkohärente Bewegung von Atomen, in anderen Worten Phononen, welche ich durch UXRD vermessen habe. Somit sind wir in der Lage, die experimentellen Beobachtungen der Gitter- und Spindynamik qualitativ und quantitativ zu vereinigen. Dies geschieht durch eine Kombination von Viel-Temperatur- und Anisotropiemodellierung sowie elastische, magnetoelastische, und mikromagnetsiche Modelle. Die gemeinsamen Daten von UXRD und der zeitaufgelösten magnetooptischen Kerr-Effekt Messungen (tr-MOKE), um jeweils die Gitter- und Spindynamik zu messen, wurden in der Vergangenheit noch an unterschiedlichen experimentellen Aufbauten gemessen. Um die Quantifizierung präziser zu gestalten, haben wir in unserer Arbeitsgruppe UXRD und tr-MOKE in einem einzigen Aufbau kombiniert, welcher somit meines Wissens der erste seiner Art ist. Ich half bei dem Entwurf und der Inbetriebnahme des neuen Aufbaus, welcher die gleichzeitige Messung von Gitter- und Spindynamik auf einer ultraschnellen Zeitskala unter identischen Anregungsbedingungen ermöglicht. Außerdem entwickelte ich eine neue Messroutine für Röntgenbeugung, welche die Messzeit von UXRD-Experimenten um bis zu einer Größenordnungen reduziert. Es nennt sich das Schneiden des reziproken Raumes (reciprocal space slicing, RSS) und nutzt den Vorteil von Flächendetektoren die Bewegung von Beugungsreflexen zu detektieren, was von einer Änderung der Gitterkonstante einhergeht, ohne zeitintensive Scans der Beugungswinkel mit dem Goniometer durchzuführen. RSS ist besonders nützlich für ultraschnelle Beugungsexperimente, weil die Messzeit an Großgeräten wie Synchrotrons oder Freie Elektronen Laser eine seltene und teure Ressource ist. Darüber hinaus ist RSS nicht zwangsläufig auf die Anwendung in ultraschnellen Experimenten beschränkt und kann sogar auf andere Beugungsexperimente, wie die mit Neutronen und Elektronen, ausgeweitet werden. KW - ultrafast KW - X-ray diffraction KW - thin films KW - magnetoelasticity KW - ultraschnell KW - Röntgenbeugung KW - dünne Filme KW - Magnetoelastizität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561098 ER - TY - THES A1 - Zerle-Elsäßer, Claudia T1 - Wer wird Vater und wann? BT - Zur Kinderlosigkeit von Männern und dem Timing einer ersten Vaterschaft im Lebenslauf Y1 - 2014 SN - 978-3-86573-844-8 PB - Wiss. Verl. CY - Berlin ER - TY - THES A1 - Zeppenfeld, Stefan T1 - Vom Gast zum Gastwirt? BT - Türkische Arbeitswelten in West-Berlin T2 - Geschichte der Gegenwart N2 - Die Arbeitsmigration zählt zu den prägenden gesellschaftlichen Wandlungsprozessen der deutschen Nachkriegsgeschichte. 14 Millionen »Gastarbeiter« kamen zwischen 1955 und 1973 in die Bundesrepublik, etwa 3 Millionen von ihnen kehrten nicht in ihre Heimatländer zurück. Vor allem Türkeistämmige blieben nach dem Anwerbestopp häufiger in Deutschland als die Arbeitskräfte aus anderen Ländern. Wie keine andere Stadt steht Berlin bis heute für die Einwanderung aus der Türkei. Stefan Zeppenfeld untersucht den Wandel der türkischen Arbeitswelten von ihren Anfängen in den 1960er Jahren bis zur Wiedervereinigung. Ausgehend von der »Gastarbeit« im industriellen Großbetrieb spürt er in seiner Studie am Beispiel West-Berlins dem Übergang in andere Branchen nach. Er zeigt, wie der öffentliche Dienst auch für Migrantinnen und Migranten attraktive Aufstiegsmöglichkeiten eröffnete, zeichnet den schwierigen Weg in die gewerbliche Selbstständigkeit nach und legt illegale Beschäftigungsformen als alternative Verdienstmöglichkeit offen. Damit bettet der Autor die Geschichte der türkischen Arbeitsmigration in die deutsche Zeitgeschichte ein. Y1 - 2021 SN - 978-3-8353-5022-9 IS - 26 PB - Wallstein-Verlag CY - Göttingen ER - TY - THES A1 - Zenthöfer, Jochen T1 - Wettbewerbsföderalismus : zur Reform des deutschen Bundesstaates nach australischen Vorbild Y1 - 2006 SN - 3-86651-016-0 PB - Schmidt CY - Grasberg bei Bremen ER - TY - THES A1 - Zenichowski, Karl T1 - Quantum dynamical study of Si(100) surface-mounted, STM-driven switches at the atomic and molecular scale T1 - Quantendynamische Untersuchung von Si(100) Oberflächen-gebundenen, STM-gesteuerten atomaren und molekularen Schaltern N2 - The aim of this thesis is the quantum dynamical study of two examples of scanning tunneling microscope (STM)-controllable, Si(100)(2x1) surface-mounted switches of atomic and molecular scale. The first example considers the switching of single H-atoms between two dangling-bond chemisorption sites on a Si-dimer of the Si(100) surface (Grey et al., 1996). The second system examines the conformational switching of single 1,5-cyclooctadiene molecules chemisorbed on the Si(100) surface (Nacci et al., 2008). The temporal dynamics are provided by the propagation of the density matrix in time via an according set of equations of motion (EQM). The latter are based on the open-system density matrix theory in Lindblad form. First order perturbation theory is used to evaluate those transition rates between vibrational levels of the system part. In order to account for interactions with the surface phonons, two different dissipative models are used, namely the bilinear, harmonic and the Ohmic bath model. IET-induced vibrational transitions in the system are due to the dipole- and the resonance-mechanism. A single surface approach is used to study the influence of dipole scattering and resonance scattering in the below-threshold regime. Further, a second electronic surface was included to study the resonance-induced switching in the above-threshold regime. Static properties of the adsorbate, e.g., potentials and dipole function and potentials, are obtained from quantum chemistry and used within the established quantum dynamical models. N2 - Die vorliegende Doktorarbeit befasst sich mit kleinsten schaltbaren Einheiten in Form des Moleküls Cyclooctadien (COD) und dem Wasserstoff-Atom, die chemisch fest mit einer Oberfläche aus kristallinem Silizium verbunden sind. Jeder dieser Schalter kann mittels einer winzigen Spitze, eines so genannten Rastertunnelmikroskops (RTM), von atomarem Durchmesser in zwei unterscheidbare und stabile Schaltpositionen gebracht werden. Dabei besteht das Schalten entweder in einer Änderung der Geometrie des molekularen Schalters oder im Brechen und Neu-knüpfen chemischer Bindungen. Dabei ist es entscheidend, dass durch die geringe Grösse dieser Schalter eine hohe Anzahl dieser Schalter auf einer Oberfläche deponiert werden können. Mit der in den Schaltern speicherbaren Informationen an oder aus, 0 oder 1 ließen sich sehr hohe Speicherkapazitäten erreichen. Vor einer Anwendung dieser Art ist es wichtig zunächst ein grundlegendes Verständnis der Schaltprozesse auf der Oberfläche zu gewinnen. Wenn alle wesentlichen Faktoren berücksichtigt wurden und der Mechanismus des Schaltens verstanden ist, kann das Ergebnis des Experiments mit Hilfe eines theoretischen Modells vorhergesagt werden. Für die Handhabbarkeit muss sich das theoretisches Modell auf wesentliche Einflüsse beschränken und diese so einfach wie möglich beschreiben. So wurde die simultane Bewegung der 12 Atome des COD in die Bewegung eines gemittelten Massenpunktes entlang von einer oder von zwei räumlichen Freiheitsgraden übersetzt. Dabei kann der Massenpunkt im klassischen Bild anschaulich als eine rollende Kugel beschrieben werden, die in einer Seite einer Doppelmulde gefangen ist. Die Kugel kann durch äußere Anregung zum Schwingen gebracht werden und schließlich über eine Barriere in die benachbarte Mulde schalten. Nun muss die Schwingung der Kugel gebremst werden, um ein Zurück-Schwingen der Kugel zu verhindern. Die Anregung erfolgt durch elektrische Ladungen die von der Spitze des RTM zur Oberfläche wandern oder durch eine schwingende, d.h. warme Oberfläche. Das Bremsen wird über die elastische Bindung zu einer kalten Oberfläche vermittelt. Um Quanteneffekte wie das Tunneln der Kugel durch die Barriere zu beschreiben wurde die Kugel durch ein Wellenpaket beschrieben und dessen Aufenthaltswahrscheinlichkeit in der Doppelmulde untersucht. Im Fall des Wasserstoffatoms war die experimentelle Prüfung des entworfenen Modells für ein Schalten bei starkem Strom leider nicht möglich. Für das COD Molekül konnte jedoch nicht nur die Übereinstimmung mit den experimentellen Befunden, sondern im Fall des Schaltens in Abhängigkeit der Oberflächentemperatur auch die Vorhersagefähigkeit des Modells unter Beweis gestellt werden. KW - Kerndynamik KW - molekulare Schalter KW - Nanotechnologie KW - STM KW - Oberflächen KW - Quantum dynamics KW - molecular switches KW - nanotechnology KW - STM KW - surfaces Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62156 ER - TY - THES A1 - Zeng, Ting T1 - Nanoparticles promoted biocatalysis BT - Electrochemical investigation of human sulfite oxidase on nanoparticles modified electrodes Y1 - 2017 ER - TY - THES A1 - Zemella, Anne T1 - Fluoreszenzmarkierung und Modifizierung von komplexen Proteinen in eukaryotischen zellfreien Systemen durch die Etablierung von orthogonalen tRNA/Aminoacyl-tRNA-Synthetase-Paaren T1 - Fluorescent labeling and modification of complex proteins in eukaryotic cell-free systems by establishing orthogonal tRNA/aminoacyl-tRNA-synthetase pairs N2 - Die funktionelle Charakterisierung von therapeutisch relevanten Proteinen kann bereits durch die Bereitstellung des Zielproteins in adäquaten Mengen limitierend sein. Dies trifft besonders auf Membranproteine zu, die aufgrund von zytotoxischen Effekten auf die Produktionszelllinie und der Tendenz Aggregate zu bilden, in niedrigen Ausbeuten an aktivem Protein resultieren können. Der lebende Organismus kann durch die Verwendung von translationsaktiven Zelllysaten umgangen werden- die Grundlage der zellfreien Proteinsynthese. Zu Beginn der Arbeit wurde die ATP-abhängige Translation eines Lysates auf der Basis von kultivierten Insektenzellen (Sf21) analysiert. Für diesen Zweck wurde ein ATP-bindendes Aptamer eingesetzt, durch welches die Translation der Nanoluziferase reguliert werden konnte. Durch die dargestellte Applizierung von Aptameren, könnten diese zukünftig in zellfreien Systemen für die Visualisierung der Transkription und Translation eingesetzt werden, wodurch zum Beispiel komplexe Prozesse validiert werden können. Neben der reinen Proteinherstellung können Faktoren wie posttranslationale Modifikationen sowie eine Integration in eine lipidische Membran essentiell für die Funktionalität des Membranproteins sein. Im zweiten Abschnitt konnte, im zellfreien Sf21-System, für den G-Protein-gekoppelten Rezeptor Endothelin B sowohl eine Integration in die endogen vorhandenen Endoplasmatisch Retikulum-basierten Membranstrukturen als auch Glykosylierungen, identifiziert werden. Auf der Grundlage der erfolgreichen Synthese des ET-B-Rezeptors wurden verschiedene Methoden zur Fluoreszenzmarkierung des Adenosin-Rezeptors A2a (Adora2a) angewandt und optimiert. Im dritten Abschnitt wurde der Adora2a mit Hilfe einer vorbeladenen tRNA, welche an eine fluoreszierende Aminosäure gekoppelt war, im zellfreien Chinesischen Zwerghamster Ovarien (CHO)-System markiert. Zusätzlich konnte durch den Einsatz eines modifizierten tRNA/Aminoacyl-tRNA-Synthetase-Paares eine nicht-kanonische Aminosäure an Position eines integrierten Amber-Stopcodon in die Polypeptidkette eingebaut und die funktionelle Gruppe im Anschluss an einen Fluoreszenzfarbstoff gekoppelt werden. Aufgrund des offenen Charakters eignen sich zellfreie Proteinsynthesesysteme besonders für eine Integration von exogenen Komponenten in den Translationsprozess. Mit Hilfe der Fluoreszenzmarkierung wurde eine ligandvermittelte Konformationsänderung im Adora2a über einen Biolumineszenz-Resonanzenergietransfer detektiert. Durch die Etablierung der Amber-Suppression wurde darüber hinaus das Hormon Erythropoetin pegyliert, wodurch Eigenschaften wie Stabilität und Halbwertszeit des Proteins verändert wurden. Zu guter Letzt wurde ein neues tRNA/Aminoacyl-tRNA-Synthetase-Paar auf Basis der Methanosarcina mazei Pyrrolysin-Synthetase etabliert, um das Repertoire an nicht-kanonischen Aminosäuren und den damit verbundenen Kopplungsreaktionen zu erweitern. Zusammenfassend wurden die Potenziale zellfreier Systeme in Bezug auf der Herstellung von komplexen Membranproteinen und der Charakterisierung dieser durch die Einbringung einer positionsspezifischen Fluoreszenzmarkierung verdeutlicht, wodurch neue Möglichkeiten für die Analyse und Funktionalisierung von komplexen Proteinen geschaffen wurden. N2 - The functional characterization of therapeutically relevant proteins can be limited due to the provision of the target protein in adequate amounts. In particular membrane proteins belong to the so called “difficult-to-express” proteins because of possible cytotoxic side effects and a susceptibility to aggregation. The living organism can be circumvented by using cell lysates – the basic for cell-free protein synthesis. In the beginning of the thesis the ATP-dependent translation process in a cell lysate based on cultured insect (Sf21) cells was analyzed. For this purpose the translation of a nanoluciferase was regulated by the addition of an ATP-binding aptamer. The demonstrated application of aptamers in cell-free systems might enable a visualization of transcription and translation and following a potential validation process for high-throughput syntheses. In addition to the protein synthesis, factors such as posttranslational modifications and a correct integration into a lipid membrane are essential for the functionality of membrane proteins. Therefore, in the second part, integration of the G protein-coupled Endothelin receptor type B (ET-B) into the endogenous endoplasmic reticulum derived membranes and glycosylation were shown to be possible in a Sf21 cell-free system. Following to the successful synthesis of the ET-B receptor different fluorescent labeling strategies were applied to the adenosine receptor A2a (Adora2a). The first strategy applied precharged tRNAs, coupled to a fluorescently labeled amino acid, to the translation process in a Chinese Hamster Ovary cells (CHO) cell-free system. The second strategy utilized a modified tRNA/aminoacyl-tRNA-synthetase pair to incorporate a non-canonical amino acid at an integrated amber stop codon with a subsequently fluorescent labeling. The open character of cell-free systems enables a feasible integration of exogenous components into the translation process. The site-specific fluorescent labeling was the basis for the detection of a ligand-induced conformational change in the Adora2a by a bioluminescence resonance energy transfer. Additionally the amber suppression technique was transferred to the hormone Erythropoietin (EPO) to modify EPO´s stability and half-life period by coupling polyethylene glycol. Last but not least a novel tRNA/aminoacyl-tRNA-synthetase pair based on the Methanosarcina mazei pyrrolysine synthetase was developed to further increase the repertoire of non-canonical amino acids and copper-free click reactions. Summarizing in the present thesis the potentials of cell-free protein systems related to the synthesis of “difficult-to-express” proteins and the characterization of these proteins with site-specific fluorescence labeling are depicted, thereby establishing new methods for the analysis and functionalization of complex proteins. KW - Zellfreie Proteinsynthese KW - nicht-kanonische Aminosäuren KW - Klick-Chemie KW - Fluoreszenzmarkierung KW - GPCRs KW - Proteinmodifizierung KW - cell-free protein synthesis KW - non-canonical amino acids KW - click chemistry KW - fluorescent labeling KW - GPCRs KW - protein modification Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442361 ER - TY - THES A1 - Zemanová, Lucia T1 - Structure-function relationship in hierarchical model of brain networks T1 - Das Verhältnis von Struktur und Funktion in hierarchischem Model der Hirn-Netzwerken N2 - The mammalian brain is, with its numerous neural elements and structured complex connectivity, one of the most complex systems in nature. Recently, large-scale corticocortical connectivities, both structural and functional, have received a great deal of research attention, especially using the approach of complex networks. Here, we try to shed some light on the relationship between structural and functional connectivities by studying synchronization dynamics in a realistic anatomical network of cat cortical connectivity. We model the cortical areas by a subnetwork of interacting excitable neurons (multilevel model) and by a neural mass model (population model). With weak couplings, the multilevel model displays biologically plausible dynamics and the synchronization patterns reveal a hierarchical cluster organization in the network structure. We can identify a group of brain areas involved in multifunctional tasks by comparing the dynamical clusters to the topological communities of the network. With strong couplings of multilevel model and by using neural mass model, the dynamics are characterized by well-defined oscillations. The synchronization patterns are mainly determined by the node intensity (total input strengths of a node); the detailed network topology is of secondary importance. The biologically improved multilevel model exhibits similar dynamical patterns in the two regimes. Thus, the study of synchronization in a multilevel complex network model of cortex can provide insights into the relationship between network topology and functional organization of complex brain networks. N2 - Das Gehirn von Säugetieren stellt mit seinen zahlreichen, hochgradig vernetzten Neuronen ein natürliches Netzwerk von immenser Komplexität dar. In der jüngsten Vergangenheit sind die großflächige kortikale Konnektivitäten, sowohl unter strukturellen wie auch funktionalen Gesichtspunkten, in den Fokus der Forschung getreten. Die Verwendung von komplexe Netzwerke spielt hierbei eine entscheidende Rolle. In der vorliegenden Dissertation versuchen wir, das Verhältnis von struktureller und funktionaler Konnektivität durch Untersuchung der Synchronisationsdynamik anhand eines realistischen Modells der Konnektivität im Kortex einer Katze näher zu beleuchten. Wir modellieren die Kortexareale durch ein Subnetzwerk interagierender, erregbarer Neuronen (multilevel model) und durch ein Modell von Neuronenensembles (population model). Bei schwacher Kopplung zeigt das multilevel model eine biologisch plausible Dynamik und die Synchronisationsmuster lassen eine hierarchische Organisation der Netzwerkstruktur erkennen. Indem wir die dynamischen Cluster mit den topologischen Einheiten des Netzwerks vergleichen, sind wir in der Lage die Hirnareale, die an der Bewältigung komplexer Aufgaben beteiligt sind, zu identifizieren. Bei starker Kopplung im multilevel model und unter Verwendung des Ensemblemodells weist die Dynamik klare Oszillationen auf. Die Synchronisationsmuster werden hauptsächlich durch die Eingangsstärke an den einzelnen Knoten bestimmt, während die genaue Netzwerktopologie zweitrangig ist. Eine Erweiterung des Modells auf andere biologisch relevante Faktoren bestätigt die vorherigen Ergebnisse. Die Untersuchung der Synchronisation in einem multilevel model des Kortex ermöglicht daher tiefere Einblicke in die Zusammenhänge zwischen Netzwerktopologie und funktionaler Organisation in komplexen Hirn-Netzwerken. KW - komplexe Hirnnetzwerke KW - Verhältnis der Struktur und Funktion KW - hierarchisches Model KW - Synchronization KW - complex brain networks KW - structur-function relationship KW - hierarchical model KW - synchronization Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18400 ER - TY - THES A1 - Zeller, Carolin T1 - Self-regulation and labour standards : an exemplary study investigating the emergence and strenghening of self- regulation regimes in the apparel industry Y1 - 2012 SN - 978-3-631-62433-3 PB - Lang Peter GmbH Internationaler Verlag der Wissenschaften CY - Frankfurt ER - TY - THES A1 - Zeitz, Maria T1 - Modeling the future resilience of the Greenland Ice Sheet T1 - Numerische Modellierung der zukünftigen Resilienz des grönländischen Eisschildes BT - from the flow of ice to the interplay of feedbacks N2 - The Greenland Ice Sheet is the second-largest mass of ice on Earth. Being almost 2000 km long, more than 700 km wide, and more than 3 km thick at the summit, it holds enough ice to raise global sea levels by 7m if melted completely. Despite its massive size, it is particularly vulnerable to anthropogenic climate change: temperatures over the Greenland Ice Sheet have increased by more than 2.7◦C in the past 30 years, twice as much as the global mean temperature. Consequently, the ice sheet has been significantly losing mass since the 1980s and the rate of loss has increased sixfold since then. Moreover, it is one of the potential tipping elements of the Earth System, which might undergo irreversible change once a warming threshold is exceeded. This thesis aims at extending the understanding of the resilience of the Greenland Ice Sheet against global warming by analyzing processes and feedbacks relevant to its centennial to multi-millennial stability using ice sheet modeling. One of these feedbacks, the melt-elevation-feedback is driven by the temperature rise with decreasing altitudes: As the ice sheet melts, its thickness and surface elevation decrease, exposing the ice surface to warmer air and thus increasing the melt rates even further. The glacial isostatic adjustment (GIA) can partly mitigate this melt-elevation feedback as the bedrock lifts in response to an ice load decrease, forming the negative GIA feedback. In my thesis, I show that the interaction between these two competing feedbacks can lead to qualitatively different dynamical responses of the Greenland Ice Sheet to warming – from permanent loss to incomplete recovery, depending on the feedback parameters. My research shows that the interaction of those feedbacks can initiate self-sustained oscillations of the ice volume while the climate forcing remains constant. Furthermore, the increased surface melt changes the optical properties of the snow or ice surface, e.g. by lowering their albedo, which in turn enhances melt rates – a process known as the melt-albedo feedback. Process-based ice sheet models often neglect this melt-albedo feedback. To close this gap, I implemented a simplified version of the diurnal Energy Balance Model, a computationally efficient approach that can capture the first-order effects of the melt-albedo feedback, into the Parallel Ice Sheet Model (PISM). Using the coupled model, I show in warming experiments that the melt-albedo feedback almost doubles the ice loss until the year 2300 under the low greenhouse gas emission scenario RCP2.6, compared to simulations where the melt-albedo feedback is neglected, and adds up to 58% additional ice loss under the high emission scenario RCP8.5. Moreover, I find that the melt-albedo feedback dominates the ice loss until 2300, compared to the melt-elevation feedback. Another process that could influence the resilience of the Greenland Ice Sheet is the warming induced softening of the ice and the resulting increase in flow. In my thesis, I show with PISM how the uncertainty in Glen’s flow law impacts the simulated response to warming. In a flow line setup at fixed climatic mass balance, the uncertainty in flow parameters leads to a range of ice loss comparable to the range caused by different warming levels. While I focus on fundamental processes, feedbacks, and their interactions in the first three projects of my thesis, I also explore the impact of specific climate scenarios on the sea level rise contribution of the Greenland Ice Sheet. To increase the carbon budget flexibility, some warming scenarios – while still staying within the limits of the Paris Agreement – include a temporal overshoot of global warming. I show that an overshoot by 0.4◦C increases the short-term and long-term ice loss from Greenland by several centimeters. The long-term increase is driven by the warming at high latitudes, which persists even when global warming is reversed. This leads to a substantial long-term commitment of the sea level rise contribution from the Greenland Ice Sheet. Overall, in my thesis I show that the melt-albedo feedback is most relevant for the ice loss of the Greenland Ice Sheet on centennial timescales. In contrast, the melt-elevation feedback and its interplay with the GIA feedback become increasingly relevant on millennial timescales. All of these influence the resilience of the Greenland Ice Sheet against global warming, in the near future and on the long term. N2 - Das grönländische Eisschild ist die zweitgrößte Eismasse der Erde. Es fasst genug Eis, um den globalen Meeresspiegel um 7m anzuheben, wenn er vollständig schmilzt. Trotz seiner Größe ist es durch den vom Menschen verursachten Klimawandel immens gefährdet: Die Temperaturen über Grönland sind in den letzten 30 Jahren um mehr als 2,7◦C gestiegen, doppelt so stark wie im globalen Mittel. Daher verliert das Eisschild seit den 1980er Jahren an Masse und die Verlustrate hat sich seitdem versechsfacht. Zudem ist das grönländische Eisschild ein Kippelement des Erdsystems, es könnte sich unwiederbringlich verändern, wenn die globale Erwärmung einen Schwellwert überschreiten sollte. Ziel dieser Arbeit ist es, das Verständnis für die Resilienz des grönländischen Eisschildes zu erweitern, indem relevante Rückkopplungen und Prozesse analysiert werden. Eine dieser Rückkopplungen, die positive Schmelz-Höhen-Rückkopplung wird durch den Temperaturanstieg bei abnehmender Höhe angetrieben: Wenn der Eisschild schmilzt, nehmen seine Dicke und die Oberflächenhöhe ab, wodurch die Eisoberfläche wärmerer Luft ausgesetzt wird und die Schmelzraten noch weiter ansteigen. Die glaziale isostatische Anpassung (GIA) kann die Schmelz-Höhen-Rückkopplung teilweise abschwächen, da sich der Erdmantel als Reaktion auf die abnehmende Eislast hebt und so die negative GIA-Rückkopplung bildet. Ich zeige, dass die Interaktion zwischen diesen beiden konkurrierenden Rückkopplungen zu qualitativ unterschiedlichem dynamischen Verhalten des grönländischen Eisschildes bei Erwärmung führen kann - von permanentem Verlust bis hin zu unvollständiger Erholung. Das Zusammenspiel dieser Rückkopplungen kann zudem Oszillationen des Eisvolumens in einem konstanten Klima auslösen. Die verstärkte Oberflächenschmelze ändert die optischen Eigenschaften von Schnee und Eis und verringert deren Albedo, was wiederum die Schmelzraten erhöht – die sogenannte Schmelz-Albedo Rückkopplung. Da viele Eisschildmodelle diese vernachlässigen, habe ich eine vereinfachte Version des tageszeitlichen Energiebilanzmodells, welches die Effekte der Schmelz-Albedo-Rückkopplung erster Ordnung erfassen kann, in das Eisschildmodell PISM implementiert. Mithilfe des gekoppelten Modells zeige ich, dass die Schmelz-Albedo-Rückkopplung den Eisverlust bis zum Jahr 2300 im moderaten Klimaszenario RCP2.6 fast verdoppelt und im RCP8.5-Szenario, welches von starken Emissionen ausgeht, bis zu 58% zusätzlichen Eisverlust verursacht, im Vergleich zu Simulationen in denen die Schmelz-Albedo-Rückkopplung vernachlässigt wird. Bis zum Jahr 2300 trägt die Schmelz-Albedo-Rückkopplung mehr zum Eisverlust bei als die Schmelz-Höhen-Rückkopplung. Ein weiterer Prozess, der die Widerstandsfähigkeit des grönländischen Eisschilds beeinflussen könnte, ist die Erweichung des Eises bei steigenden Temperaturen, sowie die daraus resultierende Zunahme des Eisflusses. In meiner Dissertation zeige ich, wie sich die parametrische Unsicherheit in dem Flussgesetz auf die Ergebnisse von PISM Simulationen bei Erwärmung auswirkt. In einem idealisierten, zweidimensionalen Experiment mit fester klimatischer Massenbilanz führt die Unsicherheit in den Strömungsparametern zu einer Bandbreite des Eisverlustes, die mit der Bandbreite durch unterschiedliche Erwärmungen vergleichbar ist. Neben den grundsätzlichen Prozessen und Rückkopplungen untersuchte ich auch die Auswirkungen konkreter Klimaszenarien auf den Eisverlust von Grönland. Um die Flexibilität des Kohlenstoffbudgets zu erhöhen sehen einige Erwärmungsszenarien eine temporäre Überschreitung der globalen Temperaturen über das Ziel von 1,5◦C vor. Ich zeige, dass eine solche Temperaturerhöhung den kurz- und langfristigen Eisverlust von Grönland um mehrere Zentimeter erhöht. Der langfristige Meeresspiegelanstieg ist auf die anhaltende Temperaturerhöhung in hohen Breitengraden zurückzuführen. Solche Prozesse führen zu einem langfristigen und bereits festgelegtem Meeresspiegelanstieg, selbst wenn die Temperaturen nicht weiter steigen. Insgesamt zeige ich in meiner Arbeit, dass die Schmelz-Albedo-Rückkopplung für den Eisverlust des grönländischen Eisschilds in den nächsten Jahrhunderten am wichtigsten ist. Im Gegensatz dazu werden die Schmelz-Höhen-Rückkopplung und ihr Zusammenspiel mit der GIA-Rückkopplung auf längeren Zeiträumen immer relevanter. KW - Greenland Ice Sheet KW - ice-flow modeling KW - sea-level rise KW - Grönländisches Eisschild KW - Computersimulation KW - Meeresspiegelanstieg Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-568839 ER -