TY - THES A1 - Weise, Katja T1 - Gezähmte Kleider, gebändigte Körper? T1 - Tamed Dresses? Tamed Bodies? BT - Kleidermoden im Museum sehend spüren. Der Einfluss von Präsentationsmitteln auf ästhetische Erfahrungen zwischen Visuellem und Hautsinnlichem N2 - Gegenstand der Dissertation ist die Präsentation von Kleidermode in ihr gewidmeten Sonderausstellungen, die in zunehmender Zahl seit den 1990er Jahren in musealen und musemsähnlichen Kontexten veranstaltet werden. Es geht darum, wie Modekörper und vestimentäre Artefakte in diesen Ausstellungen gezeigt werden und welche ästhetischen Erfahrungen sich für die RezipientInnen aus der jeweiligen Konstellation von vestimentärem Objekt und Inszenierungsmittel ergeben können. Das Augenmerk liegt auf der Spannung zwischen dem visuellen Imperativ musealer Zeigepraktiken und den multisensorischen Qualitäten der Kleidermode, v. a. jener hautsinnlichen, die sich aus dem unmittelbaren Kontakt zwischen Körper und Kleid ergeben. Die zentrale These ist, dass sich das Hautsinnliche der Kleidermode trotz des Berührungsverbots in vielen Ausstellungsinszenierungen zeigen kann. D. h., dass – entgegen häufig wiederholter Behauptungen – ‚der Körper‘, das Tragen und die Bewegung nicht per se oder komplett aus den Kleidern gewichen sind, werden diese musealisiert und ausgestellt. Es findet eine Verschiebung des Körperlichen und Hautsinnlichen, wie das Anfassen, Tragen und Bewegen, in visuelle Darstellungsformen statt. Hautsinnliche Qualitäten der vestimentären Exponate können, auch in Abhängigkeit von den jeweils verwendeten Präsentationsmitteln, von den BesucherInnen in unterschiedlichen Abstufungen sehend oder buchstäblich gespürt werden. An konkreten Beispielen wird zum einen das Verhältnis von ausgestelltem Kleid und Präsentationsmittel(n) in den Displays untersucht. Dabei stehen folgende Mittel im Fokus, mit deren Hilfe die vestimentären Exponate zur Schau gestellt werden: Vitrinen, Podeste, Ersatzkörper wie Mannequins, optische Hilfsmittel wie Lupen, Bildmedien oder (bewegte) Installationen. Zum anderen wird analysiert, welche Wirkungen die Arrangements jeweils erzielen oder verhindern können, und zwar in Hinblick auf mögliche ästhetische Erfahrungen, die taktilen, haptischen und kinästhetischen Qualitäten der Exponate als BesucherIn sehend oder buchstäblich zu fühlen oder zu spüren. Ob als Identifikation, Projektion, Haptic Vision – es handelt sich um ästhetische Erfahrungen, die sich aus den modischen Kompetenzen der BetrachterInnen speisen und bei denen sich Visuelles und Hautsinnliches oft überlagern. In der Untersuchung wird eine vernachlässigte, wenn nicht gar unerwünschte Rezeptionsweise diskutiert, die von den AkteurInnen der spezifischen Debatte bspw. als konsumptives Sehen abgewertet wird. Die von mir vorgeschlagene, stärker differenzierende Perspektive ist zugleich eine Kritik an dem bisherigen Diskurs und seinem eng gefassten, teilweise elitären Verständnis von Museum, Bildung und Wissen, mit dem sich AkteurInnen und Institutionen abgrenzen. Der Spezialdiskurs über musealisierte und exponierte Kleidermode steht zudem exemplarisch für die Diskussion, was das Museum, verstanden als Institution, sein kann und soll(te) und ob (und wenn ja, wie) es sich überhaupt noch von anderen Orten und Räumen klar abgrenzen lässt. N2 - The dissertation interrogates the visualization of fashion’s haptic qualities within display processes at contemporary exhibitions that showcase fashion’s material qualities, traces of touch, as well as movement. These considerations take place against the backdrop of the museum as a place where, starting in the early nineteenth century, touching is not allowed and knowledge has to be acquired visually. KW - Mode KW - Museum KW - Ausstellung KW - Display KW - Präsentation KW - Kleidung KW - fashion KW - dress KW - museum KW - exhibition KW - display Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439868 ER - TY - THES A1 - Müller, Eduard Rudolf T1 - Architektur und Kunst im lyrischen Werk Johannes Bobrowskis T1 - Architecture and art in the lyric poetry of Johannes Bobrowski N2 - Bobrowski had expressed the intention to study art history after graduation, but war and captivity thwarted his plans: As a member of the German Armed Forces, he was only released from military service for a semester in winter 1941/1942. Bobrowski was particularly impressed by the lectures on German Art in the Age of Goethe by the departmental chair Wilhelm Pinder. However, despite this fundamental influence Pinder’s ideological background never become manifest in Bobrowski’s poems. After returning from Soviet captivity during Christmas 1949, university studies were out of the question for the thirty-two-year-old. However, his lifelong intermedial engagement with fine art in his work can be interpreted as an expression of his diverse cultural and historical interests and inclinations. The poet’s life phases correlate with the thematic development of his poems on visual art: The inviolable aesthetics of significant works of art helped him to overcome the horror of the last years of the war and the privations of Soviet captivity. Didactic moral aims initially shaped the poems Bobrowski created in the years after his return home before he was able to distance himself in terms of content and form from this type of poetry and began to write poems that take up cultural-historical aspects and juxtapose historical, mythological, biblical and religious-philosophical themes spanning epochs. His poems about the artists Jawlensky and Calder also touch simultaneously on aspects of the cultural landscape. In the last decade of his life, Bobrowski became increasingly interested in twentieth-century art, while modern architecture was absent from his work. Bobrowski devoted himself in an entire series of poems to Classicist and Romanticist painting and thus to works that were written during the Age of Goethe and about which Wilhelm Pinder may have given lectures during his “German Art in the Age of Goethe” course attended by Bobrowski. Architecture is a leitmotif in Bobrowski’s lyrical works. The significance conveyed of the particular sacred and profane buildings referred to in the poems as well as the urban and village ensembles and individual parts of buildings changes several times over the years. Starting from traditional, juxtaposed juvenile poems in iambic versification, in which architectural elements form part of an awareness that fades out everything outside of the aesthetic, the significance of the sacred and secular buildings in Bobrowski’s lyrical works changes for the first time during the years he spent in Russia during the war as part of the German military. In the odes Bobrowski wrote at the time, the architectural relics testify to suffering, death and destruction. What is still absent, however, is the central idea of guilt, which later becomes the focus of poems he writes after his return from captivity until his early death. Towards the end of the war and during his years of captivity, Bobrowski reflects on the theme of his homeland again, and the architecture in his poems becomes an aesthetically charged projection for his yearning for East Prussia and the Memel area. The aspect of the sublime first appears in his poems, both in relation to painting and architecture, during his captivity. This idea is developed on the one hand after his return to Berlin in his poems on the architecture of Gothic cathedrals and the architectural heritage of Classicism, but the cultural heritage of Europe also represents historical injustice and a heavy, far-reaching guilt in the poems written during this period. Bobrowski turns away from his criticism of the entire continent of Europe in later years and in his “Sarmatic Divan” concentrates on the guilt Germans have towards the peoples of Eastern Europe. This also lends the architecture in his poems a new meaning. The relics of the castles of the Teutonic Order testify to the rule of medieval conquerors and merge with nature: The symbolism of the architecture becomes part of the landscape. In the last decade of his life, he increasingly writes poems related to parks and urban green spaces. The city, “filled with meaning”, moves to the centre of his poetry. However he does not deal with the technical achievements and social phenomena of urban life in these poems but with urban structures and especially the green and open spaces as symbols of history. The poet relies not only on personal experiences, but sometimes also on image sources without ever having seen the original. The poems about Chagall and Gauguin are hardly accessible without the knowledge that they refer to image reproductions in narrow, popular books that Bobrowski acquired shortly before writing the respective poems. The situation is different with the Russian churches that find their way into his lyrical works. Bobrowski had seen them all during the war, and most of them still appear to exist today and can be identified with some certainty with the help in part of the poet's letters from that period. N2 - Bobrowski hatte nach dem Abitur die Absicht geäußert, Kunstgeschichte zu studieren, doch Krieg und Kriegsgefangenschaft vereitelten seinen Plan: Der Wehrmachtsangehörige wurde einzig im Winter 1941/1942 für ein Studiensemester an der Universität Berlin vom Kriegsdienst freigestellt. Nachhaltig beeindruckt war Bobrowski insbesondere von der Vorlesung „Deutsche Kunst der Goethezeit“ des Lehrstuhlinhabers Wilhelm Pinder. Trotz eines grundlegenden Einflusses ist indessen zu keinem Zeitpunkt Pinders ideologischer Hintergrund in Bobrowskis Gedichten manifest geworden. Nach der Rückkehr aus sowjetischer Gefangenschaft an Weihnachten 1949 war für den mittlerweile Zweiunddreißigjährigen an ein Studium nicht mehr zu denken. Die lebenslange intermediale Auseinandersetzung mit Werken der bildenden Kunst in seinem Œuvre kann indessen als Ausdruck seiner vielfältigen kulturgeschichtlichen Interessen und Neigungen interpretiert werden. Die Lebensphasen des Dichters korrelieren mit einer motivischen Entwicklung seiner Bildgedichte: Insbesondere half ihm die unantastbare Ästhetik bedeutender Kunstwerke, das Grauen der letzten Kriegsjahre und die Entbehrungen in sowjetischer Kriegsgefangenschaft zu überwinden. Didaktisch-moralische Zielsetzungen prägten zunächst die in den Jahren nach seiner Heimkehr entstandenen Gedichte, bevor sich Bobrowski inhaltlich und formal von diesem Gedichttypus zu lösen vermochte und vermehrt Gedichte zu schreiben begann, die kulturgeschichtliche Dimensionen annahmen und historische, mythologische, biblische und religionsphilosophische Themen in epochenübergreifende Zusammenhänge stellten. Die Gedichte über die Künstler Jawlensky und Calder berühren gleichzeitig kulturlandschaftliche Aspekte. Im letzten Lebensjahrzehnt interessierte sich Bobrowski zunehmend für die Kunst des 20. Jahrhunderts, während die moderne Architektur aus seinem Werk ausgeklammert blieb. Architektur bildet eine Leitmotivik in Bobrowskis lyrischem Werk. Die übertragene Bedeutungsebene der in den Gedichten benannten sakralen und profanen Einzelbauten, aber auch der städtischen und dörflichen Ensembles sowie einzelner Gebäudeteile, verändert sich mehrfach im Laufe der Jahre. Ausgehend von traditionellen, paargereimten Jugendgedichten in jambischem Versmaß, in denen architektonische Elemente Teil einer Wahrnehmung bilden, die alles Außerästhetische ausblendet, wandelt sich der Sinngehalt der Sakral- und Profanbauten in Bobrowskis lyrischem Werk ein erstes Mal während den Kriegsjahren in Russland, die der Wehrmachtsangehörige am Ilmensee verbracht hat. In den damals entstandenen Oden zeugen die architektonischen Relikte von Leid, Tod und Zerstörung. Noch fehlt indessen der später so zentrale Gedanke der Schuld, der erst im Rückblick auf jene Zeit in den Gedichten, die nach der Rückkehr aus der Kriegsgefangenschaft bis zu Bobrowskis frühem Tod entstanden sind, thematisiert worden ist. Gegen Ende des Kriegs und in den Jahren der Kriegsgefangenschaft besinnt sich Bobrowski erneut auf Heimatthemen, und die Architektur in seinen Gedichten wird zu einem ästhetisch überhöhten Fluchtpunkt seiner Sehnsucht nach Ostpreußen und dem Memelgebiet. In Kriegsgefangenschaft tritt erstmals der Aspekt des Sublimen in seinen Gedichten auf, und zwar sowohl bezogen auf die Malerei als auch auf die Architektur. Dieser Gedanke wird einerseits nach der Rückkehr nach Berlin in den Gedichten über die Architektur gotischer Kathedralen und das bauliche Erbe des Klassizismus weitergesponnen, doch steht in den damals entstandenen Gedichten das Kulturerbe Europas auch für historisches Unrecht und eine schwere, weit zurückreichende Schuld. Von dieser auf den ganzen Kontinent bezogenen Kritik wendet sich Bobrowski in den nachfolgenden Jahren ab und konzentriert sich auf die Schuld der Deutschen gegenüber den Völkern Osteuropas. Damit erhält auch die Architektur in seinen Gedichten eine neue Bedeutung. Die Relikte der Ritterburgen des deutschen Ordens zeugen von der Herrschaft der mittelalterlichen Eroberer und verschmelzen dabei mit der Natur: Das Zeichenhafte der Architektur wird Teil der Landschaft. Im letzten Lebensjahrzehnt entstehen vermehrt Gedichte, die sich auf Parkanlagen und städtische Grünräume beziehen. Der Dichter hat sich nicht nur auf persönliche Erfahrungen, sondern mitunter auch auf Bildquellen abstützt, ohne dass er das Original je gesehen hätte. Nur schwer zugänglich sind die Gedichte über Chagall und Gauguin ohne die Erkenntnis, dass sie sich auf Bildvorlagen in schmalen, populärwissenschaftlichen Büchern beziehen, die Bobrowski jeweils kurz vor der Niederschrift der entsprechenden Gedichte erworben hat. Anders verhält es sich mit jenen russischen Kirchen, die Eingang in sein lyrisches Werk gefunden haben. Bobrowski hat sie alle selbst im Krieg gesehen, und die meisten scheinen noch heute zu bestehen und können mit einiger Sicherheit identifiziert werden, wozu auch die Briefe des Dichters aus jener Zeit beitragen. KW - Johannes Bobrwoski KW - Lyrik KW - Architektur und Kunst KW - Intermedialität KW - Johannes Bobrowski KW - lyric poetry KW - architecture and art KW - intermediality Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427113 SN - 978-3-86956-461-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bekeraitė, Simona T1 - Distribution functions of rotating galaxies T1 - Verteilungsfunktionen rotierender Galaxien BT - an Integral Field Spectroscopy perspective BT - eine Perspektive der Integrale-Feld-Spektroskopie N2 - The work done during the PhD studies has been focused on measurements of distribution functions of rotating galaxies using integral field spectroscopy observations. Throughout the main body of research presented here we have been using CALIFA (Calar Alto Legacy Integral Field Area) survey stellar velocity fields to obtain robust measurements of circular velocities for rotating galaxies of all morphological types. A crucial part of the work was enabled by well-defined CALIFA sample selection criteria: it enabled reconstructing sample-independent distributions of galaxy properties. In Chapter 2, we measure the distribution in absolute magnitude - circular velocity space for a well-defined sample of 199 rotating CALIFA galaxies using their stellar kinematics. Our aim in this analysis is to avoid subjective selection criteria and to take volume and large-scale structure factors into account. Using stellar velocity fields instead of gas emission line kinematics allows including rapidly rotating early type galaxies. Our initial sample contains 277 galaxies with available stellar velocity fields and growth curve r-band photometry. After rejecting 51 velocity fields that could not be modelled due to the low number of bins, foreground contamination or significant interaction we perform Markov Chain Monte Carlo (MCMC) modelling of the velocity fields, obtaining the rotation curve and kinematic parameters and their realistic uncertainties. We perform an extinction correction and calculate the circular velocity v_circ accounting for pressure support a given galaxy has. The resulting galaxy distribution on the M_r - v_circ plane is then modelled as a mixture of two distinct populations, allowing robust and reproducible rejection of outliers, a significant fraction of which are slow rotators. The selection effects are understood well enough that the incompleteness of the sample can be corrected and the 199 galaxies can be weighted by volume and large-scale structure factors enabling us to fit a volume-corrected Tully-Fisher relation (TFR). More importantly, we also provide the volume-corrected distribution of galaxies in the M_r - v_circ plane, which can be compared with cosmological simulations. The joint distribution of the luminosity and circular velocity space densities, representative over the range of -20 > M_r > -22 mag, can place more stringent constraints on the galaxy formation and evolution scenarios than linear TFR fit parameters or the luminosity function alone. In Chapter 3, we measure one of the marginal distributions of the M_r - v_circ distribution: the circular velocity function of rotating galaxies. The velocity function is a fundamental observable statistic of the galaxy population, being of a similar importance as the luminosity function, but much more difficult to measure. We present the first directly measured circular velocity function that is representative between 60 < v_circ < 320 km s^-1 for galaxies of all morphological types at a given rotation velocity. For the low mass galaxy population 60 < v_circ < 170 km s^-1, we use the HIPASS velocity function. For the massive galaxy population 170 < v_circ < 320 km s^-1, we use stellar circular velocities from CALIFA. The CALIFA velocity function includes homogeneous velocity measurements of both late and early-type rotation-supported galaxies. It has the crucial advantage of not missing gas-poor massive ellipticals that HI surveys are blind to. We show that both velocity functions can be combined in a seamless manner, as their ranges of validity overlap. The resulting observed velocity function is compared to velocity functions derived from cosmological simulations of the z = 0 galaxy population. We find that dark matter-only simulations show a strong mismatch with the observed VF. Hydrodynamic Illustris simulations fare better, but still do not fully reproduce observations. In Chapter 4, we present some other work done during the PhD studies, namely, a method that improves the precision of specific angular measurements by combining simultaneous Markov Chain Monte Carlo modelling of ionised gas 2D velocity fields and HI linewidths. To test the method we use a sample of 25 galaxies from the Sydney-AAO Multi-object Integral field (SAMI) survey that had matching ALFALFA HI linewidths. Such a method allows constraining the rotation curve both in the inner regions of a galaxy and in its outskirts, leading to increased precision of specific angular momentum measurements. It could be used to further constrain the observed relation between galaxy mass, specific angular momentum and morphology (Obreschkow & Glazebrook 2014). Mathematical and computational methods are presented in the appendices. N2 - Die Arbeit, die während dises Promotionsstudiums durchgeführt wurde, konzentrierte sich auf die Messungen von Verteilungsfunktionen rotierender Galaxien, unter Verwendung von integralen Feldspektroskopiebeobachtungen. Im Rahmen der hier vorgestellten Hauptforschung haben wir CALIFA (Calar Alto Legacy Integral Field Area) mit stellaren Geschwindigkeitsfeldern verwendet, um robuste Messungen von Kreisförmigen Geschwindigkeiten für rotierende Galaxien aller Morphologien zu erhalten. Der entscheidende Teil dieser Arbeit wurde durch wohl definierte CALIFA-Probenselektionskriterien ermöglicht: Es ermöglichte die Rekonstruktion von probenunabhängigen Verteilungen von Galaxieneigenschaften. In Kapitel 2 messen wir die Verteilung in absoluten Magnituden für eine wohldefinierte Stichprobe von 199 rotierenden CALIFA-Galaxien unter Berücksichtigung ihrer stellaren Kinematik. Die Selektionseffekte sind verstanden genug damit die Unvollständigkeit der Probe korrigiert werden kann und uns ermöglichen eine volumenkorrigierte Tully-Fisher-Relation (TFR) anzupassen. Noch wichtiger ist es, dass wir auch die volumenkorrigierte Verteilung von Galaxien in der Mr -vcirc Ebene bereitstellen, die mit kosmologischen Simulationen verglichen werden können. In Kapitel 3 messen wir die Kreisgeschwindigkeitsfunktion der rotierenden Galaxien. Die Geschwindigkeitsfunktion ist eine fundamentale, beobachtbare Messgröße der Galaxienpopulationen, welche von ähnlicher Bedeutung ist wie die Helligkeitsfunktion, aber viel schwerer zu messen ist. Wir präsentieren die erste direkt gemessene Kreisgeschwindigkeitsfunktion, die bei einer gegebenen Rotationsgeschwindigkeit zwischen 60 < vcirc < 320 km s ^-1 für Galaxien aller morphologischen Typen repräsentativ ist. Für die Galaxienpopulation mit niedrigen Massen verwenden wir die HIPASSGeschwindigkeitsfunktion. Für die massiven Galaxienpopulationen verwenden wir stellare Kreisgeschwindigkeiten von CALIFA. Die CALIFA-Geschwindigkeitsfunktion umfasst homogene Geschwindigkeitsmessungen sowohl der späten als auch der frühen Rotations-gestützten Galaxien. Wir zeigen, dass beide Geschwindigkeitsfunktionen nahtlos kombiniert werden können, da sich ihre Gültigkeitsbereiche überschneiden. Die resultierende beobachtete Geschwindigkeitsfunktion wird mit Geschwindigkeitsfunktionen verglichen, die von kosmologischen Simulationen bei lokale Galaxien abgeleitet sind. Wir finden, dass dunkle Materie-Simulationen und hydrodynamische Illustris Simulationen reproduzieren immer noch nicht vollständig die Beobachtungen. In Kapitel 4 stellen wir einige andere Arbeiten vor, die während der Promotion durchgeführt wurden. Mathematische und rechnerische Methoden werden in den Anhängen dargestellt. KW - galaxies: kinematics and dynamics KW - Galaxien: Kinematik und Dynamik KW - galaxies: statistics KW - galaxies: evolution KW - Galaxien: Statistiken KW - Galaxien: Evolution Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420950 ER - TY - THES A1 - de Souza Silveira, Raul T1 - Human substrate metabolism at upper oxidative capacities T1 - Substrat-Metabolismus bei oberen oxidativen Kapazitäten BT - how intensity and pre-exercise nutrition affect the oxidative regulation of carbohydrate and fat during metabolic targeted running BT - wie Intensität und Ernährung vor dem Sport die oxidative Regulierung von Kohlenhydraten und Fett auf metabolisch gezielte Laufeinheiten wirken N2 - Introduction: Carbohydrate (CHO) and fat are the main substrates to fuel prolonged endurance exercise, each having its oxidation patterns regulated by several factors such as intensity, duration and mode of the activity, dietary intake pattern, muscle glycogen concentrations, gender and training status. Exercising at intensities where fat oxidation rates are high has been shown to induce metabolic benefits in recreational and health-oriented sportsmen. The exercise intensity (Fatpeak) eliciting peak fat oxidation rates is therefore of particular interest when aiming to prescribe exercise for the purpose of fat oxidation and related metabolic effects. Although running and walking are feasible and popular among the target population, no reliable protocols are available to assess Fatpeak as well as its actual velocity (VPFO) during treadmill ergometry. Moreover, to date, it remains unclear how pre-exercise CHO availability modulates the oxidative regulation of substrates when exercise is conducted at the intensity where the individual anaerobic threshold (IAT) is located (VIAT). That is, a metabolic marker representing the upper border where constant load endurance exercise can be sustained, being commonly used to guide athletic training or in performance diagnostics. The research objectives of the current thesis were therefore, 1) to assess the reliability and day-to-day variability of VPFO and Fatpeak during treadmill ergometry running; 2) to assess the impact of high CHO (HC) vs. low CHO (LC) diets (where on the LC day a combination of low CHO diet and a glycogen depleting exercise was implemented) on the oxidative regulation of CHOs and fat while exercise is conducted at VIAT. Methods: Research objective 1: Sixteen recreational athletes (f=7, m=9; 25 ± 3 y; 1.76 ± 0.09 m; 68.3 ± 13.7 kg; 23.1 ± 2.9 kg/m²) performed 2 different running protocols on 3 different days with standardized nutrition the day before testing. At day 1, peak oxygen uptake (VO2peak) and the velocities at the aerobic threshold (VLT) and respiratory exchange ratio (RER) of 1.00 (VRER) were assessed. At days 2 and 3, subjects ran an identical submaximal incremental test (Fat-peak test) composed of a 10 min warm-up (70% VLT) followed by 5 stages of 6 min with equal increments (stage 1 = VLT, stage 5 = VRER). Breath-by-breath gas exchange data was measured continuously and used to determine fat oxidation rates. A third order polynomial function was used to identify VPFO and subsequently Fatpeak. The reproducibility and variability of variables was verified with an intraclass correlation coefficient (ICC), Pearson’s correlation coefficient, coefficient of variation (CV) and the mean differences (bias) ± 95% limits of agreement (LoA). Research objective 2: Sixteen recreational runners (m=8, f=8; 28 ± 3 y; 1.76 ± 0.09 m; 72 ± 13 kg; 23 ± 2 kg/m²) performed 3 different running protocols, each allocated on a different day. At day 1, a maximal stepwise incremental test was implemented to assess the IAT and VIAT. During days 2 and 3, participants ran a constant-pace bout (30 min) at VIAT that was combined with randomly assigned HC (7g/kg/d) or LC (3g/kg/d) diets for the 24 h before testing. Breath-by-breath gas exchange data was measured continuously and used to determine substrate oxidation. Dietary data and differences in substrate oxidation were analyzed with a paired t-test. A two-way ANOVA tested the diet X gender interaction (α = 0.05). Results: Research objective 1: ICC, Pearson’s correlation and CV for VPFO and Fatpeak were 0.98, 0.97, 5.0%; and 0.90, 0.81, 7.0%, respectively. Bias ± 95% LoA was -0.3 ± 0.9 km/h for VPFO and -2 ± 8% of VO2peak for Fatpeak. Research objective 2: Overall, the IAT and VIAT were 2.74 ± 0.39 mmol/l and 11.1 ± 1.4 km/h, respectively. CHO oxidation was 3.45 ± 0.08 and 2.90 ± 0.07 g/min during HC and LC bouts respectively (P < 0.05). Likewise, fat oxidation was 0.13 ± 0.03 and 0.36 ± 0.03 g/min (P < 0.05). Females had 14% (P < 0.05) and 12% (P > 0.05) greater fat oxidation compared to males during HC and LC bouts, respectively. Conclusions: Research objective 1: In summary, relative and absolute reliability indicators for VPFO and Fatpeak were found to be excellent. The observed LoA may now serve as a basis for future training prescriptions, although fat oxidation rates at prolonged exercise bouts at this intensity still need to be investigated. Research objective 2: Twenty-four hours of high CHO consumption results in concurrent higher CHO oxidation rates and overall utilization, whereas maintaining a low systemic CHO availability significantly increases the contribution of fat to the overall energy metabolism. The observed gender differences underline the necessity of individualized dietary planning before exerting at intensities associated with performance exercise. Ultimately, future research should establish how these findings can be extrapolated to training and competitive situations and with that provide trainers and nutritionists with improved data to derive training prescriptions. N2 - Einleitung: Kohlenhydrate (CHO) und Fett sind die bedeutendsten Energieträger bei anhaltender Ausdauerbelastung. Diese Substrate haben individuelle Oxidationsmuster, die von Intensität, Dauer und Art der Aktivität, sowie Nahrungszufuhr, Muskelglykogen-konzentration, Geschlecht und Trainingsstatus abhängen. Es ist bekannt, dass körperliche Aktivität unter hohen Fettverbrennungsraten, vorteilhafte metabolische Effekte bei freizeitaktiven und gesundheitsorientierten Sportlern hervorrufen. Die durch Belastungsintensität (Fatpeak) hervorgerufene höchste Fettoxidationsrate ist daher von besonderer Bedeutung für Empfehlungen von Fettverbrennungsaktivitäten und hierzu gehörigen metabolischen Effekten. Obgleich Joggen und Laufen als praktikabel und verbreitet in entsprechenden Zielgruppen angesehen wird, existieren keine reliablen Protokolle um Fatpeak und die hierzu spezifische Geschwindigkeit (VPFO) bei einer Laufbandergometrie zu bestimmen. Darüberhinaus, ist bis heute ungeklärt, inwiefern die Verfügbarkeit von CHO vor körperlicher Belastung, die oxidative Regulation von Substraten beeinflusst, wenn die Belastungsintensität bei der individuelle anaeroben Schwelle (IAT) durchgeführt wird (VIAT). Die IAT beschreibt hierbei einen metabolischen Schwellenwert, bis zu welchem eine konstante Ausdauerleistung aufrecht erhalten werden kann. Dieser Schwellenwert wird üblicherweise zur Trainingssteuerung oder Leistungsdiagnostik herangezogen. Die Forschungsziele der hier vorgelegten Thesis sind daher: 1) Die Überprüfung der Reliabilität und Variabilität von VPFO und Fatpeak während einer Laufbandergometrie; 2) Die Überprüfung des Einflusses von kohlenhydratreicher (HC) im Vergleich zu kohlenhydratarmer (LC) Nahrungszufuhr auf die Regulierung der Oxidation von Kohlenhydraten und Fetten während körperlicher Aktivität bei VIAT. Hierbei wurde am LC Tag eine Kombination von geringer CHO Zufuhr und einer Glykogen verarmenden Belastung implementiert. Methoden: Forschungsziel 1: Sechszehn Freizeitsportler (f=7, m=9; 25 ± 3 y; 1.76 ± 0.09 m; 68.3 ± 13.7 kg; 23.1 ± 2.9 kg/m²) durchliefen 2 verschiedene Laufprotokolle an drei verschiedenen Tagen unter standardisierter Nahrungszufuhr vor den Untersuchungen. Am Tag 1 wurden die höchste Sauerstoffaufnahme (VO2peak) und die Geschwindigkeiten bei der aeroben Schwelle (VLT), sowie beim respiratorische Quotient (RER) von 1.00 (VRER) erfasst. Am Tag 2 und 3 absolvierten die Probanden einen identischen submaximalen Stufentest (Fat-peak test), welcher aus einer 10 min Erwärmungsphase (70% VLT) gefolgt von 5 gleichmäßig ansteigenden Stufen à 6 min (Stufe 1 = VLT, Stufe 5 = VRER) bestand. Atemgasdaten wurden durch „Breath-by-breath“-Analyse kontinuierlich gemessen und herangezogen um Fettoxidationsraten zu bestimmen. Aus diesen Daten wurde über eine Polynomfunktion dritter Ordnung VPFO und folglich Fatpeak identifiziert. Die Reproduzierbarkeit und Variabilität dieser Parameter wurde mittels des Intraklassen-Korrelationskoeffizient (ICC), des Pearson’s Korrelationskoeffizient, des Variabilitätskoeffizient (CV) und der mittleren Differenz (bias) ± 95% „limits of agreement“ (LoA) überprüft. Forschungsziel 2: Sechzehn Freizeitläufer (m=8, f=8; 28 ± 3 y; 1.76 ± 0.09 m; 72 ± 13 kg; 23 ± 2 kg/m²) durchliefen 3 verschiedene Laufprotokolle an jeweils unterschiedlichen Tagen. Am Tag 1 wurde ein maximaler Stufentest durchgeführt, um die IAT und VIAT zu erfassen. Am zweiten und dritten Tag absolvierten die Probanden eine Laufeinheit (30 min) in konstanter Geschwindigkeit bei VIAT, unter Berücksichtigung einer 24 h zuvor durchgeführten und zufällig zugewiesenen Diät mit entweder HC (7g/kg/d) oder LC (3g/kg/d). „Breath-by-breath“-Atemgasdaten wurden kontinuierlich erfasst und für die Bestimmung der Substratoxidation herangezogen. Ernährungsdaten und Unterschiede in Substratoxidation wurden mittels t-test für abhängige Probanden analysiert. Interaktionseffekte zwischen Diät und Geschlecht wurden mittels einer Zwei-Wege ANOVA getestet (α = 0.05). Ergebnisse: Forschungsziel 1: ICC, Pearson’s Korrelationskoeffizient und CV von VPFO und Fatpeak waren 0.98, 0.97, 5.0%; und respektive 0.90, 0.81, 7.0%. Bias ± 95% LoA betrug -0.3 ± 0.9 km/h für VPFO und -2 ± 8% von VO2peak für Fatpeak. Forschungsziel 2: Insgesamt waren IAT 2.74 ± 0.39 mmol/l und VIAT 11.1 ± 1.4 km/h. CHO Oxidation war 3.45 ± 0.08 g/min während HC und respektive 2.90 ± 0.07 g/min während LC Laufeinheiten (P < 0.05). Gleichermaßen war Fettoxidation 0.13 ± 0.03 und 0.36 ± 0.03 g/min (P < 0.05). Frauen hatten im Vergleich zu Männern 14% (P < 0.05) und 12% (P > 0.05) größere Fettoxidation in HC und respektive LC Laufeinheiten. Schlussfolgerungen: Forschungsziel 1: Zusammenfassend wurde eine exzellente relative und absolute Reliabilität für VPFO und Fatpeak gezeigt. Die gefundenen LoA könnten als Basis für zukünftige Trainingssteuerungsempfehlungen genutzt werden, obwohl Fettoxidationsraten bei anhaltenden Ausdauertrainingseinheiten bei dieser Intensität noch untersucht werden müssen. Forschungsziel 2: Hohe CHO-Zufuhr 24 h vor Belastung führt zu einhergehenden höheren CHO-Oxidationsraten und -verwertung, wobei eine niedrige systemische CHO-Verfügbarkeit den Anteil an Fettoxidation im gesamten Energiemetabolismus signifikant erhöht. Die beobachteten Geschlechtsunterschiede unterstreichen die Notwendigkeit einer individualisierten Ernährungsplanung im Vorfeld einer Belastung unter leistungsorientierten Intensitäten. Schlussendlich sollte zukünftige Forschung feststellen, wie hiesige Ergebnisse in Training und Wettkampfsituationen umgesetzt werden können, um somit Trainern und Ernährungswissenschaftlern verbesserte Daten für Trainingsempfehlungen bereitzustellen. KW - fat oxidation KW - carbohydrate oxidation KW - individual anaerobic threshold KW - Fettoxidation KW - Kohlenhydratoxidation KW - individuelle anaerobe Schwelle Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423338 ER - TY - THES A1 - Peldszus, Andreas T1 - Automatic recognition of argumentation structure in short monological texts N2 - The aim of this thesis is to develop approaches to automatically recognise the structure of argumentation in short monological texts. This amounts to identifying the central claim of the text, supporting premises, possible objections, and counter-objections to these objections, and connecting them correspondingly to a structure that adequately describes the argumentation presented in the text. The first step towards such an automatic analysis of the structure of argumentation is to know how to represent it. We systematically review the literature on theories of discourse, as well as on theories of the structure of argumentation against a set of requirements and desiderata, and identify the theory of J. B. Freeman (1991, 2011) as a suitable candidate to represent argumentation structure. Based on this, a scheme is derived that is able to represent complex argumentative structures and can cope with various segmentation issues typically occurring in authentic text. In order to empirically test our scheme for reliability of annotation, we conduct several annotation experiments, the most important of which assesses the agreement in reconstructing argumentation structure. The results show that expert annotators produce very reliable annotations, while the results of non-expert annotators highly depend on their training in and commitment to the task. We then introduce the 'microtext' corpus, a collection of short argumentative texts. We report on the creation, translation, and annotation of it and provide a variety of statistics. It is the first parallel corpus (with a German and English version) annotated with argumentation structure, and -- thanks to the work of our colleagues -- also the first annotated according to multiple theories of (global) discourse structure. The corpus is then used to develop and evaluate approaches to automatically predict argumentation structures in a series of six studies: The first two of them focus on learning local models for different aspects of argumentation structure. In the third study, we develop the main approach proposed in this thesis for predicting globally optimal argumentation structures: the 'evidence graph' model. This model is then systematically compared to other approaches in the fourth study, and achieves state-of-the-art results on the microtext corpus. The remaining two studies aim to demonstrate the versatility and elegance of the proposed approach by predicting argumentation structures of different granularity from text, and finally by using it to translate rhetorical structure representations into argumentation structures. N2 - Ziel dieser Arbeit ist die Entwicklung von Methoden zur automatischen Erkennung der Argumentationsstruktur in kurzen, monologischen Texten. Dies umfasst einerseits, die zentrale These des Textes, stützende Prämissen, mögliche Einwände und Widersprüche gegen diese zu identifizieren. Andererseits gilt es, diese Elemente in einer Gesamtstruktur zu verbinden, die die im Text vorgebrachte Argumentation angemessen beschreibt. Hierzu muss zuerst eine geeignete Darstellung der Argumentationsstruktur gefunden werden. Anhand einer Reihe von Anforderungen wird die Literatur zu Theorien der Diskurs- sowie der Argumentationsstruktur systematisch ausgewertet. Die Theorie von J. B. Freeman (1991, 2011) erweist sich hierbei als geeigneter Kandidat zur Repräsentation von Argumentationsstruktur. Darauf aufbauend wird ein Annotationsschema abgeleitet, welches auch komplexe Strukturen klar darstellen und mit verschiedenen, für authentischen Text typischen Segmentierungsproblemen umgehen kann. Um das Schema hinsichtlich der Zuverlässigkeit der Annotation empirisch zu testen, werden mehrere Annotationsexperimente durchgeführt, von denen das wichtigste die Übereinstimmung bei der Rekonstruktion der Argumentationsstruktur erfasst. Die Ergebnisse zeigen, dass Fachexperten sehr verlässlich annotieren, während die Ergebnisse von Nicht-Experten in hohem Maße vom Training und ihrem Engagement für die Aufgabe abhängen. Schließlich wird das "microtext"-Korpus vorgestellt, eine Sammlung kurzer argumentativer Texte. Die Erstellung, Übersetzung und Annotation wird beschrieben, die Strukturen statistisch ausgewertet. Es handelt sich um das erste mit Argumentationsstrukturen annotierte Parallelkorpus (in Deutsch und Englisch) und -- dank der Arbeit unserer Kollegen -- auch um das erste, das mit verschiedenartigen Diskursstrukturen annotiert wurde. In einer Reihe von sechs Studien werden dann Methoden zur automatischen Erkennung von Argumentationsstrukturen entwickelt und am Korpus erprobt: Die ersten beiden konzentrieren sich auf das Lernen lokaler Modelle für einzelne Aspekte der Argumentationsstruktur. In der dritten Studie wird der in dieser Dissertation vorgeschlagene Ansatz entwickelt: das "Evidenzgraph"-Modell, mit dem global optimale Argumentationsstrukturen erkannt werden können. Dieses wird dann in der vierten Studie systematisch mit anderen Ansätzen verglichen und erzielt beste Ergebnisse auf dem microtext-Korpus. Die verbleibenden zwei Studien zielen darauf ab, die Vielseitigkeit und Eleganz des Ansatzes zu demonstrieren, z.B. bei der Ableitung von Argumentationsstrukturen unterschiedlicher Granularität oder bei der Übersetzung rhetorischer Strukturen in Argumentationsstrukturen. T2 - Automatische Erkennung der Argumentationsstruktur in kurzen monologischen Texten KW - argumentation KW - argumentation structure KW - discourse structure KW - argument mining KW - argumentation mining KW - argumentation structure parsing KW - discourse parsing KW - annotation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421441 ER - TY - THES A1 - Lubitz, Christin T1 - Investigating local surface displacements associated with anthropogenic activities by satellite radar interferometry T1 - Untersuchung lokaler Verschiebungen der Erdoberfläche im Zusammenhang mit anthropogenen Aktivitäten durch satellitengestützte Radarinterferometrie BT - application to Staufen im Breisgau and Ketzin BT - Anwendung für Staufen im Breisgau und Ketzin N2 - Direct anthropogenic influences on the Earth’s subsurface during drilling, extraction or injection activities, can affect land stability by causing subsidence, uplifts or lateral displacements. They can occur in localized as well as in uninhabited and inhabited regions. Thus the associated risks for humans, infrastructure, and environment must be minimized. To achieve this, appropriate surveillance methods must be found that can be used for simultaneous monitoring during such activities. Multi-temporal synthetic aperture radar interferometry (MT-InSAR) methods like the Persistent Scatterer Interferometry (PSI) and the Small BAseline Subsets (SBAS) have been developed as standard approaches for satellite-based surface displacement monitoring. With increasing spatial resolution and availability of SAR sensors in recent years, MT-InSAR can be valuable for the detection and mapping of even the smallest man-made displacements. This doctoral thesis aims at investigating the capacities of the mentioned standard methods for this purpose, and comprises three main objectives against the backdrop of a user-friendly surveillance service: (1) the spatial and temporal significance assessment against leveling, (2) the suitability evaluation of PSI and SBAS under different conditions, and (3) the analysis of the link between surface motion and subsurface processes. Two prominent case studies on anthropogenic induced subsurface processes in Germany serve as the basis for this goal. The first is the distinct urban uplift with severe damages at Staufen im Breisgau that has been associated since 2007 with a failure to implement a shallow geothermal energy supply for an individual building. The second case study considers the pilot project of geological carbon dioxide (CO2) storage at Ketzin, and comprises borehole drilling and fluid injection of more than 67 kt CO2 between 2008 and 2013. Leveling surveys at Staufen and comprehensive background knowledge of the underground processes gained from different kinds of in-situ measurements at both locations deliver a suitable basis for this comparative study and the above stated objectives. The differences in location setting, i.e. urban versus rural site character, were intended to investigate the limitations in the applicability of PSI and SBAS. For the MT-InSAR analysis, X-band images from the German TerraSAR-X and TanDEM-X satellites were acquired in the standard Stripmap mode with about 3 m spatial resolution in azimuth and range direction. Data acquisition lasted over a period of five years for Staufen (2008-2013), and four years for Ketzin (2009-2013). For the first approximation of the subsurface source, an inversion of the InSAR outcome in Staufen was applied. The modeled uplift based on complex hydromechanical simulations and a correlation analysis with bottomhole pressure data were used for comparison with MT-InSAR measurements at Ketzin. In response to the defined objectives of this thesis, a higher level of detail can be achieved in mapping surface displacements without in-situ effort by using MT-InSAR in comparison to leveling (1). A clear delineation of the elliptical shaped uplift border and its magnitudes at different parts was possible at Staufen, with the exception of a vegetated area in the northwest. Vegetation coverage and the associated temporal signal decorrelation are the main limitations of MT-InSAR as clearly demonstrated at the Ketzin test site. They result in insufficient measurement point density and unwrapping issues. Therefore, spatial resolutions of one meter or better are recommended to achieve an adequate point density for local displacement analysis and to apply signal noise reduction. Leveling measurements can provide a complementary data source here, but require much effort pertaining to personnel even at the local scale. Horizontal motions could be identified at Staufen by only comparing the temporal evolution of the 1D line of sight (LOS) InSAR measurements with the available leveling data. An exception was the independent LOS decomposition using ascending and descending data sets for the period 2012-2013. The full 3D displacement field representation failed due to insufficient orbit-related, north-south sensitivity of the satellite-based measurements. By using the dense temporal mapping capabilities of the TerraSAR-X/TanDEM-X satellites after every 11 days, the temporal displacement evolution could be captured as good as that with leveling. With respect to the tested methods and in the view of generality, SBAS should be preferred over PSI (2). SBAS delivered a higher point density, and was therefore less affected by phase unwrapping issues in both case studies. Linking surface motions with subsurface processes is possible when considering simplified geophysical models (3), but it still requires intensive research to gain a deep understanding. N2 - Die Stabilität der oberen Gesteinsschichten kann durch anthropogene Aktivitäten, wie Bohrungen, Gas- oder Fluidextraktionen, beziehungsweise –injektionen, so beeinflusst werden, dass Oberflächenhebungen, Senkungen und seitliche Lageverschiebungen auftreten können. Diese Bewegungen können lokal begrenzt sein, in bewohnten als auch unbewohnten Gebieten in Erscheinung treten und ein Risiko für Mensch, Umwelt und Infrastruktur darstellen. Die Einschätzung und Überwachung dieser Risiken kann lokal durch geophysikalische und geodätische Verfahren erfolgen, und mittels fernerkundlichen Analysen in einen räumlich zeitlichen Zusammenhang gebracht werden. Methoden der Synthetischen Apertur Radar Interferometrie (MT-InSAR) wie die Persistent Scatterer Interferometry (PSI) oder das Small BAseline Subsets (SBAS) Verfahren haben sich als Standardanwendung für die satellitengestützte Messung von Oberflächenverschiebungen etabliert. Immer hochauflösendere Systeme sowie die Zunahme an zur Verfügung stehenden Sensoren in den letzten Jahren erlauben das Aufspüren und Kartieren von kleinsten menschengemachten Bewegungen der oberen Gesteinsschichten mittels MT-InSAR. Ziel dieser Doktorarbeit ist die Untersuchung der oben genannten Standardmethoden hinsichtlich ihrer Eignung zur räumlich zeitlichen Analyse von lokalen Bewegungen. Vor dem Hintergrund einer nutzerfreundlichen Anwendung werden dabei drei Punkte eingehend betrachtet: (1) die Bewertung der raum-zeitlichen Signifikanz gegenüber dem Nivellement, (2) die Eignungsbeurteilung beider Methoden unter verschiedenen Bedingungen und (3) die Analyse der Verknüpfbarkeit von Oberflächenbewegungen und Untergrundprozessen. Als Grundlage für diese Untersuchung dienen zwei bekannte Bohrprojekte in Deutschland. Das erste ist ein fehlgeschlagenes Projekt zur geothermalen Energieversorgung eines einzelnen Gebäudes in Staufen im Breisgau im Jahr 2007. Damit in Verbindung steht eine ausgeprägte innerstädtische Hebung mit ernsten Schäden an der Wohnbebauung. Das zweite ist ein Pilotprojekt zur geologischen Speicherung von Kohlenstoffdioxid (CO2) in Ketzin, welches Bohrungen und Fluidinjektionen von mehr als 67 kt CO2 zwischen 2008 und 2013 umfasst. Die Nivellement-Messungen in Staufen sowie das umfangreiche Hintergrundwissen durch verschiedene in-situ Messungen zu den Untergrundprozessen an beiden Standorten bieten eine solide Grundlage für diese vergleichende Studie und ihre Ziele. Da beide Standorte sich stark unterscheiden, insbesondere hinsichtlich ihres städtischen beziehungsweise ländlichen Charakters, erlauben diese Fallstudien eine Untersuchungen der Grenzen in der Anwendbarkeit von den Methoden PSI und SBAS. Für die Untersuchung wurden Bilddaten im X-Band von den deutschen Satelliten TerraSAR-X und TanDEM-X im Standardmodus Stripmap mit etwa 3m Azimut- und Entfernungsauflösung aufgenommen. Die Datenakquise für Staufen umfasste fünf Jahre (2008-2013) und für Ketzin vier Jahre (2009-2013). In Staufen wurde durch eine Inversion der InSAR-Resultate eine erste Näherung zur Lokalisierung einer Volumenexpansion im Untergrund erzielt, welche ursächlich für die an der Oberfläche beobachteten Hebungen ist. Für das Ketzin-Projekt wurden komplexe hydromechanische Simulationen durchgeführt und darauf basierende modellierte Hebungen zum Vergleich mit den MT-InSAR-Messungen herangezogen. Zusätzlich erfolgte eine vergleichende Korrelationsanalyse mit den Druckdaten aus der Injektionsbohrung. In dieser Arbeit konnte gezeigt werden, dass Im Vergleich zu den gängigen Nivellement-Messungen ein deutlich höherer Detailgrad in der Kartierung der Oberflächenbewegungen durch das fernerkundliche MT-InSAR Verfahren erlangt werden konnte (1). Die klare Abgrenzung des elliptischen Hebungsfeldes in Staufen sowie seiner variierenden Magnituden an verschiedenen Positionen konnte deutlich gezeigt werden, mit Ausnahme einer Vegetationsfläche im nordwestlichen Abschnitt. Die Fallstudie zu Ketzin demonstriert ebenfalls die methodischen Einschränkungen bei MT-InSAR durch Vegetation und den damit einhergehenden Signalverlusten. Als Folge traten eine unzureichende Messpunktdichte und Probleme in der Phasenabwicklung auf. Eine räumliche Auflösungen von einem Meter oder besser würde die Wahrscheinlichkeit einer geeigneten Punktdichte erhöhen. Außerdem ermöglicht sie die Anwendung passender Methoden zur Rauschreduzierung des Signals unter geringen Verlusten in der räumlichen Auflösung. Dennoch zeigte sich, dass Nivellement-Kampagnen als ergänzende Datenquelle wertvolle Informationen liefern, auch wenn diese einen hohen Arbeitsaufwand selbst für lokale Ereignisse erfordern. Die Identifizierung von Horizontalbewegungen in Staufen war nur durch den Vergleich des zeitlichen Hebungsverlaufes von Nivellement- und den 1D InSAR-Resultaten festellbar. Eine Ausnahme bildete die davon unabhängige Verschneidung zweier Datensätze von je einem aufsteigenden und absteigenden Orbit für den Zeitraum 2012-2013. Die Darstellung eines kompletten, satellitengestützten 3D-Bewegungsfeldes scheitert an der ungenügenden, umlaufbahnbedingten Sensitivität in Nord-Süd-Richtung. Die zeitlich dichte Kartierung durch TerraSAR-X und TanDEM-X alle 11 Tage ermöglicht eine ebenso detaillierte zeitliche Erfassung der Entwicklung wie mittels Nivellement. Die Untersuchungen an beiden Standorten haben gezeigt, dass das SBAS-Verfahren im Allgemeinen nützlichere Ergebnisse liefert, als das PSI-Verfahren (2). Das SBAS-Verfahren lieferte die höhere Punktdichte und zeigte aufgrund dessen weniger Probleme bei der Phasenabwicklung. Die Verknüpfung von Bewegungen in den oberen Gesteinsschichten mit deren ursächlichen Untergrundprozessen ist unter Einbeziehung vereinfachter geophysikalischer Modelle möglich (3), verlangt aber noch weiterführende Analysen für ein tieferes Verständnis. KW - synthetic aperture radar interferometry KW - time series investigation KW - monitoring of anthropogenic activities KW - Staufen im Breisgau KW - Ketzin KW - Radarinterferometrie mit synthetischer Apertur KW - Zeitreihenuntersuchung KW - Beobachtung anthropogener Aktivitäten KW - Staufen im Breisgau KW - Ketzin Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416001 ER - TY - THES A1 - Schiprowski, Amelie T1 - Four empirical essays on the economics of job search T1 - Vier Empirische Studien zum Arbeitssuchverhalten N2 - Modern welfare states aim at designing unemployment insurance (UI) schemes which minimize the length of unemployment spells. A variety of institutions and incentives, which are embedded in UI schemes across OECD countries, reflect this attempt. For instance, job seekers entering UI are often provided with personal support through a caseworker. They also face the requirement to regularly submit a minimum number of job applications, which is typically enforced through benefit cuts in the case of non-compliance. Moreover, job seekers may systematically receive information on their re-employment prospects. As a consequence, UI design has become a complex task. Policy makers need to define not only the amount and duration of benefit payments, but also several other choice parameters. These include the intensity and quality of personal support through caseworkers, the level of job search requirements, the strictness of enforcement, and the information provided to unemployed individuals. Causal estimates on how these parameters affect re-employment outcomes are thus central inputs to the design of modern UI systems: how much do individual caseworkers influence the transition out of unemployment? Does the requirement of an additional job application translate into increased job finding? Do individuals behave differently when facing a strict versus mild enforcement system? And how does information on re-employment prospects influence the job search decision? This dissertation proposes four novel research designs to answer this question. Chapters one to three elaborate quasi-experimental identification strategies, which are applied to large-scale administrative data from Switzerland. They, respectively, measure how personal interactions with caseworkers (chapter one), the level of job search requirements (chapter two) and the strictness of enforcement (chapter three) affect re-employment outcomes. Chapter four proposes a structural estimation approach, based on linked survey and administrative data from Germany. It studies how over-optimism on future wage offers affects the decision to search for work, and how the provision of information changes this decision. N2 - In modernen Wohlfahrtsstaaten dient die Arbeitslosenversicherung zwei primären Zielen: Zum einen sollen Einkommensverluste abgefedert werden, die durch die Arbeitslosigkeit entstehen. Zum anderen soll die Re-integration in den Arbeitsmarkt mithilfe verschiedener Instrumente unterstützt werden. Die vorliegende Dissertation beschäftigt sich mit der Wirkung dieser Instrumente. Sie entwickelt vier Forschungsdesigns, um den kausalen Effekt verschiedener Anreize und Institutionen zu messen, die zahlreiche OECD-Länder in ihre Arbeitslosenversicherung integriert haben: Kapitel eins analysiert, wie die Anzahl und Qualität persönlicher Gespräche mit einem Fallberater die Dauer der Arbeitslosigkeit beeinflusst. Kapitel zwei misst den Effekt von Bewerbungen, die durch Suchvorgaben seitens der Arbeitslosenversicherung erwirkt werden. In Kapitel drei wird die Stringenz evaluiert, mit dem die Einhaltung der Vorgaben durchgesetzt werden. Schließlich untersucht Kapitel vier, wie Informationen über zukünftige Lohnperspektiven zu unterschiedlichen Zeitpunkten in der Arbeitslosigkeit wirken. Kapitel eins bis drei beruhen auf quasi-experimentellen Forschungsdesigns, wohingegen Kapitel vier einen strukturellen Schätzansatz verfolgt. Im Folgenden werden die vier Kapitel zusammengefasst und ihre Implikationen für die Gestaltung von Arbeitslosenversicherungssystemen sowie für weitere Politikfelder diskutiert. KW - unemployment insurance KW - job search KW - Arbeitslosenversicherung KW - Arbeitssuche KW - microeconometric analyses KW - mikrökonometrische Analysen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413508 ER - TY - THES A1 - Schuster, Isabell T1 - Prevalence and Predictors of Sexual Aggression Victimization and Perpetration in Chile and Turkey T1 - Prävalenz und Prädiktoren sexueller Viktimisierung und Ausübung sexueller Aggression in Chile und der Türkei BT - A Cross-Cultural Analysis BT - Eine kulturübergreifende Analyse N2 - Background: Although sexual aggression is recognized as a serious issue worldwide, the current knowledge base is primarily built on evidence from Western countries, particularly the U.S. For the present doctoral research, Chile and Turkey were selected based on theoretical considerations to examine the prevalence as well as predictors of sexual aggression victimization and perpetration. The first aim of this research project was to systematically review the available evidence provided by past studies on this topic within each country. The second aim was to empirically study the prevalence of experiencing and engaging in sexual aggression since the age of consent among college students in Chile and Turkey. The third aim was to conduct cross-cultural analyses examining pathways to victimization and perpetration based on a two-wave longitudinal design. Methods: This research adopted a gender-inclusive approach by considering men and women in both victim and perpetrator roles. For the systematic reviews, multiple-stage literature searches were performed, and based on a predefined set of eligibility criteria, 28 studies in Chile and 56 studies in Turkey were identified for inclusion. A two-wave longitudinal study was conducted to examine the prevalence and predictors of sexual aggression among male and female college students in Chile and Turkey. Self-reports of victimization and perpetration were assessed with a Chilean Spanish or Turkish version of the Sexual Aggression and Victimization Scale. Two path models were conceptualized in which participants’ risky sexual scripts for consensual sex, risky sexual behavior, sexual self-esteem, sexual assertiveness, and religiosity were assessed at T1 and used as predictors of sexual aggression victimization and perpetration at T2 in the following 12 months, mediated through past victimization or perpetration, respectively. The models differed in that sexual assertiveness was expected to serve different functions for victimization (refusal assertiveness negatively linked to victimization) and perpetration (initiation assertiveness positively linked to perpetration). Results: Both systematic reviews revealed that victimization was addressed by all included studies, but data on perpetration was severely limited. A great heterogeneity not only in victimization rates but also in predictors was found, which may be attributed to a lack of conceptual and methodological consistency across studies. The empirical analysis of the prevalence of sexual aggression in Chile revealed a victimization rate of 51.9% for women and 48.0% for men, and a perpetration rate of 26.8% for men and 16.5% for women. In the Turkish original data, victimization was reported by 77.6% of women and 65.5% of men, whereas, again, lower rates were found for perpetration, with 28.9% of men and 14.2% of women reporting at least one incident. The cross-cultural analyses showed, as expected, that risky sexual scripts informed risky sexual behavior, and thereby indirectly increased the likelihood of victimization and perpetration at T2 in both samples. More risky sexual scripts were also linked to lower levels of refusal assertiveness in both samples, indirectly increasing the vulnerability to victimization at T2. High sexual self-esteem decreased the probability of victimization at T2 through higher refusal assertiveness as well as through less risky sexual behavior also in both samples, whereas it increased the odds of perpetration at T2 via higher initiation assertiveness in the Turkish sample only. Furthermore, high religiosity decreased the odds of perpetration and victimization at T2 through less risky sexual scripts and less risky sexual behavior in both samples. It reduced the vulnerability to victimization through less risky sexual scripts and higher refusal assertiveness in the Chilean sample only. In the Turkish sample only, it increased the odds of perpetration and victimization through lower sexual self-esteem. Conclusions: The findings showed that sexual aggression is a widespread problem in both Chile and Turkey, contributing cross-cultural evidence to the international knowledge base and indicating the clear need for implementing policy measures and prevention strategies in each country. Based on the results of the prospective analyses, concrete implications for intervention efforts are discussed. N2 - Hintergrund: Obwohl sexuelle Aggression als ein ernstzunehmendes Problem weltweit angesehen wird, stützt sich die gegenwärtige Datenlage in erster Linie auf Evidenz westlicher Staaten. Für die vorliegende Arbeit wurden die Länder Chile und Türkei anhand theoretischer Überlegungen ausgewählt, um sowohl die Prävalenz als auch Prädiktoren sexueller Aggression zu untersuchen. Das erste Ziel bestand darin, die Ergebnisse früherer Studien zu sexueller Aggression in jedem Land systematisch zu betrachten. Das zweite Ziel war, die Prävalenz von Viktimisierung und Ausübung sexueller Aggression seit dem Schutzalter unter Studierenden in Chile und der Türkei empirisch zu untersuchen. Das dritte Ziel war schließlich die Durchführung von interkulturellen Analysen, um Pfade zu Viktimisierung und Ausübung anhand eines längsschnittlichen Designs zu überprüfen. Methode: Es wurde ein geschlechterinklusiver Ansatz verfolgt, wobei Männer und Frauen sowohl als potentielle Opfer als auch Täter*innen betrachtet wurden. Für die systematischen Reviews wurden mehrstufige Literaturrecherchen durchgeführt. Basierend auf einem vordefinierten Satz an Auswahlkriterien wurden insgesamt 28 Studien für Chile und 56 Studien für die Türkei identifiziert. Weiterhin wurde eine Längsschnittstudie mit zwei Messzeitpunkten durchgeführt, um sowohl die Prävalenz als auch Prädiktoren sexueller Aggression unter Studierenden in Chile und der Türkei zu untersuchen. Selbstberichte über Viktimisierung und Ausübung sexueller Aggression wurden mittels einer spanischen bzw. türkischen Version der Sexual Aggression and Victimization Scale erhoben. Zwei Pfadmodelle wurden konzipiert, in denen riskante Skripts für konsensuelle Sexualkontakte, riskantes Sexualverhalten, sexuelles Selbstwertgefühl, sexuelle Assertivität und Religiosität zu T1 erfasst wurden und als Prädiktoren für Viktimisierung und Ausübung sexueller Aggression in den folgenden 12 Monaten (T2) verwendet wurden, jeweils mediiert durch vergangene Viktimisierung bzw. Ausübung sexueller Aggression. Die Modelle unterschieden sich darin, dass für sexuelle Assertivität unterschiedliche Funktionen für Viktimisierung (Ablehnungsassertivität negativ mit Viktimisierung assoziiert) und Ausübung sexueller Aggression (Initiierungsassertivität positiv mit Ausübung assoziiert) angenommen wurden. Ergebnisse: Die beiden Reviews zeigten, dass Viktimisierung von allen berücksichtigten Studien untersucht wurde, wohingegen kaum Daten zur Ausübung von sexueller Aggression vorlagen. Eine große Heterogenität wurde bei den Viktimisierungsraten, aber auch bei den Prädiktoren festgestellt, was vor allem auf mangelnde konzeptionelle und methodische Konsistenz zwischen den Studien zurückgeführt werden kann. In Bezug auf die Originaldaten zur Prävalenz in Chile zeigte sich, dass 51.9% der Frauen und 48.0% der Männer Viktimisierung angaben. Die Prävalenzraten zur Ausübung lagen bei 26.8% unter Männern und 16.5% unter Frauen. In den türkischen Originaldaten wurde Viktimisierung von 77.6% der Frauen und 65.5% der Männer berichtet. Niedigere Raten wurden erneut für die Ausübung gefunden: 28.9% der Männer und 14.2% der Frauen in der Türkei gaben mindestens einen sexuell aggressiven Übergriff an. Die interkulturellen Analysen zeigten, dass riskante sexuelle Skripts mit einem riskanteren Sexualverhalten assoziiert waren und dadurch indirekt die Wahrscheinlichkeit von Viktimisierung und Ausübung zu T2 in beiden Stichproben erhöhten. Riskantere sexuelle Skripts waren weiterhin mit einer geringeren Ablehnungsassertivität in beiden Stichproben assoziiert, was die Vulnerabilität für Viktimisierung zu T2 indirekt erhöhte. Höheres sexuelles Selbstwertgefühl verringerte die Wahrscheinlichkeit sexueller Viktimisierung zu T2 durch eine höhere Ablehnungsassertivität sowie durch weniger riskantes Sexualverhalten in beiden Stichproben, wohingegen die Wahrscheinlichkeit für Ausübung zu T2 durch eine höhere Initiierungsassertivität größer wurde, allerdings nur in der türkischen Stichprobe. Darüber hinaus verminderte höhere Religiosität die Wahrscheinlichkeit von Viktimisierung und Ausübung zu T2 über weniger riskante sexuelle Skripts und weniger riskantes Sexualverhalten in beiden Stichproben. In der chilenischen Stichprobe wurde die Vulnerabilität für Viktimisierung durch weniger riskante sexuelle Skripts und höhere Ablehnungsassertivität verringert. Hingegen erhöhte sich in der türkischen Stichprobe die Wahrscheinlichkeit für Viktimisierung und Ausübung durch ein niedrigeres sexuelles Selbstwertgefühl. Konklusion: Die Ergebnisse zeigen, dass sexuelle Aggression sowohl in Chile als auch in der Türkei ein weit verbreitetes Problem darstellt. Sie bereichern die internationale Wissensbasis mit interkultureller Evidenz und weisen auf die Notwendigkeit hin, politische Maßnahmen und Präventionsstrategien zu implementieren. Basierend auf den Ergebnissen der prospektiven Analysen werden konkrete Implikationen für Interventionsstrategien diskutiert. KW - Sexual Aggression KW - Prevalence KW - Risk and Vulnerability Factors KW - Chile KW - Turkey KW - Sexuelle Aggression KW - Prävalenz KW - Risiko- und Vulnerabilitätsfaktoren KW - Chile KW - Türkei Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413897 ER - TY - THES A1 - Grimm-Seyfarth, Annegret T1 - Effects of climate change on a reptile community in arid Australia T1 - Auswirkungen von Klimawandel auf eine Reptiliengemeinschaft im ariden Australien BT - exploring mechanisms and processes in a hot, dry, and mysterious ecosystem BT - eine Untersuchung von Mechanismen und Prozessen in einem heißen, trockenen, und rätselhaften Ökosystem N2 - Dies ist eine kumulative Dissertation, die drei Originalstudien umfasst (eine publiziert, eine in Revision, eine eingereicht; Stand Dezember 2017). Sie untersucht, wie Reptilienarten im ariden Australien auf verschiedene klimatische Parameter verschiedener räumlicher Skalen reagieren und analysiert dabei zwei mögliche zugrunde liegende Hauptmechanismen: Thermoregulatorisches Verhalten und zwischenartliche Wechselwirkungen. In dieser Dissertation wurden umfassende, individuenbasierte Felddaten verschiedener trophischer Ebenen kombiniert mit ausgewählten Feldexperimenten, statistischen Analysen, und Vorhersagemodellen. Die hier erkannten Mechanismen und Prozesse können nun genutzt werden, um mögliche Veränderungen der ariden Reptiliengesellschaft in der Zukunft vorherzusagen. Dieses Wissen wird dazu beitragen, dass unser Grundverständnis über die Konsequenzen des globalen Wandels verbessert und Biodiversitätsverlust in diesem anfälligen Ökosystem verhindert wird. N2 - This is a cumulative dissertation comprising three original studies (one published, one in revision, one submitted; Effective December 2017) investigating how reptile species in arid Australia respond to various climatic parameters at different spatial scales and analysing the two potential main underlying mechanisms: thermoregulatory behaviour and species interactions. This dissertation combines extensive individual-based field data across trophic levels, selected field experiments, statistical analyses, and predictive modelling techniques. Mechanisms and processes detected in this dissertation can now be used to predict potential future changes in the community of arid-zone lizards. This knowledge will help improving our fundamental understanding of the consequences of global change and thereby prevent biodiversity loss in a vulnerable ecosystem. KW - Australien KW - Reptilien KW - Australia KW - reptiles KW - Populationsökologie KW - population ecology KW - Thermoregulationsverhalten KW - thermoregulatory behaviour KW - interspezifische Wechselwirkungen KW - interspecific interactions KW - Vorhersagemodelle KW - predictive modelling KW - Klimawandel KW - climate change KW - Wüste KW - desert Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412655 ER - TY - THES A1 - Leupelt, Anke Verena T1 - Hormonelle Körpergewichtsregulation nach Gewichtsreduktion im Rahmen der multimodalen randomisierten Interventionsstudie MAINTAIN T1 - Hormonal Regulation of Weight Maintenance: Results of a randomized controlled trial analyzing the effects of a lifestyle intervention on weight maintenance in adults N2 - Adipositas wird mit einer Vielzahl schwerwiegender Folgeerkrankungen in Verbindung gebracht. Eine Gewichtsreduktion führt zu einer Verbesserung der metabolischen Folgen der Adipositas. Es ist bekannt, dass die Mehrzahl der adipösen Personen in den Monaten nach der Gewichtsreduktion einen Großteil des abgenommenen Gewichts wieder zunimmt. Nichtsdestotrotz existiert eine hohe Variabilität hinsichtlich des Langzeiterfolges einer Gewichtsreduktion. Der erfolgreiche Erhalt des reduzierten Körpergewichts einiger Personen führt zu der Frage nach den Faktoren, die einen Gewichtserhalt beeinflussen, mit dem Ziel einen Ansatzpunkt für mögliche Therapiestrategien zu identifizieren. In der vorliegenden Arbeit wurde im Rahmen einer kontrollierten, randomisierten Studie mit 143 übergewichtigen Probanden untersucht, ob nach einer dreimonatigen Gewichtsreduktion eine zwölfmonatige gewichtsstabilisierende Lebensstilintervention einen Einfluss auf die Veränderungen der neuroendokrinen Regelkreisläufe und damit auf den langfristigen Gewichtserhalt über einen Zeitraum von achtzehn Monaten hat. Hierbei wurde im Vergleich der beiden Behandlungsgruppen primär festgestellt, dass die multimodale Lebensstilintervention zu einer Gewichtstabilisierung über die Dauer dieser zwölfmonatigen Behandlungsphase führte. In der Kontrollgruppe kam es zu einer moderaten Gewichtszunahme . Dadurch war nach Beendigung der Interventionsphase der BMI der Teilnehmer in der Kontrollgruppe höher als der in der Interventionsgruppe (34,1±6,0 kg*m-2 vs. 32,4±5,7 kg*m-2; p<0,01). Während der Nachbeobachtungszeit war die Interventionsgruppe durch eine signifikant stärkere Gewichtswiederzunahme im Vergleich zur Kontrollgruppe gekennzeichnet, so dass der BMI zwischen beiden Behandlungsgruppen bereits sechs Monate nach der Intervention keinen Unterschied mehr aufwies. Bezüglich der hormonellen Veränderung durch die Gewichtsreduktion wurde, wie erwartet, eine Auslenkung des endokrinen Systems beobachtet. Jedoch konnte kein Unterschied der untersuchten Hormone im Vergleich der beiden Behandlungsgruppen ausfindig gemacht werden. Im Verlauf der Gewichtsabnahme und der anschließenden Studienphasen zeigten sich tendenziell drei verschiedene Verlaufsmuster in den hormonellen Veränderungen. Nach einer zusätzlichen Adjustierung auf den jeweiligen BMI des Untersuchungszeitpunktes konnte für die TSH-Spiegel (p<0,05), die Schilddrüsenhormone (p<0,001) und für die IGF 1-Spiegel (p<0,001) eine über die Studienzeit anhaltende Veränderung festgestellt werden. Abschließend wurde behandlungsgruppenunabhängig untersucht, ob die Hormonspiegel nach Gewichtsreduktion oder ob die relative hormonelle Veränderung während der Gewichtsreduktion prädiktiv für den Erfolg der Gewichterhaltungsphase ist. Hier fand sich für die Mehrzahl der hormonellen Parameter kein Effekt auf die Langzeitentwicklung der Gewichtszunahme. Jedoch konnte gezeigt werden, dass eine geringere Abnahme der 24h Urin-Metanephrin-Ausscheidung während der Gewichtsabnahmephase mit einem besseren Erfolg bezüglich des Gewichtserhalts über die achtzehnmonatige Studienzeit assoziiert war (standardisiertes Beta= -0,365; r2=0,133 p<0,01). Die anderen hormonellen Achsen zeigten keinen nachweislichen Effekt. N2 - Although it is known that obesity is associated with a variety of serious conditions, there is no consensus regarding the optimal therapy for severely obese people. Unfortunately the majority of conventional weight loss therapies often fail long term and diet-induced weight loss is accompanied by several physiological changes and neuroendocrine responses that encourage weight regain. The present research addresses the question whether the hormonal counter-regulation can be modified by a behavioral weight maintenance intervention (diet, excercise, behavioral treatment) and whether such an intervention strategy could support long-term body weight maintenance. Moreover, this thesis focused on the potential predictive role of several hormonal circuits on long-term weight control. In the present study the influence of a twelve-month, weight-stabilizing lifestyle intervention on long-term weight maintenance across 18 months was assessed in a randomized controlled trial. 156 subjects participated in the weight reduction program. 143 subjects reduced their body weight by at least 8% of baseline (inclusion criterion) and were randomized to the maintenance trial. 112 female and 31 male participants were examined. Weight regain after 18 months (T18), defined as changes of BMI between randomization (T0) and T18, was the primary outcome of the trial. The evaluation of endocrine parameters involved in energy homeostasis was a pre-defined secondary outcome. Mean BMI was reduced by 4.67±1.47 kg*m-2 (12.6±3.7 %) during the initial weight loss period. The multimodal lifestyle intervention improved the weight maintenance after weight loss compared to control . However, this effect did not persist in the 6-month follow up and no BMI difference was observed at T18. Furthermore, the initial weight loss induced partially persisting hormonal changes of IGF-1, fT3, fT4, Leptin and Insulin. Changes of sympathetic nervous activity, TSH, GLP-1 and GIP were almost reversed within 18 months. The variability of weight regain at T18 was considerable, but comparable in both groups. Numerous hormonal alterations were found after weight loss. However, exclusively metanephrine excretion independently predicted regainBMI (standardized beta= -0.365, r2=0.134; p<0.01), while all other hormonal circuits analysed here had no predictive power. The 12-month lifestyle intervention did not modify any of these endocrine circuits. In conclusion, a 12-months multimodal lifestyle intervention regarding weight loss maintenance demonstrated a substantial benefit only as long as the subsequent maintenance intervention was performed. However, the hormonal response was not additionally affected by this intervention. KW - Adipositas KW - Körpergewichtsregulation KW - Hormone KW - Gewichtserhalt KW - randomisierte Studie KW - obesity KW - weight regulation KW - hormones KW - weight maintenance KW - randomized controlled trial Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413181 ER - TY - THES A1 - Meiser, Susanne T1 - Wie dysfunktional sind Dysfunktionale Einstellungen? T1 - How dysfunctional are dysfunctional attitudes? BT - dysfunktionale Kognitionen und Depression im Kindes- und Jugendalter BT - dysfunctional cognitions and depression in children and adolescents N2 - Im kognitiven Vulnerabilitäts-Stress-Modell der Depression von A.T. Beck (1967, 1976) spielen dysfunktionale Einstellungen bei der Entstehung von Depression in Folge von erlebtem Stress eine zentrale Rolle. Diese Theorie prägt seit Jahrzehnten die ätiologische Erforschung der Depression, jedoch ist die Bedeutung dysfunktionaler Einstellungen im Prozess der Entstehung einer Depression insbesondere im Kindes- und Jugendalter nach wie vor unklar. Die vorliegende Arbeit widmet sich einigen in der bisherigen Forschung wenig behandelten Fragen. Diese betreffen u. a. die Möglichkeit nichtlinearer Effekte dysfunktionaler Einstellungen, Auswirkungen einer Stichprobenselektion, Entwicklungseffekte sowie die Spezifität etwaiger Zusammenhänge für eine depressive Symptomatik. Zur Beantwortung dieser Fragen wurden Daten von zwei Messzeitpunkten der PIER-Studie, eines großangelegten Längsschnittprojekts über Entwicklungsrisiken im Kindes- und Jugendalter, genutzt. Kinder und Jugendliche im Alter von 9 bis 18 Jahren berichteten zweimal im Abstand von ca. 20 Monaten im Selbstberichtsverfahren über ihre dysfunktionalen Einstellungen, Symptome aus verschiedenen Störungsbereichen sowie über eingetretene Lebensereignisse. Die Ergebnisse liefern Evidenz für ein Schwellenmodell, in dem dysfunktionale Einstellungen unabhängig von Alter und Geschlecht nur im höheren Ausprägungsbereich eine Wirkung als Vulnerabilitätsfaktor zeigen, während im niedrigen Ausprägungsbereich keine Zusammenhänge zur späteren Depressivität bestehen. Eine Wirkung als Vulnerabilitätsfaktor war zudem nur in der Subgruppe der anfänglich weitgehend symptomfreien Kinder und Jugendlichen zu beobachten. Das Schwellenmodell erwies sich als spezifisch für eine depressive Symptomatik, es zeigten sich jedoch auch (teilweise ebenfalls nichtlineare) Effekte dysfunktionaler Einstellungen auf die Entwicklung von Essstörungssymptomen und aggressivem Verhalten. Bei 9- bis 13-jährigen Jungen standen dysfunktionale Einstellungen zudem in Zusammenhang mit einer Tendenz, Stress in Leistungskontexten herbeizuführen. Zusammen mit den von Sahyazici-Knaak (2015) berichteten Ergebnissen aus der PIER-Studie weisen die Befunde darauf hin, dass dysfunktionale Einstellungen im Kindes- und Jugendalter – je nach betrachteter Subgruppe – Ursache, Symptom und Konsequenz der Depression darstellen können. Die in der vorliegenden Arbeit gezeigten nichtlinearen Effekte dysfunktionaler Einstellungen und die Effekte der Stichprobenselektion bieten eine zumindest teilweise Erklärung für die Heterogenität früherer Forschungsergebnisse. Insgesamt lassen sie auf komplexe – und nicht ausschließlich negative – Auswirkungen dysfunktionaler Einstellungen schließen. Für eine adäquate Beurteilung der „Dysfunktionalität“ der von A.T. Beck so betitelten Einstellungen erscheint daher eine Berücksichtigung der betrachteten Personengruppe, der absoluten Ausprägungen und der fraglichen Symptomgruppen geboten. N2 - In A. T. Beck´s prominent vulnerability-stress-model of depression (Beck 1967, 1976), dysfunctional attitudes represent the key vulnerability factor of depression. This theory has stimulated etiological research on depression for decades. However, the significance of dysfunctional attitudes for the emergence of depression in children and adolescents remains somewhat elusive. This dissertation addresses some questions unanswered by past studies, e.g. the possibility of nonlinear effects of dysfunctional attitudes, the impact of subject selection procedures, developmental effects and the specificity of dysfunctional attitudes for depressive symptomatology. These questions were examined using data from two measurement points of the PIER study, a large longitudinal project on developmental risks in childhood and adolescence. Children and adolescents aged 9 – 18 years reported dysfunctional attitudes, symptoms from various domains and stressful life events twice with a mean interval between assessments of 20 months. Results suggest a threshold model of cognitive vulnerability, in which only dysfunctional attitudes exceeding a certain threshold conferred vulnerability to depressive symptoms, while dysfunctional attitudes below the threshold were unrelated to future depressive symptoms. These effects were invariant across gender and age. Moreover, vulnerability effects of dysfunctional attitudes were observable in initially non-symptomatic participants only. The threshold model of dysfunctional attitudes turned out to be specific for the depressive symptom domain. However, relationships of different shapes were detected between dysfunctional attitudes and the development of aggressive and eating disorder symptoms. Moreover, dysfunctional attitudes in 9 – 13-year old boys predicted non-interpersonal stress generation. Along with evidence from the PIER study reported by Sahyazici-Knaak (2015), results suggest that dysfunctional attitudes in children and adolescents may represent a cause, symptom and consequence of depression, depending on the sub-population in question. The nonlinear effects of dysfunctional attitudes detected in this study might, at least in part, offer an explanation for the inconsistent results of past studies. In sum, findings of this dissertation suggest complex – and not exclusively negative - effects of dysfunctional attitudes. Thus, a judgement of the actual “dysfunctionality” of the “dysfunctional attitudes” proposed by A. T. Beck seems to require a close consideration of the absolute level of attitudes as well as the sub-population and symptom domains in question. KW - Depression KW - Ätiologie KW - Kognition KW - dysfunktionale Einstellungen KW - Kinder KW - Jugendliche KW - kognitive Vulnerabilität KW - depression KW - etiology KW - cognition KW - dysfunctional attitudes KW - children KW - adolescents KW - cognitive vulnerability Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412483 ER - TY - THES A1 - Murawski, Aline T1 - Trends in precipitation over Germany and the Rhine basin related to changes in weather patterns T1 - Zeitliche Veränderungen im Niederschlag über Deutschland und dem Rheineinzugsgebiet in Zusammenhang mit Wetterlagen N2 - Niederschlag als eine der wichtigsten meteorologischen Größen für Landwirtschaft, Wasserversorgung und menschliches Wohlbefinden hat schon immer erhöhte Aufmerksamkeit erfahren. Niederschlagsmangel kann verheerende Auswirkungen haben, wie z.B. Missernten und Wasserknappheit. Übermäßige Niederschläge andererseits bergen jedoch ebenfalls Gefahren in Form von Hochwasser oder Sturzfluten und wiederum Missernten. Daher wurde viel Arbeit in die Detektion von Niederschlagsänderungen und deren zugrundeliegende Prozesse gesteckt. Insbesondere angesichts von Klimawandel und unter Berücksichtigung des Zusammenhangs zwischen Temperatur und atmosphärischer Wasserhaltekapazität, ist großer Bedarf an Forschung zum Verständnis der Auswirkungen von Klimawandel auf Niederschlagsänderungen gegeben. Die vorliegende Arbeit hat das Ziel, vergangene Veränderungen in Niederschlag und anderen meteorologischen Variablen zu verstehen. Für verschiedene Zeiträume wurden Tendenzen gefunden und mit entsprechenden Veränderungen in der großskaligen atmosphärischen Zirkulation in Zusammenhang gebracht. Die Ergebnisse dieser Arbeit können als Grundlage für die Attributierung von Hochwasserveränderungen zu Klimawandel genutzt werden. Die Annahmen für die Maßstabsverkleinerung („Downscaling“) der Daten von großskaligen Zirkulationsmodellen auf die lokale Skala wurden hier getestet und verifziert. In einem ersten Schritt wurden Niederschlagsveränderungen in Deutschland analysiert. Dabei lag der Fokus nicht nur auf Niederschlagssummen, sondern auch auf Eigenschaften der statistischen Verteilung, Übergangswahrscheinlichkeiten als Maß für Trocken- und Niederschlagsperioden und Extremniederschlagsereignissen. Den räumlichen Fokus auf das Rheineinzugsgebiet, das größte Flusseinzugsgebiet Deutschlands und einer der Hauptwasserwege Europas, verlagernd, wurden nachgewiesene Veränderungen in Niederschlag und anderen meteorologischen Größen in Bezug zu einer „optimierten“ Wetterlagenklassifikation analysiert. Die Wetterlagenklassifikation wurde unter der Maßgabe entwickelt, die Varianz des lokalen Klimas bestmöglich zu erklären. Die letzte hier behandelte Frage dreht sich darum, ob die beobachteten Veränderungen im lokalen Klima eher Häufigkeitsänderungen der Wetterlagen zuzuordnen sind oder einer Veränderung der Wetterlagen selbst. Eine gebräuchliche Annahme für einen Downscaling-Ansatz mit Hilfe von Wetterlagen und einem stochastischen Wettergenerator ist, dass Klimawandel sich allein durch eine Veränderung der Häufigkeit von Wetterlagen ausdrückt, die Eigenschaften der Wetterlagen dabei jedoch konstant bleiben. Diese Annahme wurde überprüft und die Fähigkeit der neuesten Generation von Zirkulationsmodellen, diese Wetterlagen zu reproduzieren, getestet. Niederschlagsveränderungen in Deutschland im Zeitraum 1951–2006 lassen sich zusammenfassen als negativ im Sommer und positiv in allen anderen Jahreszeiten. Verschiedene Niederschlagscharakteristika bestätigen die Tendenz in den Niederschlagssummen: während mittlere und extreme Niederschlagstageswerte im Winter zugenommen haben, sind auch zusammenhängende Niederschlagsperioden länger geworden (ausgedrückt als eine gestiegene Wahrscheinlichkeit für einen Tag mit Niederschlag gefolgt von einem weiteren nassen Tag). Im Sommer wurde das Gegenteil beobachtet: gesunkene Niederschlagssummen, untermauert von verringerten Mittel- und Extremwerten und längeren Trockenperioden. Abseits dieser allgemeinen Zusammenfassung für das gesamte Gebiet Deutschlands, ist die räumliche Verteilung von Niederschlagsveränderungen deutlich heterogener. Vermehrter Niederschlag im Winter wurde hauptsächlich im Nordwesten und Südosten Deutschlands beobachtet, während im Frühling die stärksten Veränderungen im Westen und im Herbst im Süden aufgetreten sind. Das saisonale Bild wiederum löst sich für die zugehörigen Monate auf, z.B. setzt sich der Anstieg im Herbstniederschlag aus deutlich vermehrtem Niederschlag im Südwesten im Oktober und im Südosten im November zusammen. Diese Ergebnisse betonen die starken räumlichen Zusammenhänge der Niederschlagsänderungen. Der nächste Schritt hinsichtlich einer Zuordnung von Niederschlagsveränderungen zu Änderungen in großskaligen Zirkulationsmustern, war die Ableitung einer Wetterlagenklassifikation, die die betrachteten lokalen Klimavariablen hinreichend stratifizieren kann. Fokussierend auf Temperatur, Globalstrahlung und Luftfeuchte zusätzlich zu Niederschlag, wurde eine Klassifikation basierend auf Luftdruck, Temperatur und spezifischer Luftfeuchtigkeit als am besten geeignet erachtet, die Varianz der lokalen Variablen zu erklären. Eine vergleichsweise hohe Anzahl von 40 Wetterlagen wurde ausgewählt, die es erlaubt, typische Druckmuster durch die zusätzlich verwendete Temperaturinformation einzelnen Jahreszeiten zuzuordnen. Während die Fähigkeit, Varianz im Niederschlag zu erklären, relativ gering ist, ist diese deutlich besser für Globalstrahlung und natürlich Temperatur. Die meisten der aktuellen Zirkulationsmodelle des CMIP5-Ensembles sind in der Lage, die Wetterlagen hinsichtlich Häufigkeit, Saisonalität und Persistenz hinreichend gut zu reproduzieren. Schließlich wurden dieWetterlagen bezüglich Veränderungen in ihrer Häufigkeit, Saisonalität und Persistenz, sowie der Wetterlagen-spezifischen Niederschläge und Temperatur, untersucht. Um Unsicherheiten durch die Wahl eines bestimmten Analysezeitraums auszuschließen, wurden alle möglichen Zeiträume mit mindestens 31 Jahren im Zeitraum 1901–2010 untersucht. Dadurch konnte die Annahme eines konstanten Zusammenhangs zwischen Wetterlagen und lokalem Wetter gründlich überprüft werden. Es wurde herausgefunden, dass diese Annahme nur zum Teil haltbar ist. Während Veränderungen in der Temperatur hauptsächlich auf Veränderungen in der Wetterlagenhäufigkeit zurückzuführen sind, wurde für Niederschlag ein erheblicher Teil von Veränderungen innerhalb einzelner Wetterlagen gefunden. Das Ausmaß und sogar das Vorzeichen der Veränderungen hängt hochgradig vom untersuchten Zeitraum ab. Die Häufigkeit einiger Wetterlagen steht in direkter Beziehung zur langfristigen Variabilität großskaliger Zirkulationsmuster. Niederschlagsveränderungen variieren nicht nur räumlich, sondern auch zeitlich – Aussagen über Tendenzen sind nur in Bezug zum jeweils untersuchten Zeitraum gültig. Während ein Teil der Veränderungen auf Änderungen der großskaligen Zirkulation zurückzuführen ist, gibt es auch deutliche Veränderungen innerhalb einzelner Wetterlagen. Die Ergebnisse betonen die Notwendigkeit für einen sorgfältigen Nachweis von Veränderungen möglichst verschiedene Zeiträume zu untersuchen und mahnen zur Vorsicht bei der Anwendung von Downscaling-Ansätzen mit Hilfe von Wetterlagen, da diese die Auswirkungen von Klimaveränderungen durch das Vernachlässigen von Wetterlagen-internen Veränderungen falsch einschätzen könnten. N2 - Precipitation as the central meteorological feature for agriculture, water security, and human well-being amongst others, has gained special attention ever since. Lack of precipitation may have devastating effects such as crop failure and water scarcity. Abundance of precipitation, on the other hand, may as well result in hazardous events such as flooding and again crop failure. Thus, great effort has been spent on tracking changes in precipitation and relating them to underlying processes. Particularly in the face of global warming and given the link between temperature and atmospheric water holding capacity, research is needed to understand the effect of climate change on precipitation. The present work aims at understanding past changes in precipitation and other meteorological variables. Trends were detected for various time periods and related to associated changes in large-scale atmospheric circulation. The results derived in this thesis may be used as the foundation for attributing changes in floods to climate change. Assumptions needed for the downscaling of large-scale circulation model output to local climate stations are tested and verified here. In a first step, changes in precipitation over Germany were detected, focussing not only on precipitation totals, but also on properties of the statistical distribution, transition probabilities as a measure for wet/dry spells, and extreme precipitation events. Shifting the spatial focus to the Rhine catchment as one of the major water lifelines of Europe and the largest river basin in Germany, detected trends in precipitation and other meteorological variables were analysed in relation to states of an ``optimal'' weather pattern classification. The weather pattern classification was developed seeking the best skill in explaining the variance of local climate variables. The last question addressed whether observed changes in local climate variables are attributable to changes in the frequency of weather patterns or rather to changes within the patterns itself. A common assumption for a downscaling approach using weather patterns and a stochastic weather generator is that climate change is expressed only as a changed occurrence of patterns with the pattern properties remaining constant. This assumption was validated and the ability of the latest generation of general circulation models to reproduce the weather patterns was evaluated. % Paper 1 Precipitation changes in Germany in the period 1951-2006 can be summarised briefly as negative in summer and positive in all other seasons. Different precipitation characteristics confirm the trends in total precipitation: while winter mean and extreme precipitation have increased, wet spells tend to be longer as well (expressed as increased probability for a wet day followed by another wet day). For summer the opposite was observed: reduced total precipitation, supported by decreasing mean and extreme precipitation and reflected in an increasing length of dry spells. Apart from this general summary for the whole of Germany, the spatial distribution within the country is much more differentiated. Increases in winter precipitation are most pronounced in the north-west and south-east of Germany, while precipitation increases are highest in the west for spring and in the south for autumn. Decreasing summer precipitation was observed in most regions of Germany, with particular focus on the south and west. The seasonal picture, however, was again differently represented in the contributing months, e.g.\ increasing autumn precipitation in the south of Germany is formed by strong trends in the south-west in October and in the south-east in November. These results emphasise the high spatial and temporal organisation of precipitation changes. % Paper 2 The next step towards attributing precipitation trends to changes in large-scale atmospheric patterns was the derivation of a weather pattern classification that sufficiently stratifies the local climate variables under investigation. Focussing on temperature, radiation, and humidity in addition to precipitation, a classification based on mean sea level pressure, near-surface temperature, and specific humidity was found to have the best skill in explaining the variance of the local variables. A rather high number of 40 patterns was selected, allowing typical pressure patterns being assigned to specific seasons by the associated temperature patterns. While the skill in explaining precipitation variance is rather low, better skill was achieved for radiation and, of course, temperature. Most of the recent GCMs from the CMIP5 ensemble were found to reproduce these weather patterns sufficiently well in terms of frequency, seasonality, and persistence. % Paper 3 Finally, the weather patterns were analysed for trends in pattern frequency, seasonality, persistence, and trends in pattern-specific precipitation and temperature. To overcome uncertainties in trend detection resulting from the selected time period, all possible periods in 1901-2010 with a minimum length of 31 years were considered. Thus, the assumption of a constant link between patterns and local weather was tested rigorously. This assumption was found to hold true only partly. While changes in temperature are mainly attributable to changes in pattern frequency, for precipitation a substantial amount of change was detected within individual patterns. Magnitude and even sign of trends depend highly on the selected time period. The frequency of certain patterns is related to the long-term variability of large-scale circulation modes. Changes in precipitation were found to be heterogeneous not only in space, but also in time - statements on trends are only valid for the specific time period under investigation. While some part of the trends can be attributed to changes in the large-scale circulation, distinct changes were found within single weather patterns as well. The results emphasise the need to analyse multiple periods for thorough trend detection wherever possible and add some note of caution to the application of downscaling approaches based on weather patterns, as they might misinterpret the effect of climate change due to neglecting within-type trends. KW - precipitation KW - weather pattern KW - trend analyses KW - Niederschlag KW - Wetterlagen KW - Trendanalysen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412725 ER - TY - THES A1 - Golly, Antonius T1 - Formation and evolution of channel steps and their role for sediment dynamics in a steep mountain stream T1 - Formation und Evolution von Bachstufen und ihr Einfluss auf die Sedimentdynamik eines steilen Gebirgseinzugsgebietes N2 - Steep mountain channels are an important component of the fluvial system. On geological timescales, they shape mountain belts and counteract tectonic uplift by erosion. Their channels are strongly coupled to hillslopes and they are often the main source of sediment transported downstream to low-gradient rivers and to alluvial fans, where commonly settlements in mountainous areas are located. Hence, mountain streams are the cause for one of the main natural hazards in these regions. Due to climate change and a pronounced populating of mountainous regions the attention given to this threat is even growing. Although quantitative studies on sediment transport have significantly advanced our knowledge on measuring and calibration techniques we still lack studies of the processes within mountain catchments. Studies examining the mechanisms of energy and mass exchange on small temporal and spatial scales in steep streams remain sparse in comparison to low-gradient alluvial channels. In the beginning of this doctoral project, a vast amount of experience and knowledge of a steep stream in the Swiss Prealps had to be consolidated in order to shape the principal aim of this research effort. It became obvious, that observations from within the catchment are underrepresented in comparison to experiments performed at the catchment’s outlet measuring fluxes and the effects of the transported material. To counteract this imbalance, an examination of mass fluxes within the catchment on the process scale was intended. Hence, this thesis is heavily based on direct field observations, which are generally rare in these environments in quantity and quality. The first objective was to investigate the coupling of the channel with surrounding hillslopes, the major sources of sediment. This research, which involved the monitoring of the channel and adjacent hillslopes, revealed that alluvial channel steps play a key role in coupling of channel and hillslopes. The observations showed that hillslope stability is strongly associated with the step presence and an understanding of step morphology and stability is therefore crucial in understanding sediment mobilization. This finding refined the way we think about the sediment dynamics in steep channels and motivated continued research of the step dynamics. However, soon it became obvious that the technological basis for developing field tests and analyzing the high resolution geometry measured in the field was not available. Moreover, for many geometrical quantities in mountain channels definitions and a clear scientific standard was not available. For example, these streams are characterized by a high spatial variability of the channel banks, preventing straightforward calculations of the channel width without a defined reference. Thus, the second and inevitable part of this thesis became the development and evaluation of scientific tools in order to investigate the geometrical content of the study reach thoroughly. The developed framework allowed the derivation of various metrics of step and channel geometry which facilitated research on the a large data set of observations of channel steps. In the third part, innovative, physically-based metrics have been developed and compared to current knowledge on step formation, suggested in the literature. With this analyses it could be demonstrated that the formation of channel steps follow a wide range of hydraulic controls. Due to the wide range of tested parameters channel steps observed in a natural stream were attributed to different mechanisms of step formation, including those based on jamming and those based on key-stones. This study extended our knowledge on step formation in a steep stream and harmonized different, often time seen as competing, processes of step formation. This study was based on observations collected at one point in time. In the fourth part of this project, the findings of the snap-shot observations were extended in the temporal dimension and the derived concepts have been utilized to investigate reach-scale step patterns in response to large, exceptional flood events. The preliminary results of this work based on the long-term analyses of 7 years of long profile surveys showed that the previously observed channel-hillslope mechanism is the responsible for the short-term response of step formation. The findings of the long-term analyses of step patterns drew a bow to the initial observations of a channel-hillslope system which allowed to join the dots in the dynamics of steep stream. Thus, in this thesis a broad approach has been chosen to gain insights into the complex system of steep mountain rivers. The effort includes in situ field observations (article I), the development of quantitative scientific tools (article II), the reach-scale analyses of step-pool morphology (article III) and its temporal evolution (article IV). With this work our view on the processes within the catchment has been advanced towards a better mechanistic understanding of these fluvial system relevant to improve applied scientific work. N2 - Gebirgsbäche sind stark gekoppelt mit angrenzenden Hängen, welche eine Hauptquelle von Sediment darstellen. Dieses Sediment wird durch erosive Prozesse weiter im fluvialen System stromabwärts transportiert, häufig auch in Bereiche alpiner Besiedlung. Das transportierte Sediment kann dort verheerende Schäden an Gebäuden und Infrastruktur anrichten. Daher stellen Gebirgsbäche eine Hauptursache für Naturgefahren in steilen Regionen dar, welche durch den Wandel des Klimas und die fortschreitende Besiedlung durch den Menschen noch verstärkt werden. Wenngleich quantitative Studien unser Wissen über Mess- und Kalibrierungstechniken zur Erfassung von Sedimenttransport erweitert haben, so sind doch viele Prozesse innerhalb der Einzugsgebiete in Hinblick auf Erosion und Sedimentverfügbarkeit weitgehend unerforscht. So stellen Beobachtungen von Mechanismen von Energie- und Massenaustausch auf kleinen räumlichen und zeitlichen Skalen innerhalb steiler Gebirgseinzugsgebiete eine Ausname dar. Diese Doktorarbeit basiert auf hoch-qualitativen Feldbeobachtungen in einem schweizer Gebirgsbach um Forschungsfragen in Hinblick auf die Sediementdyanmik zu behandeln. Das erste Ziel war es, die Gerinne-Hang-Kopplung zu erforschen und zu verstehen, um mögliche Sedimentquellen zu identifizieren, sowie die Mechanismen und Prozesse der Sedimentgenerierung in den Kontext der allgemeinen Dynamik von Gebirgsbächen zu bringen. Die erste Studie, welche auf visuellen Beobachtungen basiert, offenbarte eine Schlüsselrolle von Bachstufen in der Gerinne-Hang-Kopplung. Auf dieser Grundlage wurde ein konzeptuelles Modell entwickelt (Artikel I): durch die Erosion von Bachstufen werden angrenzende Hänge destabilisiert und ermöglichen anhaltenden Sedimenteintrag. Diese Forschung regte eine genauere Beobachtung der räumlichen und zeitlichen Evolution von Bachstufen an. Die weitere Forschung erforderte jedoch neue technologische Werkzeuge und Methoden welche zunächst in dieser Doktorarbeit eigens entwickelt wurden (Artikel II). Mit diesen Werkzeugen wurde dann ein Datensatz eingemessener Bachstufen in Hinblick auf den Formationsprozess analysiert (Artikel III). Mit dieser Analyse konnten verschiedene Stufenbildungstheorien überprüft und und zwei dominante Mechanismen verifiziert werden: Bachstufen formen sich in engen und verengenden Bachabchnitten durch Verklemmung, sowie in breiten und breiter werdenden Abschnitten durch die Ablagerung von Schlüsselsteinen. Durch diese Beobachtung wurde unser Wissen über Stufenbildung erweitert indem verschiedene hypothetisierte Mechanismen in einem Gebirgsbach harmonisiert wurden. Zu guter Letzt wurde diese Punktbeobachtung schließlich in den zeitlichen Kontext gesetzt, indem die Muster von Bachstufen über 7 Jahre nach einem hydrologischen Großereignis in 2010 untersucht wurden (Artikel IV). Die vorläufigen Ergebnisse zeigen, dass Großereignisse einen erheblichen Einfluss auf die Gerinnebreite haben: sowohl die räumlich gemittelte Gerinnebreite, als auch die mittlere Gerinnebreite an Bachstufen ist unmittelbar nach dem Großereignis deutlich erhöht. Weiterhin ist die relative Anzahl der Bachstufen welche durch Schlüsselsteine erzeugt werden größer nach dem Großereignis. Dies deutet darauf hin, dass der zuerst beobachtete Mechanismus der Gerinne-Hang-Kopplung (Artikel I) verantwortlich ist für die zeitliche Evolution der Bachstufen nach Großereignissen (Artikel IV). KW - Geomorphologie KW - geomorphology KW - Naturgefahren KW - natural hazards KW - Gebirgsbäche KW - mountain rivers KW - Geschiebetransport KW - bedload transport KW - Bachstufen KW - channel steps KW - Gerinne-Hang-Kopplung KW - channel-hillslope coupling Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411728 ER - TY - THES A1 - Zuo, Zhe T1 - From unstructured to structured: Context-based named entity mining from text T1 - Von unstrukturiert zu strukturiert: Kontextbasierte Gewinnung benannter Entitäten von Text N2 - With recent advances in the area of information extraction, automatically extracting structured information from a vast amount of unstructured textual data becomes an important task, which is infeasible for humans to capture all information manually. Named entities (e.g., persons, organizations, and locations), which are crucial components in texts, are usually the subjects of structured information from textual documents. Therefore, the task of named entity mining receives much attention. It consists of three major subtasks, which are named entity recognition, named entity linking, and relation extraction. These three tasks build up an entire pipeline of a named entity mining system, where each of them has its challenges and can be employed for further applications. As a fundamental task in the natural language processing domain, studies on named entity recognition have a long history, and many existing approaches produce reliable results. The task is aiming to extract mentions of named entities in text and identify their types. Named entity linking recently received much attention with the development of knowledge bases that contain rich information about entities. The goal is to disambiguate mentions of named entities and to link them to the corresponding entries in a knowledge base. Relation extraction, as the final step of named entity mining, is a highly challenging task, which is to extract semantic relations between named entities, e.g., the ownership relation between two companies. In this thesis, we review the state-of-the-art of named entity mining domain in detail, including valuable features, techniques, evaluation methodologies, and so on. Furthermore, we present two of our approaches that focus on the named entity linking and relation extraction tasks separately. To solve the named entity linking task, we propose the entity linking technique, BEL, which operates on a textual range of relevant terms and aggregates decisions from an ensemble of simple classifiers. Each of the classifiers operates on a randomly sampled subset of the above range. In extensive experiments on hand-labeled and benchmark datasets, our approach outperformed state-of-the-art entity linking techniques, both in terms of quality and efficiency. For the task of relation extraction, we focus on extracting a specific group of difficult relation types, business relations between companies. These relations can be used to gain valuable insight into the interactions between companies and perform complex analytics, such as predicting risk or valuating companies. Our semi-supervised strategy can extract business relations between companies based on only a few user-provided seed company pairs. By doing so, we also provide a solution for the problem of determining the direction of asymmetric relations, such as the ownership_of relation. We improve the reliability of the extraction process by using a holistic pattern identification method, which classifies the generated extraction patterns. Our experiments show that we can accurately and reliably extract new entity pairs occurring in the target relation by using as few as five labeled seed pairs. N2 - Mit den jüngsten Fortschritten in den Gebieten der Informationsextraktion wird die automatisierte Extrahierung strukturierter Informationen aus einer unüberschaubaren Menge unstrukturierter Textdaten eine wichtige Aufgabe, deren manuelle Ausführung unzumutbar ist. Benannte Entitäten, (z.B. Personen, Organisationen oder Orte), essentielle Bestandteile in Texten, sind normalerweise der Gegenstand strukturierter Informationen aus Textdokumenten. Daher erhält die Aufgabe der Gewinnung benannter Entitäten viel Aufmerksamkeit. Sie besteht aus drei groen Unteraufgaben, nämlich Erkennung benannter Entitäten, Verbindung benannter Entitäten und Extraktion von Beziehungen. Diese drei Aufgaben zusammen sind der Grundprozess eines Systems zur Gewinnung benannter Entitäten, wobei jede ihre eigene Herausforderung hat und für weitere Anwendungen eingesetzt werden kann. Als ein fundamentaler Aspekt in der Verarbeitung natürlicher Sprache haben Studien zur Erkennung benannter Entitäten eine lange Geschichte, und viele bestehenden Ansätze erbringen verlässliche Ergebnisse. Die Aufgabe zielt darauf ab, Nennungen benannter Entitäten zu extrahieren und ihre Typen zu bestimmen. Verbindung benannter Entitäten hat in letzter Zeit durch die Entwicklung von Wissensdatenbanken, welche reiche Informationen über Entitäten enthalten, viel Aufmerksamkeit erhalten. Das Ziel ist es, Nennungen benannter Entitäten zu unterscheiden und diese mit dazugehörigen Einträgen in einer Wissensdatenbank zu verknüpfen. Der letzte Schritt der Gewinnung benannter Entitäten, die Extraktion von Beziehungen, ist eine stark anspruchsvolle Aufgabe, nämlich die Extraktion semantischer Beziehungen zwischen Entitäten, z.B. die Eigentümerschaft zwischen zwei Firmen. In dieser Doktorarbeit arbeiten wir den aktuellen Stand der Wissenschaft in den Domäne der Gewinnung benannter Entitäten auf, unter anderem wertvolle Eigenschaften und Evaluationsmethoden. Darüberhinaus präsentieren wir zwei Ansätze von uns, die jeweils ihren Fokus auf die Verbindung benannter Entitäten sowie der Aufgaben der Extraktion von Beziehungen legen. Um die Aufgabe der Verbindung benannter Entitäten zu lösen schlagen wir hier die Verbindungstechnik BEL vor, welche auf einer textuellen Bandbreite relevanter Begriffe agiert und Entscheidungen einer Kombination von einfacher Klassifizierer aggregiert. Jeder dieser Klassifizierer arbeitet auf einer zufällig ausgewählten Teilmenge der obigen Bandbreite. In umfangreichen Experimenten mit handannotierten sowie Vergleichsdatensätzen hat unser Ansatz andere Lösungen zur Verbindung benannter Entitäten, die auf dem Stand der aktuellen Technik beruhen, sowie in Bezug auf Qualität als auch Effizienz geschlagen. Für die Aufgabe der Extraktion von Beziehungen fokussieren wir uns auf eine bestimmte Gruppe schwieriger Beziehungstypen, nämlich die Geschäftsbeziehungen zwischen Firmen. Diese Beziehungen können benutzt werden, um wertvolle Erkenntnisse in das Zusammenspiel von Firmen zu gelangen und komplexe Analysen ausführen, beispielsweise die Risikovorhersage oder Bewertung von Firmen. Unsere teilbeaufsichtigte Strategie kann Geschäftsbeziehungen zwischen Firmen anhand nur weniger nutzergegebener Startwerte von Firmenpaaren extrahieren. Dadurch bieten wir auch eine Lösung für das Problem der Richtungserkennung asymmetrischer Beziehungen, beispielsweise der Eigentumsbeziehung. Wir verbessern die Verlässlichkeit des Extraktionsprozesses, indem wir holistische Musteridentifikationsmethoden verwenden, welche die erstellten Extraktionsmuster klassifizieren. Unsere Experimente zeigen, dass wir neue Entitätenpaare akkurat und verlässlich in der Zielbeziehung mit bereits fünf bezeichneten Startpaaren extrahieren können. KW - named entity mining KW - information extraction KW - natural language processing KW - Gewinnung benannter Entitäten KW - Informationsextraktion KW - maschinelle Verarbeitung natürlicher Sprache Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412576 ER - TY - THES A1 - Theuring, Philipp Christian T1 - Suspended sediments in the Kharaa River, sources and impacts T1 - Feinsedimente im Kharaa Fluss, Quellen und Auswirkungen N2 - Anthropogenically amplified erosion leads to increased fine-grained sediment input into the fluvial system in the 15.000 km2 Kharaa River catchment in northern Mongolia and constitutes a major stressing factor for the aquatic ecosystem. This study uniquely combines the application of intensive monitoring, source fingerprinting and catchment modelling techniques to allow for the comparison of the credibility and accuracy of each single method. High-resolution discharge data were used in combination with daily suspended solid measurements to calculate the suspended sediment budget and compare it with estimations of the sediment budget model SedNet. The comparison of both techniques showed that the development of an overall sediment budget with SedNet was possible, yielding results in the same order of magnitude (20.3 kt a- 1 and 16.2 kt a- 1). Radionuclide sediment tracing, using Be-7, Cs-137 and Pb-210 was applied to differentiate sediment sources for particles < 10μm from hillslope and riverbank erosion and showed that riverbank erosion generates 74.5% of the suspended sediment load, whereas surface erosion contributes 21.7% and gully erosion only 3.8%. The contribution of the single subcatchments of the Kharaa to the suspended sediment load was assessed based on their variation in geochemical composition (e.g. in Ti, Sn, Mo, Mn, As, Sr, B, U, Ca and Sb). These variations were used for sediment source discrimination with geochemical composite fingerprints based on Genetic Algorithm driven Discriminant Function Analysis, the Kruskal–Wallis H-test and Principal Component Analysis. The contributions of the individual sub-catchment varied from 6.4% to 36.2%, generally showing higher contributions from the sub-catchments in the middle, rather than the upstream portions of the study area. The results indicate that river bank erosion generated by existing grazing practices of livestock is the main cause for elevated fine sediment input. Actions towards the protection of the headwaters and the stabilization of the river banks within the middle reaches were identified as the highest priority. Deforestation and by lodging and forest fires should be prevented to avoid increased hillslope erosion in the mountainous areas. Mining activities are of minor importance for the overall catchment sediment load but can constitute locally important point sources for particular heavy metals in the fluvial system. N2 - Durch Landnutzung erhöhte Erosion führt zu verstärktem Eintrag von Feinsedimenten im 15.000 km2 großen Einzugsgebiet des Kharaa in der nördlichen Mongolei. Diese Einträge stellen einen starken Stressor für das aquatische Ökosystem dar. Im Rahmen dieser Studie werden auf neuartige Weise verschiedene Ansätze zur Untersuchung der Feinsedimentdynamik im Einzugsgebiet kombiniert. Der Vergleich der Ergebnisse aus zeitlich hochaufgelösten Abfluss- und Schwebstoffanalysen, Sedimentbudgetmodellierung und „Sediment Source Fingerprinting“ Techniken erlaubt eine Bewertung der Genauigkeit und Anwendbarkeit jeder einzelnen Methodik im Untersuchungsgebiet. Das anhand von Abflussund Schwebstoffmessdaten berechnete Sedimentbudget am Gebietsauslass wurde mit dem mittels des Sedimentbudgetmodels SedNet berechneten Sedimentbudget verglichen. Die Ergebnisse von des aus Abfluss- und Schwebstoffmessdaten berechneten Sedimentbudgets (20,3 kt a- 1) und der mittels SedNet berechneten Werte (16,2 kt a- 1) zeigen eine befriedigende Übereinstimmung und bekräftigen die Anwendbarkeit des Models. Zur Unterscheidung der Herkunft der Feinsedimente hinsichtlich des dominanten Erosionsprozesses wurde die Sedimentfraktion < 10μm hinsichtlich der Konzentrationen der Radioisotope Be-7, Cs-137 und Pb-210 analysiert. Die Ergebnisse zeigen, dass Gerinneerosion für 74.5% der Suspensionsfracht verantwortlich ist und Einträge durch Flächenerosion 21.7% und durch Gully-erosion nur 3.8% beitragen. Zur Untersuchung der Anteile der Teileinzugsgebiete an der Gesamtsuspensionsfracht am Gebietsauslass wurden die Sedimente der Teilgebiete hinsichtlich der Variation ihrer geochemischen Zusammensetzung untersucht (z.B. Ti, Sn, Mo, Mn, As, Sr, B, U, Ca und Sb). Anhand der Zusammensetzung wurde jeweils ein spezifischer “Fingerabdruck” für Sedimente aus spezifischen Teileinzugsgebieten definiert. Mittels Diskriminanzanalyse, Kruskal–Wallis H-test und Hauptkomponentenanalyse konnten die Beiträge der Teileinzugsgebiete an der Gesamtfracht mit einem Mischungsmodel berechnet werden. Generell trugen die oberläufigen Teileinzugsgebiete am geringsten, und die mittelläufigen am stärksten zur Sediment Fracht bei. Die Ergebnisse der Studie zeigen, dass durch Überweidung begünstigte Ufererosion für den Hauptteil der Suspensionsfracht im Kharaa Fluss verantwortlich ist. Zur Verringerung des Schwebstoffeintrags in den Fluss werden Maßnahmen zur Uferbefestigung, insbesondere der Schutz und die Wiederherstellung der Ufervegetation als primäre Maßnahmen empfohlen. KW - sediment source fingerprinting KW - Mongolia KW - suspended sediments KW - sediment transport modelling KW - Mongolei KW - Sedimentquellenidentifizierung KW - Feinsedimente KW - Sedimentfracht Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410550 ER - TY - THES A1 - Lacroix, André T1 - Factors influencing the effectiveness of balance and resistance training in older adults T1 - Effektivität von Gleichgewichts- und Krafttraining bei älteren Menschen: beeinflussende Faktoren N2 - Hintergrund und Ziele: Altersbedingte Kraft- und Gleichgewichtsverluste sind mit Funktionseinschränkungen und einem erhöhten Sturzrisiko assoziiert. Kraft- und Gleichgewichtstraining haben das Potenzial, das Gleichgewicht und die Maximalkraft/Schnellkraft von gesunden älteren Menschen zu verbessern. Es ist jedoch noch nicht hinreichend untersucht, wie die Effektivität solcher Übungsprogramme von verschiedenen Faktoren beeinflusst wird. Hierzu gehören die Rolle der Rumpfmuskulatur, die Effekte von kombiniertem Kraft- und Gleichgewichtstraining sowie die Effekte der Trainingsanleitung. Die primären Ziele dieser Dissertation bestehen daher in der Überprüfung der Zusammenhänge von Rumpfkraft und Gleichgewichtsvariablen und der Effekte von kombiniertem Kraft- und Gleichgewichtstraining auf ein breites Spektrum an intrinsischen Sturzrisikofaktoren bei älteren Menschen. Ein wesentliches Ziel dieser Dissertation ist zudem die Überprüfung der Auswirkungen von angeleitetem gegenüber unangeleitetem Kraft- und/oder Gleichgewichtstraining auf Variablen des Gleichgewichts und der Maximal-/Schnellkraft bei älteren Menschen. Methoden: Gesunde ältere Erwachsene im Alter zwischen 63 und 80 Jahren wurden in einer Querschnittsstudie, einer Längsschnittstudie und einer Metaanalyse untersucht (Gruppenmittelwerte Meta-Analyse: 65.3-81.1 Jahre). Messungen des Gleichgewichts (statisches/dynamisches, proaktives, reaktives Gleichgewicht) wurden mittels klinischer (z. B. Romberg Test) und instrumentierter Tests (z. B. 10 Meter Gangtest inklusive elektrischer Erfassung von Gangparametern) durchgeführt. Die isometrische Maximalkraft der Rumpfmuskulatur wurde mit speziellen Rumpfkraft-Maschinen gemessen. Für die Überprüfung der dynamischen Maximal-/Schnellkraft der unteren Extremität wurden klinische Tests (z. B. Chair Stand Test) verwendet. Weiterhin wurde ein kombiniertes Kraft- und Gleichgewichtstraining durchgeführt, um trainingsbedingte Effekte auf Gleichgewicht und Maximal-/Schnellkraft sowie die Effekte der Trainingsanleitung bei älteren Erwachsenen zu untersuchen. Ergebnisse: Die Ergebnisse zeigten signifikante Korrelationen zwischen Rumpfkraft und statischem sowie ausgewählten Parametern des dynamischen Gleichgewichts (0.42 ≤ r ≤ 0.57). Kombiniertes Kraft- und Gleichgewichtstraining verbesserte das statische/dynamische (z. B. Romberg Test, Ganggeschwindigkeit), proaktive (z. B. Timed Up und Go Test) und reaktive Gleichgewicht (z. B. Push and Release Test) sowie die Maximal-/Schnellkraft (z. B. Chair Stand Test) von gesunden älteren Menschen (0.62 ≤ Cohen’s d ≤ 2.86; alle p < 0.05). Angeleitetes Training führte verglichen mit unangeleitetem Training zu größeren Effekten bei Gleichgewicht und Maximal-/Schnellkraft [Längsschnittstudie: Effekte in der angeleiteten Gruppe 0.26 ≤ d ≤ 2.86, Effekte in der unangeleiteten Gruppe 0.06 ≤ d ≤ 2.30; Metaanalyse: alle Standardisierte Mittelwertdifferenzen (SMDbs) zugunsten der angeleiteten Programme 0.24-0.53]. Die Metaanalyse zeigte zudem größere Effekte zugunsten der angeleiteten Programme, wenn diese mit komplett unbeaufsichtigten Programmen verglichen wurden (0.28 ≤ SMDbs ≤ 1.24). Diese Effekte zugunsten der angeleiteten Interventionen wurden jedoch abgeschwächt, wenn sie mit unangeleiteten Interventionen verglichen wurden, die wenige zusätzliche angeleitete Einheiten integrierten (−0.06 ≤ SMDbs ≤ 0.41). Schlussfolgerungen: Eine Aufnahme von Rumpfkraftübungen in sturzpräventive Trainingsprogramme für ältere Menschen könnte die Verbesserung von Gleichgewichtsparametern positiv beeinflussen. Die positiven Effekte auf eine Vielzahl wichtiger intrinsischer Sturzrisikofaktoren (z. B. Gleichgewichts-, Kraftdefizite) implizieren, dass besonders die Kombination aus Kraft- und Gleichgewichtstraining eine durchführbare und effektive sturzpräventive Intervention ist. Aufgrund größerer Effekte von angeleitetem im Vergleich zu unangeleitetem Training sollten angeleitete Einheiten in sturzpräventive Übungsprogramme für ältere Erwachsene integriert werden. N2 - Background and objectives: Age-related losses of lower extremity muscle strength/power and deficits in static and particularly dynamic balance are associated with impaired functional performance and the occurrence of falls. It has been shown that balance and resistance training have the potential to improve balance and muscle strength in healthy older adults. However, it is still open to debate how the effectiveness of balance and resistance training in older adults is influenced by different factors. This includes the role of trunk muscle strength, the comprehensive effects of combined balance and resistance training, and the role of exercise supervision. Therefore, the primary objectives of this doctoral thesis are to investigate the relationship between trunk muscle strength and balance performance and to examine the effects of an expert-based balance and resistance training protocol on various measures of balance and lower extremity muscle strength/power in older adults. Furthermore, the impact of supervised versus unsupervised balance and/or resistance training interventions in the elderly will be evaluated. Methods: Healthy older adults aged 63-80 years were included in a cross-sectional study, a longitudinal study, and a meta-analysis (range group means meta-analysis: 65.3-81.1 years) registering balance and muscle strength/power performance. Different measures of balance (i.e., static/dynamic, proactive, reactive) were examined using clinical (e.g., Romberg test) and instrumented tests (e.g., 10 meter walking test on a sensor-equipped walkway). Isometric strength of the trunk muscles was assessed using instrumented trunk muscle strength apparatus and lower extremity dynamic muscle strength/power was examined using clinical tests (e.g., Chair Stand Test). Further, a combined balance and resistance training protocol was applied to examine training-induced effects on balance and muscle strength/power as well as the role of supervision in older adults. Results: Findings revealed that measures of trunk muscle strength and static steady-state balance as well as specific measures of dynamic steady-state balance were significantly associated in the elderly (0.42 ≤ r ≤ 0.57). Combined balance and resistance training significantly improved older adults' static/dynamic steady-state (e.g., Romberg test; habitual gait speed), pro-active (e.g., Timed Up and Go Test), and reactive balance (e.g., Push and Release Test) as well as muscle strength/power (e.g., Chair Stand Test) (0.62 ≤ Cohen’s d ≤ 2.86; all p < 0.05). Supervised compared to unsupervised balance and/or resistance training was superior in enhancing older adults' balance and muscle strength/power performance regarding all observed outcome categories [longitudinal study: effects for the supervised group 0.26 ≤ d ≤ 2.86, effects for the unsupervised group 0.06 ≤ d ≤ 2.30; meta-analysis: all between-subject standardized mean differences (SMDbs) in favor of the supervised training programs 0.24-0.53]. The meta-analysis additionally showed larger effects in favor of supervised interventions when compared to completely unsupervised interventions (0.28 ≤ SMDbs ≤ 1.24). These effects in favor of the supervised programs faded when compared with studies that implemented a small amount of supervised sessions in their unsupervised interventions (−0.06 ≤ SMDbs ≤ 0.41). Conclusions: Trunk muscle strength is associated with steady-state balance performance and may therefore be integrated in fall-preventive exercise interventions for older adults. The examined positive effects on a large number of important intrinsic fall risk factors (e.g., balance deficits, muscle weakness) imply that particularly the combination of balance and resistance training appears to be a feasible and effective exercise intervention for fall prevention. Owing to the beneficial effects of supervised compared to unsupervised interventions, supervised sessions should be integrated in fall-preventive balance and/or resistance training programs for older adults. KW - Senioren KW - Gleichgewicht KW - Maximalkraft/Schnellkraft KW - Rumpfkraft KW - Gleichgewichtstraining KW - Krafttraining KW - Übungsanleitung KW - elderly KW - balance KW - lower extremity muscle strength/power KW - trunk muscle strength KW - balance training KW - resistance training KW - exercise supervision Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411826 ER - TY - THES A1 - Schmidt, Katja T1 - Assessing, testing, and implementing socio-cultural valuation methods to operationalise ecosystem services in land use management T1 - Berücksichtigung, Überprüfung und Implentierung sozio-kultureller Bewertungsmethoden für die Operationalisierung von Ökosystemleistungen im Landschaftsmanagement N2 - Ecosystem services (ESs) are defined as the contributions that ecosystems make to human wellbeing and are increasingly being used as an approach to explore the importance of ecosystems for humans through their valuation. Although value plurality has been recognised long before the mainstreaming of ESs research, socio-cultural valuation is still underrepresented in ESs assessments. It is the central goal of this PhD dissertation to explore the ability of socio-cultural valuation methods for the operationalisation of ESs research in land management. To address this, I formulated three research objectives that are briefly outlined below and relate to the three studies conducted during this dissertation. The first objective relates to the assessment of the current role of socio-cultural valuation in ESs research. Human values are central to ESs research yet non-monetary socio-cultural valuation methods have been found underrepresented in the field of ESs science. In regard to the unbalanced consideration of value domains and conceptual uncertainties, I perform a systematic literature review aiming to answer the research question: To what extent have socio-cultural values been addressed in ESs assessments. The second objective aims to test socio-cultural valuation methods of ESs and their relevance for land use preferences by exploring their methodological opportunities and limitations. Socio-cultural valuation methods have only recently become a focus in ESs research and therefore bear various uncertainties in regard to their methodological implications. To overcome these uncertainties, I analysed responses to a visitor survey. The research questions related to the second objective were: What are the implications of different valuation methods for ESs values? To what extent are land use preferences explained by socio-cultural values of ESs? The third objective addressed in this dissertation is the implementation of ESs research into land management through socio-cultural valuation. Though it is emphasised that the ESs approach can assist decision making, there is little empirical evidence of the effect of ESs knowledge on land management. I proposed a way to implement transdisciplinary, spatially explicit research on ESs by answering the following research questions: Which landscape features underpinning ESs supply are considered in land management? How can participatory approaches accounting for ESs be operationalised in land management? The empirical research resulted in five main findings that provide answers to the research questions. First, this dissertation provides evidence that socio-cultural values are an integral part of ESs research. I found that they can be assessed for provisioning, regulating, and cultural services though they are linked to cultural services to a greater degree. Socio-cultural values have been assessed by monetary and non-monetary methods and their assessment is effectively facilitated by stakeholder participation. Second, I found that different methods of socio-cultural valuation revealed different information. Whereas rating revealed a general value of ESs, weighting was found more suitable to identify priorities across ESs. Value intentions likewise differed in the distribution of values, generally implying a higher value for others than for respondents themselves. Third, I showed that ESs values were distributed similarly across groups with differing land use preferences. Thus, I provided empirical evidence that ESs values and landscape values should not be used interchangeably. Fourth, I showed which landscape features important for ESs supply in a Scottish regional park are not sufficiently accounted for in the current management strategy. This knowledge is useful for the identification of priority sites for land management. Finally, I provide an approach to explore how ESs knowledge elicited by participatory mapping can be operationalised in land management. I demonstrate how stakeholder knowledge and values can be used for the identification of ESs hotspots and how these hotspots can be compared to current management priorities. This dissertation helps to bridge current gaps of ESs science by advancing the understanding of the current role of socio-cultural values in ESs research, testing different methods and their relevance for land use preferences, and implementing ESs knowledge into land management. If and to what extent ESs and their values are implemented into ecosystem management is mainly the choice of the management. An advanced understanding of socio-cultural valuation methods contributes to the normative basis of this management, while the proposal for the implementation of ESs in land management presents a practical approach of how to transfer this type of knowledge into practice. The proposed methods for socio-cultural valuation can support guiding land management towards a balanced consideration of ESs and conservation goals. N2 - Das Konzept der Ökosystemleistungen (ÖSL) wird in der Wissenschaft seit einigen Jahren vermehrt verwendet, um die Beiträge von Ökosystemen zum menschlichen Wohlbefinden zu bewerten. Das Konzept der ÖSL sieht vor, dass dabei viele verschiedene Wertkategorien gleichberechtigt zum Tragen kommen. Dazu gehören etwa ökonomische, ökologische und sozio-kulturelle Werte, die zu integrieren sind. Diesem Anspruch zum Trotz wird jedoch bislang der Bereich der sozio-kulturellen Werte zugunsten monetärer Werte in der Wissenschaft weitgehend vernachlässigt. Zudem müssen Wege gefunden werden, das Wissen über ÖSL und deren Werte in der Landschafts- und Raumplanung umzusetzen und damit praktisch nutzbar zu machen. Es ist das Ziel der vorliegenden Dissertation, die Eignung von sozio-kulturellen Bewertungsmethoden für die Operationalisierung von ÖSL in Landschafts- und Raumplanung zu untersuchen. Hierfür wurden drei Forschungsschwerpunkte verfolgt. (1) Es wurde untersucht, inwieweit gegenwärtige ÖSL-Bewertungsstudien sozio-kulturelle Werte berücksichtigen. (2) Verschiedene sozio-kulturelle Bewertungsmethoden für ÖSL wurden daraufhin geprüft, inwieweit sie geeignet sind, die Landschaftspräferenzen unterschiedlicher Nutzergruppen offenzulegen und (3) wurde ein Ansatz entwickelt, um die ÖSL-Forschung in die Landschafts- und Raumplanung zu implementieren. (1) Mittels einer Literaturanalyse konnte gezeigt werden, dass sozio-kulturelle Werte bei der Bewertung von produktiven, regulierenden und kulturellen ÖSL erhoben werden, wobei ein engerer Zusammenhang zwischen sozio-kulturellen Werten und kulturellen ÖSL festgestellt wurde. Zwischen sozio-kulturellen Werten und kulturellen Leistungen konnten einige Überlappungen aber auch zahlreiche Unterschiede aufgezeigt werden, was auf eine Trennung der beiden Bereiche hinweist. Darüber hinaus konnte gezeigt werden, dass sich nicht-monetäre Bewertungsmethoden besonders für die Erhebung sozio-kultureller Werte eignen wobei auch monetäre Bewertungsmethoden sozio-kulturelle Werte erfassen, vor allem mittels simulierter Marktansätze (z.B. Zahlungsbereitschaft, Choice Experimente). Die Arbeit zeigte zudem, dass Studien, welche Stakeholder oder die Öffentlichkeit beteiligten, häufiger ebenfalls sozio-kulturelle Werte erhoben. (2) Bei einer Besucherbefragung in einem schottischen Regionalpark führten unterschiedliche Methoden zu unterschiedlichen Ergebnissen. Die Bewertung von ÖSL auf einer 5-Punkteskala führte zu einer allgemeinen Einschätzung über die Wichtigkeit der verschiedenen ÖSL während eine Gewichtung der Leistungen (Verteilung von insgesamt 100 Punkten auf 9 ÖSL) eine relative Einschätzung über die Wichtigkeit der ÖSL und deren Prioritäten ermöglichte. Verschiedene Werteintentionen lieferten ähnlich unterschiedliche Ergebnisse, wobei persönliche Werte differenzierter und allgemein höher ausfielen als gesellschaftliche Werte. Zudem konnte gezeigt werden, dass sozio-kulturelle Werte für ÖSL ähnlich zwischen fünf Gruppen mit unterschiedlichen Landschaftspräferenzen verteilt waren. Die Arbeit liefert demnach empirische Belege dafür, dass es sich bei ÖSL und Landschaftspräferenzen um zwei Konzepte handelt, die nicht untereinander austauschbar sind. (3) Für die Entwicklung eines Ansatzes zur Implementierung von ÖSL-Forschung in die Landschafts- und Raumplanung wurde ein Methodenmix verwendet. Es wurden Ergebnisse eines Stakeholderworkshops verwendet bei dem ÖSL von Stakeholdern kartiert wurden. Mittels dieser Kartierung wurden Landschaftseigenschaften untersucht, die eine besondere Bedeutung für die Bereitstellung der ÖSL haben. Es wurde weiterhin untersucht, inwieweit diese Landschaftseigenschaften im derzeitigen Management Plan priorisiert werden. Die Diskrepanz zwischen Landschaftseigenschaften, die zentral für die Bereitstellung von ÖSL sind, und denen, die derzeit im Management Plan berücksichtigt werden, kann Aufschluss über mögliche Zielkonflikte geben und kann zudem dabei helfen, künftige Planungsprioritäten festzulegen, etwa indem Vorranggebiete für bestimmte ÖSL ausgewiesen werden. Diese Arbeit untersucht die Eignung von sozio-kulturellen Bewertungsmethoden für die Operationalisierung von ÖSL in Landschafts- und Raumplanung. In diesem Zusammenhang liefert die Arbeit neue Erkenntnisse darüber, inwiefern derzeit sozio-kulturellen Werten in ÖSL-Bewertungsstudien berücksichtigt werden. Sie zeigt Möglichkeiten und Grenzen von verschiedenen anerkannten sozio-kulturellen Bewertungsmethoden auf und ermöglicht ein besseres Verständnis über deren Abgrenzung zu Landschaftspräferenzen. Schließlich präsentiert diese Arbeit einen komplexen methodischen Ansatz, um ÖSL-Forschung in die Landschafts- und Raumplanung zu integrieren. KW - non-monetary valuation KW - participatory mapping KW - PPGIS KW - landscape preferences KW - nicht-monetäre Bewertung KW - PPGIS KW - Landschaftspräferenzen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411049 ER - TY - THES A1 - Wagner, Mario T1 - Industrie 4.0 und demografische Entwicklung aus strukturationstheoretischer Sicht T1 - Industry 4.0 and demographic development from a structural theory perspective BT - Praxiserfahrungen und Handlungsempfehlungen BT - practical experience and recommendations for action N2 - Das Ziel der Arbeit ist die Entwicklung eines heuristischen Bezugsrahmens zur Erklärung der Komplexität im Kontext von Industrie 4.0 und der demografischen Entwicklung aus strukturationstheoretischer Sicht. Dabei sind in Bezug auf die zukünftig zu erwartenden kognitiven Anforderungen an die Beschäftigten die Fragen essentiell, vor welchen Herausforderungen Unternehmen bezüglich der Einstellung und dem Verhalten sowie dem Erfahrungswissen der Beschäftigten stehen und welche Lösungsansätze sich im Umgang mit den Herausforderungen in der Praxis bisher als hilfreich erweisen. In Kapitel 1 erfolgt zunächst die Beschreibung der Ausgangslage. Es werden die Begriffe Industrie 4.0 und demografische Entwicklung inhaltlich diskutiert und in einen theoretischen Zusammenhang gebracht. In Kapitel 2 erfolgt die theoretische Fundierung der Arbeit. Dabei wird eine strukturationstheoretische Sicht auf Unternehmen als soziotechnische Systeme eingenommen. Durch diese „nicht deterministische“ Sichtweise wird ein prozessualer Blick auf den Wandlungsprozess in Unternehmen geschaffen, der es möglich macht, die Beschäftigten als aktiv handelnde Akteure im Sinne von „organisieren“ zur Erklärung möglicher Zusammenhänge zwischen Industrie 4.0 und der demografischen Entwicklung mit einzubeziehen. Der soziotechnische Systemansatz und die Strukturationstheorie bilden in diesem Sinne den „Kern“ des zu entwickelnden heuristischen Bezugsrahmens. Die inhaltliche Gestaltung des theoriebasierten heuristischen Bezugsrahmens erfolgt in Kapitel 3 und Kapitel 4. Kapitel 3 beschreibt ausgewählte Aspekte zukünftiger Anforderungen an die Arbeit, die durch eine systematische Aufbereitung des derzeitigen Forschungsstandes zu Industrie 4.0 ermittelt wurden. Sie bilden die „Gestaltungsgrenzen“, innerhalb derer sich je nach betrieblicher Situation unterschiedliche neue oder geänderte Anforderungen an die Beschäftigten bei der Gestaltung von Industrie 4.0 ableiten lassen. In Kapitel 4 werden ausgewählte Aspekte menschlichen Handelns am Beispiel älterer Beschäftigter in Form zweier Schwerpunkte beschrieben. Der erste Schwerpunkt betrifft mögliche Einflussfaktoren auf die Einstellung und das Verhalten älterer Beschäftigter im Wandlungsprozess aufgrund eines vorherrschenden Altersbildes im Unternehmen. Grundlage hierzu bildete die Stigmatisierungstheorie als interaktionistischer Ansatz der Sozialtheorie. Mit dem zweiten Schwerpunkt, den ausgewählten handlungstheoretischen Aspekten der Alternsforschung aus der Entwicklungspsychologie, wird eine Lebensspannenperspektive eingenommen. Inhaltlich werden die komplexitätsinduzierten Faktoren, die sich aus handlungstheoretischer Perspektive mit der Adaptation von älteren Beschäftigten an veränderte äußere und persönliche Lebensbedingungen beschäftigen, systematisiert. Anschließend wird auf Grundlage der bisherigen theoretischen Vorüberlegungen ein erster theoriebasierter Bezugsrahmen abgeleitet. Kapitel 5 und Kapitel 6 beschreiben den empirischen Teil, die Durchführung teilstrukturierter Interviews, der Arbeit. Ziel der empirischen Untersuchung war es, neben der theoretischen Fundierung den theoriebasierten heuristischen Bezugsrahmen um Praxiserfahrungen zu konkretisieren und gegebenenfalls zu ergänzen. Hierzu wurde auf Grundlage des theoriebasierten heuristischen Bezugsrahmens mittels teilstrukturierter Interviews das Erfahrungswissen von 23 Experten in persönlichen Gesprächen abgefragt. Nachdem in Kapitel 5 die Vorgehensweise der empirischen Untersuchung beschrieben wird, erfolgt in Kapitel 6 die Beschreibung der Ergebnisse aus der qualitativen Befragung. Hierzu werden aus den persönlichen Gesprächen zentrale Einflussfaktoren bei der Gestaltung und Umsetzung von Industrie 4.0 im Kontext mit der demografischen Entwicklung analysiert und in die übergeordneten Kategorien Handlungskompetenzen, Einstellung/ Verhalten sowie Erfahrungswissen geclustert. Anschließend wird der theoriebasierte heuristische Bezugsrahmen durch die übergeordneten Kategorien und Faktoren aus den Expertengesprächen konkretisiert und ergänzt. In Kapitel 7 werden auf Grundlage des heuristischen Bezugsrahmens sowie der Empfehlungen aus den Experteninterviews beispielhaft Implikationen für die Praxis abgeleitet. Es werden Interventionsmöglichkeiten zur Unterstützung einer positiven Veränderungsbereitschaft und einem positiven Veränderungsverhalten für den Strukturwandel aufgezeigt. Hierzu gehören die Anpassung des Führungsverhaltens im Wandlungsprozess, der Umgang mit der Paradoxie von Stabilität und Flexibilität, der Umgang mit Altersstereotypen in Unternehmen, die Unterstützung von Strategien zu Selektion, Optimierung und Kompensation sowie Maßnahmen zur Ausrichtung von Aktivitäten an die Potenzialrisiken der Beschäftigten. Eine Zusammenfassung, ein Resümee und ein Ausblick erfolgen abschließend in Kapitel 8. N2 - The aim of the work is to develop a heuristic frame of reference to explain complexity in the context of industry 4.0 and demographic development from a structural theory perspective. With regard to the cognitive requirements to be expected from employees in the future, it is essential to ask which challenges companies face in terms of attitude and behaviour, as well as the experience and knowledge of their employees, and which approaches have so far proved helpful in dealing with these challenges in practice. In Chapter 1, the current situation is described first. The terms industry 4.0 and demographic development are discussed and brought into a theoretical context. In Chapter 2 , the theoretical foundation of the work is given. In doing so, a structure-theoretical view of companies as socio-technical systems is adopted. This "non-deterministic" view creates a process view of the process of change in companies, which makes it possible to include employees as actively acting actors in the sense of "organising" in an explanation of possible connections between industry 4.0 and demographic development. In this sense, the socio-technical systems approach and the structuring theory form the "core" of the heuristic reference framework to be developed. The content of the theory-based heuristic frame of reference follows in Chapter 3 and Chapter 4. Chapter 3 describes selected aspects of future work requirements, which were determined by a systematic preparation of the current state of research on Industry 4.0. They form the "design limits" within which different new or changed demands on employees in the design of Industry 4.0 can be derived, depending on the operational situation. In Chapter 4, selected aspects of human activity are described using the example of older employees in the form of two focal points. The first focus concerns possible influencing factors on the attitude and behaviour of older employees in the change process due to a prevailing age structure in the company. The basis for this was the stigmatisation theory as an interactionist approach of social theory. The second focus, the selected action-theoretical aspects of ageing research from developmental psychology, takes a life span perspective. The complexity-induced factors that deal with the adaptation of older employees to changed external and personal living conditions from an action-theoretical perspective are systematized. Subsequently, a first theory-based frame of reference is derived on the basis of previous theoretical preliminary considerations. Chapters 5 and 6 describe the empirical part, conducting semi-structured interviews, of the work. The aim of the empirical study was, in addition to the theoretical foundation, to concretise the theory-based heuristic frame of reference with practical experience and, if necessary, to supplement it. Based on the theory-based heuristic frame of reference, the experience of 23 experts was tested in personal interviews by means of partially-structured interviews. After Chapter 5 describes the procedure of the empirical investigation, Chapter 6 describes the results of the qualitative survey. For this purpose, the personal conversations become influential factors in the design and implementation of Industry 4.0 in the context of demographic development were analysed and clustered into the superordinate categories of action competence, attitude/behaviour and empirical knowledge. Subsequently, the theory-based heuristic frame of reference is concretised and supplemented by the superordinate categories and factors from the expert discussions. In Chapter 7 , exemplary implications for practice are derived on the basis of the heuristic reference framework and the recommendations from the expert interviews. Possibilities for intervention to support a positive willingness to change and a positive change behaviour for the structural change are then pointed out. These include; adapting management behavior in the change process, dealing with the paradox of stability and flexibility, dealing with age stereotypes in companies, supporting strategies for selection, optimization and compensation, and measures to align activities with the potential risks of employees. In conclusion, a summary, a precis and an outlook will then be given in Chapter 8. KW - Industrie 4.0 KW - demografische Entwicklung KW - Strukturationstheorie KW - Veränderungsverhalten KW - Veränderungsbereitschaft KW - Arbeitsverhalten KW - demographic change KW - structuration theory KW - change readiness KW - change behavior Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412230 ER - TY - THES A1 - Paape, Dario L. J. F. T1 - Antecedent complexity effects on ellipsis processing T1 - Einflüsse der Antezedenskomplexität auf die Verarbeitung von Ellipsen N2 - This dissertation explores whether the processing of ellipsis is affected by changes in the complexity of the antecedent, either due to added linguistic material or to the presence of a temporary ambiguity. Murphy (1985) hypothesized that ellipsis is resolved via a string copying procedure when the antecedent is within the same sentence, and that copying longer strings takes more time. Such an account also implies that the antecedent is copied without its structure, which in turn implies that recomputing its syntax and semantics may be necessary at the ellipsis gap. Alternatively, several accounts predict null effects of antecedent complexity, as well as no reparsing. These either involve a structure copying mechanism that is cost-free and whose finishing time is thus independent of the form of the antecedent (Frazier & Clifton, 2001), treat ellipsis as a pointer into content-addressable memory with direct access (Martin & McElree, 2008, 2009), or assume that one structure is ‘shared’ between antecedent and gap (Frazier & Clifton, 2005). In a self-paced reading study on German sluicing, temporarily ambiguous garden-path clauses were used as antecedents, but no evidence of reparsing in the form of a slowdown at the ellipsis site was found. Instead, results suggest that antecedents which had been reanalyzed from an initially incorrect structure were easier to retrieve at the gap. This finding that can be explained within the framework of cue-based retrieval parsing (Lewis & Vasishth, 2005), where additional syntactic operations on a structure yield memory reactivation effects. Two further self-paced reading studies on German bare argument ellipsis and English verb phrase ellipsis investigated if adding linguistic content to the antecedent would increase processing times for the ellipsis, and whether insufficiently demanding comprehension tasks may have been responsible for earlier null results (Frazier & Clifton, 2000; Martin & McElree, 2008). It has also been suggested that increased antecedent complexity should shorten rather than lengthen retrieval times by providing more unique memory features (Hofmeister, 2011). Both experiments failed to yield reliable evidence that antecedent complexity affects ellipsis processing times in either direction, irrespectively of task demands. Finally, two eye-tracking studies probed more deeply into the proposed reactivation-induced speedup found in the first experiment. The first study used three different kinds of French garden-path sentences as antecedents, with two of them failing to yield evidence for reactivation. Moreover, the third sentence type showed evidence suggesting that having failed to assign a structure to the antecedent leads to a slowdown at the ellipsis site, as well as regressions towards the ambiguous part of the sentence. The second eye-tracking study used the same materials as the initial self-paced reading study on German, with results showing a pattern similar to the one originally observed, with some notable differences. Overall, the experimental results are compatible with the view that adding linguistic material to the antecedent has no or very little effect on the ease with which ellipsis is resolved, which is consistent with the predictions of cost-free copying, pointer-based approaches and structure sharing. Additionally, effects of the antecedent’s parsing history on ellipsis processing may be due to reactivation, the availability of multiple representations in memory, or complete failure to retrieve a matching target. N2 - Diese Dissertation untersucht, ob die Verarbeitung elliptischer Strukturen von Veränderungen der Komplexität des Antezedens beeinflusst wird, entweder durch zusätzliches linguistisches Material oder durch die Präsenz einer temporären Ambiguität. Murphy (1985) stellte die Hypothese auf, dass Ellipsen durch das Kopieren von Zeichenketten aufgelöst werden, sofern das Antezedens sich im selben Satz befindet, und dass das Kopieren längerer Zeichenketten mehr Zeit in Anspruch nimmt. Ein solcher Ansatz impliziert auch, dass das Antezedens ohne seine Struktur kopiert wird, was wiederum impliziert, dass seine Struktur und Semantik an der Auslassungsstelle möglicherweise erneut berechnet werden müssen. Alternativ existieren mehrere Ansätze, die Nulleffekte der Antezedenskomplexität sowie keine strukturelle Neuberechnung vorhersagen. Diese Ansätze involvieren entweder einen Mechanismus, der die bestehende Struktur kostenfrei überträgt und dessen Latenz von der Form des Antezedens unabhängig ist (Frazier & Clifton, 2001), behandeln die Ellipse als Verweis in einen inhaltsadressierbaren Gedächtnisspeicher (Martin & McElree, 2008, 2009) oder nehmen an, dass die Struktur des Antezedens mit der Ellipse "geteilt" wird (Frazier & Clifton, 2005). In einer Self-Paced Reading-Studie mit deutschen Sluicing-Strukturen wurden temporär ambige Garden Path-Sätze als Antezedenten verwendet, es konnte aber keine Evidenz für strukturelle Neuberechnung in Form höherer Lesezeiten am Punkt der Ellipse gefunden werden. Stattdessen zeigte sich, dass Antezedenten, deren ursprünglich inkorrekt zugewiesene Strukturen reanalysiert worden waren, am Punkt der Ellipse leichter abzurufen waren. Dieses Resultat kann im Kontext des Cue-Based Retrieval Parsing (Lewis & Vasishth, 2005) erklärt werden, wo zusätzliche syntaktische Operationen auf einer Struktur zur Stärkung der assoziierten Gedächtnisspur führen. Zwei weitere Self-Paced Reading-Studien zu deutschen Bare Argument-Ellipsen und englischen VP-Ellipsen sollten ausloten, ob zusätzliches linguistisches Material im Antezedens zu längeren Verarbeitungszeiten für die Ellipse führen würde und ob zu wenig fordernde Verständnistests der Grund für frühere Nullresultate waren (Frazier & Clifton, 2000; Martin & McElree, 2008). Auch gibt es die Theorie, dass erhöhte Komplexität des Antezedens Abrufzeiten verkürzen und nicht verlangsamen sollte, da mehr einzigartige Gedächtnismerkmale zur Verfügung stehen (Hofmeister, 2011). Beide Experimente lieferten keine Evidenz für einen Einfluss der Antezedenskomplexität auf die Verarbeitungszeit der Ellipse in die eine oder in die andere Richtung, unabhängig von der Aufgabenschwierigkeit. Schließlich wurde in zwei Eyetracking-Studien der in der ersten Studie beschriebene Reaktivierungseffekt genauer betrachtet. Die erste dieser Studien verwendete drei verschiedene Typen von Garden Path-Strukturen im Französischen als Antezedenten, von denen zwei keine Evidenz für Reaktivierung zeigten. Darüber hinaus zeigte die dritte getestete Struktur Evidenz dafür, dass eine Verlangsamung am Punkt der Ellipse sowie Regressionen zum Antezedens auftreten, wenn dem Antezedens anfänglich keine Struktur zugewiesen wurde. Die zweite Eyetracking-Studie verwendete dieselben deutschen Materialen wie die ursprüngliche Self-Paced Reading-Studie, mit größtenteils ähnlichen Resultaten und einigen beachtenswerten Abweichungen. Insgesamt sind die experimentellen Ergebnisse mit der Ansicht kompatibel, dass das Hinzufügen von linguistischen Material zum Antezedens keine oder nur sehr minimale Effekte auf die Verarbeitungszeit der Ellipse hat, was mit den Vorhersagen auf Basis eines kostenfreien Kopiermechanismus, eines inhaltsadressierten Gedächtnisspeichers oder einer "geteilten" Struktur übereinstimmt. Effekte, die sich aus der Verarbeitungsgeschichte des Antezedens ergeben, sind möglicherweise auf Reaktivierung, das Vorhandensein mehrerer Gedächtnisspuren oder ein komplettes Scheitern des Gedächtnisabrufs zurückzuführen. KW - ellipsis KW - antecedent complexity KW - psycholinguistics KW - task demands KW - garden path KW - Ellipse KW - Psycholinguistik KW - Temporäre Ambiguität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411689 ER - TY - THES A1 - Bredow, Eva T1 - Geodynamic models of plume-ridge interaction T1 - Geodynamische Modelle der Interaktion von Plumes und Mittelozeanischen Rücken BT - case studies of the Réunion, Iceland and Kerguelen mantle plumes BT - Fallstudien der Réunion-, Island- und Kerguelen-Mantleplumes N2 - According to the classical plume hypothesis, mantle plumes are localized upwellings of hot, buoyant material in the Earth’s mantle. They have a typical mushroom shape, consisting of a large plume head, which is associated with the formation of voluminous flood basalts (a Large Igneous Province) and a narrow plume tail, which generates a linear, age-progressive chain of volcanic edifices (a hotspot track) as the tectonic plate migrates over the relatively stationary plume. Both plume heads and tails reshape large areas of the Earth’s surface over many tens of millions of years. However, not every plume has left an exemplary record that supports the classical hypothesis. The main objective of this thesis is therefore to study how specific hotspots have created the crustal thickness pattern attributed to their volcanic activities. Using regional geodynamic models, the main chapters of this thesis address the challenge of deciphering the three individual (and increasingly complex) Réunion, Iceland, and Kerguelen hotspot histories, especially focussing on the interactions between the respective plume and nearby spreading ridges. For this purpose, the mantle convection code ASPECT is used to set up three-dimensional numerical models, which consider the specific local surroundings of each plume by prescribing time-dependent boundary conditions for temperature and mantle flow. Combining reconstructed plate boundaries and plate motions, large-scale global flow velocities and an inhomogeneous lithosphere thickness distribution together with a dehydration rheology represents a novel setup for regional convection models. The model results show the crustal thickness pattern produced by the plume, which is compared to present-day topographic structures, crustal thickness estimates and age determinations of volcanic provinces associated with hotspot activity. Altogether, the model results agree well with surface observations. Moreover, the dynamic development of the plumes in the models provide explanations for the generation of smaller, yet characteristic volcanic features that were previously unexplained. Considering the present-day state of a model as a prediction for the current temperature distribution in the mantle, it cannot only be compared to observations on the surface, but also to structures in the Earth’s interior as imaged by seismic tomography. More precisely, in the case of the Réunion hotspot, the model demonstrates how the distinctive gap between the Maldives and Chagos is generated due to the combination of the ridge geometry and plume-ridge interaction. Further, the Rodrigues Ridge is formed as the surface expression of a long-distance sublithospheric flow channel between the upwelling plume and the closest ridge segment, confirming the long-standing hypothesis of Morgan (1978) for the first time in a dynamic context. The Réunion plume has been studied in connection with the seismological RHUM-RUM project, which has recently provided new seismic tomography images that yield an excellent match with the geodynamic model. Regarding the Iceland plume, the numerical model shows how plume material may have accumulated in an east-west trending corridor of thin lithosphere across Greenland and resulted in simultaneous melt generation west and east of Greenland. This provides an explanation for the extremely widespread volcanic material attributed to magma production of the Iceland hotspot and demonstrates that the model setup is also able to explain more complicated hotspot histories. The Iceland model results also agree well with newly derived seismic tomographic images. The Kerguelen hotspot has an extremely complex history and previous studies concluded that the plume might be dismembered or influenced by solitary waves in its conduit to produce the reconstructed variable melt production rate. The geodynamic model, however, shows that a constant plume influx can result in a variable magma production rate if the plume interacts with nearby mid-ocean ridges. Moreover, the Ninetyeast Ridge in the model is created by on-ridge activities, while the Kerguelen plume was located beneath the Australian plate. This is also a contrast to earlier studies, which described the Ninetyeast Ridge as the result of the Indian plate passing over the plume. Furthermore, the Amsterdam-Saint Paul Plateau in the model is the result of plume material flowing from the upwelling toward the Southeast Indian Ridge, whereas previous geochemical studies attributed that volcanic province to a separate deep plume. In summary, the three case studies presented in this thesis consistently highlight the importance of plume-ridge interaction in order to reconstruct the overall volcanic hotspot record as well as specific smaller features attributed to a certain hotspot. They also demonstrate that it is not necessary to attribute highly complicated properties to a specific plume in order to account for complex observations. Thus, this thesis contributes to the general understanding of plume dynamics and extends the very specific knowledge about the Réunion, Iceland, and Kerguelen mantle plumes. N2 - Nach der klassischen Plume-Hypothese sind Mantelplumes lokalisierte Aufströme aus heißem, aufsteigenden Material im Erdmantel und haben eine typische pilzförmige Struktur. Sie bestehen aus einem großen Plume-Kopf, der mit der Bildung von voluminösen Flutbasalten (einer Magmatischen Großprovinz) assoziiert wird und einem engen Plume-Schlauch, der eine lineare Kette von Vulkanen mit aufsteigendem Alter (einen Hotspot-Track) erzeugt, indem die tektonische Platte über den relativ stationären Plume wandert. Sowohl Plume-Köpfe als auch Plume-Schläuche formen große Gebiete der Erdoberfläche über viele zehn Millionen Jahre um. Allerdings hat nicht jeder Plume mustergültige Spuren hinterlassen, die die klassische Hypothese unterstützen. Das Hauptziel dieser Arbeit ist daher zu untersuchen, wie ein spezifischer Hotspot den ihm zugeordneten Hotspot-Track erzeugt hat. Mit Hilfe regionaler geodynamischer Modelle stellen sich die Hauptkapitel dieser Arbeit der Herausforderung, die drei individuellen (und zunehmend komplexen) Geschichten des Réunion-, Island- und Kerguelen-Hotspots zu entschlüsseln, wobei insbesondere die Wechselwirkungen zwischen dem jeweiligen Plume und nahegelegenen Mittelozeanischen Rücken im Mittelpunkt stehen. Zu diesem Zweck wird der Mantelkonvektions-Code ASPECT verwendet, um dreidimensionale numerische Modelle zu erstellen, die die spezielle lokale Umgebung jedes Plumes berücksichtigen, indem zeitabhängige Randbedingungen für Temperatur und Mantelströmung vorgeschrieben werden. Die Kombination von rekonstruierten Plattengrenzen und Plattenbewegungen, großräumigen globalen Strömungsgeschwindigkeiten und einer inhomogenen Lithosphärendickenverteilung zusammen mit einer Dehydrierungs-Rheologie stellt eine neue Konfiguration für regionale Konvektionsmodelle dar. Die Modellergebnisse zeigen die vom Plume produzierte Verteilung von vulkanischem Material, die mit heutigen topographischen Strukturen, Schätzungen der Krustendicke und Altersbestimmungen vulkanischer Provinzen verglichen wird. Insgesamt stimmen die Modellergebnisse gut mit den Oberflächenbeobachtungen überein. Darüber hinaus liefert die dynamische Entwicklung der Plumes in den Modellen Erklärungen für die Erzeugung kleinerer, aber charakteristischer vulkanischer Strukturen, deren Herkunft bisher unerklärt war. Betrachtet man den heutigen Zustand eines Modells als Vorhersage für die aktuelle Temperaturverteilung im Mantel, kann man ihn nicht nur mit Beobachtungen an der Oberfläche vergleichen, sondern auch mit Strukturen im Erdinneren, wie sie durch seismische Tomographie abgebildet werden. Genauer gesagt zeigt das Modell im Falle des Réunion-Hotspots, wie die charakteristische Lücke zwischen den Malediven und Chagos aufgrund der Kombination der Geometrie des Mittelozeanischen Rückens und der Interaktion zwischen Plume und Rücken erzeugt wird. Des Weiteren wird der Rodrigues-Rücken als Oberflächenerscheinung eines sublithosphärischen Strömungskanals zwischen dem aufsteigenden Plume und dem nächstgelegenen Segment des Mittelozeanischen Rückens gebildet, was die langjährige Hypothese von Morgan (1978) zum ersten Mal in einem dynamischen Kontext bestätigt. Der Réunion-Plume wurde im Rahmen des seismo- logischen RHUM-RUM-Projektes untersucht, das kürzlich neue seismische Tomographiebilder ergeben hat, die eine exzellente Übereinstimmung mit dem geodynamischen Modell aufweisen. Was den Island-Plume betrifft, so zeigt das numerische Modell, wie sich Plume-Material in einem von Ost nach West verlaufenden Korridor dünner Lithosphäre in Grönland angesammelt haben könnte und zu einer gleichzeitigen Schmelzerzeugung westlich und östlich von Grönland geführt hat. Dies erklärt das extrem weit verbreitete vulkanische Material, das der Magmaproduktion des Island-Hotspots zugeschrieben wird, und demonstriert, dass der Modell-Aufbau auch kompliziertere Hotspot-Geschichten erklären kann. Die Ergebnisse des Island-Modells stimmen ebenfalls gut mit neu erzeugten seismischen Tomographiebildern überein. Der Kerguelen-Hotspot hat eine äußerst komplexe Geschichte und frühere Studien kamen zu dem Schluss, dass der Plume eine zerrissene Struktur oder durch einzelne Wellen im Schlauch beeinflusst sein könnte, um die rekonstruierte variable Schmelzproduktionsrate zu erzeugen. Das geodynamische Modell zeigt jedoch, dass ein konstanter Plume-Einstrom zu einer variablen Magmaproduktionsrate führen kann, wenn der Plume mit nahegelegenen mittelozeanischen Rücken interagiert. Darüber hinaus wird der Neunzig-Grad-Ost-Rücken im Modell am Mittelozeanischen Rücken erschaffen, während der Kerguelen-Plume unter der australischen Platte lag. Dies steht auch im Gegensatz zu früheren Studien, die den Neunzig-Grad-Ost-Rücken als Ergebnis der über den Plume wandernden indischen Platte beschrieben haben. Darüber hinaus ist das Amsterdam-Saint Paul-Plateau im Modell das Ergebnis von Plume-Material, das von der Aufstiegsregion in Richtung des Südostindischen Rückens fließt, wohingegen frühere geochemische Studien diese vulkanische Provinz einem separaten tiefen Plume zugeschrieben haben. Zusammenfassend verdeutlichen die drei in dieser Arbeit präsentierten Fallstudien die Bedeutung der Interaktion zwischen Plume und Mittelozeanischen Rücken für die Rekonstruktion der Verteilung des gesamten vom Hotspot erzeugten vulkanischen Materials sowie von spezifischen kleineren Strukturen, die einem bestimmten Hotspot zugeordnet sind. Es wird auch gezeigt, dass es nicht notwendig ist, einem bestimmten Plume hochkomplizierte Eigenschaften zuzuschreiben, um komplexe Beobachtungen zu erklären. Somit trägt diese Arbeit zum allgemeinen Verständnis der Dynamik von Plumes bei und erweitert das sehr spezifische Wissen über die Réunion-, Island-, und Kerguelen-Mantelplumes. KW - geodynamic models KW - plume-ridge interaction KW - Réunion KW - Iceland KW - Kerguelen KW - mantle plumes KW - geodynamische Modelle KW - Plume-Rücken Interaktion KW - Réunion KW - Island KW - Kerguelen KW - Mantleplumes Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411732 ER - TY - THES A1 - Kaliga, Sarah Ninette T1 - Eine Frage der Zeit. Wie Einflüsse individueller Merkmale auf Einkommen bei Frauen über ihre familiären Verpflichtungen vermittelt werden T1 - A question of time. How the influence of individual characteristics on women’s income is conveyed through their family responsibilities BT - eine Untersuchung mit Daten der LifE-Studie BT - an analysis with data from the LifE study N2 - Die vorliegende Arbeit mit dem Titel „Eine Frage der Zeit. Wie Einflüsse individueller Merkmale auf Einkommen bei Frauen über ihre familiären Verpflichtungen vermittelt werden“ geht der Frage der Heterogenität bei weiblichen Einkommensergebnissen nach. Dabei steht die Thematik der individuellen Investitionen in die familiäre Arbeit als erklärender Faktor im Vordergrund und es wird der Frage nachgegangen, warum die einen Frauen viele und andere weniger häusliche Verpflichtungen übernehmen. Hierfür werden das individuelle Humankapital der Frauen, ihre Werteorientierungen und individuelle berufliche Motivationen aus der Jugendzeit und im Erwachsenenalter herangezogen. Die analysierten Daten (Daten der LifE-Studie) repräsentieren eine Langzeitperspektive vom 16. bis zum 45. Lebensjahr der befragten Frauen. Zusammenfassend kann im Ergebnis gezeigt werden, dass ein Effekt familiärer Verpflichtungen auf Einkommensergebnisse bei Frauen im frühen und mittleren Erwachsenenalter als Zeiteffekt über die investierte Erwerbsarbeitszeit vermittelt wird. Die Relevanz privater Routinearbeiten für Berufserfolge von Frauen und insbesondere Müttern stellt somit eine Frage der Zeit dar. Weiterhin kann für individuelle Einflüsse auf Einkommen bei Frauen gezeigt werden, dass höhere zeitliche Investitionen in den Beruf von Frauen mit hohem Bildungsniveau als indirect-only-Mediation nur über die Umverteilung häuslicher Arbeiten erklärbar werden. Frauen sind demnach zwar Gewinnerinnen der Bildungsexpansion. Die Bildungsexpansion stellt jedoch auch die Geschichte der Entstehung eines Vereinbarkeitskonflikts für eben diese Frauen dar, weil die bis heute virulenten Beharrungskräfte hinsichtlich der Frauen zugeschriebenen familiären Verpflichtungen mit ihren gestiegenen beruflichen Erwartungen und Chancen kollidieren. Die Arbeit leistet in ihren Analyseresultaten einen wichtigen Beitrag zur Erklärung heterogener Investitionen von Frauen in den Beruf und ihrer Einkommensergebnisse aus dem Privaten heraus. N2 - The present work entitled „A question of time. How the influence of individual characteristics on women’s income is conveyed through their family responsibilities“ examines the question of the heterogenity of female income results. The topic of individual investment in family work is at the forefront as an explanatory factor and the question is why some women assume many and other less domestic obligations. For this purpose, the individual human capital of women, their value orientations and individual professional motivations from adolescence and adulthood are used. The analysed data (data from the LifE-Study) represent a long-term perspective from the 16th to the 45th year of life of the women surveyed. In summary, it can be shown that an effect of family responsibilities on income outcomes for women in early and middle adulthood is conveyed as a time effect over imvested working time. The relevance of private routine work for the professional success of women and especially mothers is therefore a question of time. Furthermore, it can be shown for individual influences on women’s income, that higher investments in the occupation of women with a high educational level can only be explained by the redistribution of domestic work as an indirect-only-mediation. According to this, women are winners in the expansion of education, however, the expansion of education also represents the history of emergence of a conflict of reconciliation for precisely these women, because the family obligations ascribed to women, which are still virulent today, conflict with their increased professional expectations and opportunities. The analysis results of this work make an important contribution to explaining women’s heterogeneous investments in the profession and their income results from the private sphere. KW - Einkommen KW - income KW - Frauen KW - women KW - domestic work KW - Hausarbeit KW - family work KW - Familienarbeit KW - mediation analysis KW - Mediationsanalyse KW - occupational career KW - Berufskarriere KW - human capital KW - Humankapital KW - educational expansion KW - Bildungsexpansion KW - Arbeitsteilung KW - division of labour Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407353 ER - TY - THES A1 - Foti, Alessandro T1 - Characterization of the human aldehyde oxidase T1 - Charakterisierung der menschlichen Aldehydoxidase BT - Studies on the FAD active site and ROS generation N2 - In this work the human AOX1 was characterized and detailed aspects regarding the expression, the enzyme kinetics and the production of reactive oxygen species (ROS) were investigated. The hAOX1 is a cytosolic enzyme belonging to the molybdenum hydroxylase family. Its catalytically active form is a homodimer with a molecular weight of 300 kDa. Each monomer (150 kDa) consists of three domains: a N-terminal domain (20 kDa) containing two [2Fe-2S] clusters, a 40 kDa intermediate domain containing a flavin adenine dinucleotide (FAD), and a C-terminal domain (85 kDa) containing the substrate binding pocket and the molybdenum cofactor (Moco). The hAOX1 has an emerging role in the metabolism and pharmacokinetics of many drugs, especially aldehydes and N- heterocyclic compounds. In this study, the hAOX1 was hetereogously expressed in E. coli TP1000 cells, using a new codon optimized gene sequence which improved the expressed protein yield of around 10-fold compared to the previous expression systems for this enzyme. To increase the catalytic activity of hAOX1, an in vitro chemical sulfuration was performed to favor the insertion of the equatorial sulfido ligand at the Moco with consequent increased enzymatic activity of around 10-fold. Steady-state kinetics and inhibition studies were performed using several substrates, electron acceptors and inhibitors. The recombinant hAOX1 showed higher catalytic activity when molecular oxygen was used as electron acceptor. The highest turn over values were obtained with phenanthridine as substrate. Inhibition studies using thioridazine (phenothiazine family), in combination with structural studies performed in the group of Prof. M.J. Romão, Nova Universidade de Lisboa, showed a new inhibition site located in proximity of the dimerization site of hAOX1. The inhibition mode of thioridazine resulted in a noncompetitive inhibition type. Further inhibition studies with loxapine, a thioridazine-related molecule, showed the same type of inhibition. Additional inhibition studies using DCPIP and raloxifene were carried out. Extensive studies on the FAD active site of the hAOX1 were performed. Twenty new hAOX1 variants were produced and characterized. The hAOX1 variants generated in this work were divided in three groups: I) hAOX1 single nucleotide polymorphisms (SNP) variants; II) XOR- FAD loop hAOX1 variants; III) additional single point hAOX1 variants. The hAOX1 SNP variants G46E, G50D, G346R, R433P, A439E, K1231N showed clear alterations in their catalytic activity, indicating a crucial role of these residues into the FAD active site and in relation to the overall reactivity of hAOX1. Furthermore, residues of the bovine XOR FAD flexible loop (Q423ASRREDDIAK433) were introduced in the hAOX1. FAD loop hAOX1 variants were produced and characterized for their stability and catalytic activity. Especially the variants hAOX1 N436D/A437D/L438I, N436D/A437D/L438I/I440K and Q434R/N436D/A437D/L438I/I440K showed decreased catalytic activity and stability. hAOX1 wild type and variants were tested for reactivity toward NADH but no reaction was observed. Additionally, the hAOX1 wild type and variants were tested for the generation of reactive oxygen species (ROS). Interestingly, one of the SNP variants, hAOX1 L438V, showed a high ratio of superoxide prodction. This result showed a critical role for the residue Leu438 in the mechanism of oxygen radicals formation by hAOX1. Subsequently, further hAOX1 variants having the mutated Leu438 residue were produced. The variants hAOX1 L438A, L438F and L438K showed superoxide overproduction of around 85%, 65% and 35% of the total reducing equivalent obtained from the substrate oxidation. The results of this work show for the first time a characterization of the FAD active site of the hAOX1, revealing the importance of specific residues involved in the generation of ROS and effecting the overall enzymatic activity of hAOX1. The hAOX1 SNP variants presented here indicate that those allelic variations in humans might cause alterations ROS balancing and clearance of drugs in humans. N2 - Aldehydoxidasen (AOX) sind Molybdo-enzyme, die durch breite Substratspezifität gekennzeichnet sind, aromatische/aliphatische Aldehyde in die entsprechenden Carbonsäuren oxidieren und verschiedene heteroaromatische Ringe hydroxylieren. Die Enzyme verwenden Sauerstoff als terminalen Elektronenakzeptor und produzieren reduzierte Sauerstoffspezies während des Umsatzes. Die physiologische Funktion von Säugetier-AOX-Isoenzymen ist noch unklar, aber menschliches AOX (hAOX1) ist ein Enzym von Phase-I-Wirkstoff-Metabolismus. Weiterhin, wurden zahlreiche Einzelnukleotidpolymorphismen (SNP) und weitere hAOX1-Mutanten im hAOX1-Gen identifiziert. SNPs sind eine Hauptquelle für die interindividuelle Variabilität in der menschlichen Population, und SNP-basierte Aminosäureaustausche in hAOX1 modulieren die katalytische Funktion des Enzyms entweder positiv oder negativ. In diesem Bericht haben wir zehn neue SNPs ausgewählt, die zu Aminosäureaustauschen in der Nähe der FAD-Cofaktor von hAOX1 führen und die gereinigten Enzyme nach heterologen Expression in Escherichia coli charakterisieren. Darüber hinaus haben wir zehn weitere FAD-Varianten produziert. Die hAOX1-Varianten wurden sorgfältig durch quantitative Unterschiede in ihrer Fähigkeit zur Herstellung von Superoxidradikal charakterisiert. ROS repräsentieren markante Schlüsselmoleküle in physiologischen und pathologischen Zuständen in der Zelle. Unsere Daten zeigen signifikante Veränderungen der Superoxid-Anionenproduktion unter den Varianten. Insbesondere führte der Rest L438 in der Nähe des Isoalloxanzinringes des FAD-Cofaktors zu einer erhöhten Superoxid-Radikalproduktion von 75-85%. In Anbetracht der hohen Toxizität des Superoxid-Anions in der Zelle ist die hAOX1-L438V SNP-Variante ein eventueller Kandidat für kritische oder pathologische Rollen dieser natürlichen Variante innerhalb der menschlichen Population. KW - aldehyde KW - oxidase KW - ROS KW - reactive oxygen species Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410107 ER - TY - THES A1 - Doriti, Afroditi T1 - Sustainable bio-based poly-N-glycines and polyesters T1 - Nachhaltige biobasierte Poly-N-Glycine und Polyester N2 - Nowadays, the need to protect the environment becomes more urgent than ever. In the field of chemistry, this translates to practices such as waste prevention, use of renewable feedstocks, and catalysis; concepts based on the principles of green chemistry. Polymers are an important product in the chemical industry and are also in the focus of these changes. In this thesis, more sustainable approaches to make two classes of polymers, polypeptoids and polyesters, are described. Polypeptoids or poly(alkyl-N-glycines) are isomers of polypeptides and are biocompatible, as well as degradable under biologically relevant conditions. In addition to that, they can have interesting properties such as lower critical solution temperature (LCST) behavior. They are usually synthesized by the ring opening polymerization (ROP) of N-carboxy anhydrides (NCAs), which are produced with the use of toxic compounds (e.g. phosgene) and which are highly sensitive to humidity. In order to avoid the direct synthesis and isolation of the NCAs, N-phenoxycarbonyl-protected N-substituted glycines are prepared, which can yield the NCAs in situ. The conditions for the NCA synthesis and its direct polymerization are investigated and optimized for the simplest N-substituted glycine, sarcosine. The use of a tertiary amine in less than stoichiometric amounts compared to the N-phenoxycarbonyl--sarcosine seems to accelerate drastically the NCA formation and does not affect the efficiency of the polymerization. In fact, well defined polysarcosines that comply to the monomer to initiator ratio can be produced by this method. This approach was also applied to other N-substituted glycines. Dihydroxyacetone is a sustainable diol produced from glycerol, and has already been used for the synthesis of polycarbonates. Here, it was used as a comonomer for the synthesis of polyesters. However, the polymerization of dihydroxyacetone presented difficulties, probably due to the insolubility of the macromolecular chains. To circumvent the problem, the dimethyl acetal protected dihydroxyacetone was polymerized with terephthaloyl chloride to yield a soluble polymer. When the carbonyl was recovered after deprotection, the product was insoluble in all solvents, showing that the carbonyl in the main chain hinders the dissolution of the polymers. The solubility issue can be avoided, when a 1:1 mixture of dihydroxyacetone/ ethylene glycol is used to yield a soluble copolyester. N2 - Heutzutage wird die Notwendigkeit, die Umwelt zu schützen, dringender denn je. Auf dem Gebiet der Chemie bedeutet dies Praktiken wie Abfallvermeidung, Verwendung nachwachsender Rohstoffe und Katalyse, Konzepte, die auf den Prinzipien der grünen Chemie basierend sind. Polymere sind ein wichtiges Produkt in der chemischen Industrie und stehen auch im Fokus dieser Veränderungen. In dieser Arbeit werden nachhaltigere Ansätze zur Herstellung von zwei Klassen von Polymeren, Polypeptoiden und Polyestern beschrieben. Polypeptoide oder Poly (alkyl-N-glycine) sind Isomere von Polypeptiden und sind biokompatibel sowie unter biologisch relevanten Bedingungen abbaubar. Darüber hinaus können sie interessante Eigenschaften wie das LCST-Verhalten (Lower Critical Solution Temperature) aufweisen. Sie werden üblicherweise durch die Ringöffnungspolymerisation (ROP) von N-Carboxyanhydriden (NCAs) synthetisiert, die unter Verwendung von toxischen Verbindungen (z. B. Phosgen) hergestellt werden und die gegenüber Feuchtigkeit sehr empfindlich sind. Um die direkte Synthese und Isolierung der NCAs zu vermeiden, werden N-Phenoxycarbonyl-geschützte N-substituierte Glycine hergestellt, die die NCAs in situ liefern können. Die Bedingungen für die NCA-Synthese und ihre direkte Polymerisation wurden für das einfachste N-substituierte Glycin, Sarcosin, untersucht und optimiert. Die Verwendung eines tertiären Amins in weniger als stöchiometrischen Mengen im Vergleich zum N-Phenoxycarbonyl-Sarkosin scheint die NCA-Bildung drastisch zu beschleunigen und beeinflusst die Effizienz der Polymerisation nicht. In der Tat können mit diesem Verfahren gut definierte Polysarkosine hergestellt werden, die dem Verhältnis von Monomer zu Initiator entsprechen. Dieser Ansatz wurde auch auf andere N-substituierte Glycine angewendet. Dihydroxyaceton ist ein aus Glycerin hergestelltes, nachhaltiges Diol, das bereits für die Synthese von Polycarbonaten verwendet wurde. Hier wurde es als Comonomer für die Synthese von Polyestern verwendet. Die Polymerisation von Dihydroxyaceton zeigte jedoch Schwierigkeiten, wahrscheinlich aufgrund der Unlöslichkeit der makromolekularen Ketten. Um das Problem zu umgehen, wurde das Dimethylacetal-geschützte Dihydroxyaceton mit Terephthaloylchlorid polymerisiert, um ein lösliches Polymer zu ergeben. Wenn das Carbonyl nach der Entschützung zurückgewonnen wurde, war das Produkt in allen Lösungsmitteln unlöslich, was zeigt, dass das Carbonyl in der Hauptkette das Lösen der Polymere behindert. Das Löslichkeitsproblem kann vermieden werden, wenn eine 1: 1-Mischung von Dihydroxyaceton / Ethylenglycol verwendet wird, um einen löslichen Copolyester zu ergeben. KW - ROP KW - N-alkyl-glycine KW - polypeptoids KW - activated urethane KW - dihydroxyacetone KW - polycondensation KW - polyesters KW - Ringöffnungspolymerisation KW - N-Alkylglycin KW - Polypeptoide KW - aktiviertes Urethan KW - Dihydroxyaceton KW - Polykondensation KW - Polyester Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411286 ER - TY - THES A1 - Zieger, Tobias T1 - Self-adaptive data quality BT - automating duplicate detection N2 - Carrying out business processes successfully is closely linked to the quality of the data inventory in an organization. Lacks in data quality lead to problems: Incorrect address data prevents (timely) shipments to customers. Erroneous orders lead to returns and thus to unnecessary effort. Wrong pricing forces companies to miss out on revenues or to impair customer satisfaction. If orders or customer records cannot be retrieved, complaint management takes longer. Due to erroneous inventories, too few or too much supplies might be reordered. A special problem with data quality and the reason for many of the issues mentioned above are duplicates in databases. Duplicates are different representations of same real-world objects in a dataset. However, these representations differ from each other and are for that reason hard to match by a computer. Moreover, the number of required comparisons to find those duplicates grows with the square of the dataset size. To cleanse the data, these duplicates must be detected and removed. Duplicate detection is a very laborious process. To achieve satisfactory results, appropriate software must be created and configured (similarity measures, partitioning keys, thresholds, etc.). Both requires much manual effort and experience. This thesis addresses automation of parameter selection for duplicate detection and presents several novel approaches that eliminate the need for human experience in parts of the duplicate detection process. A pre-processing step is introduced that analyzes the datasets in question and classifies their attributes semantically. Not only do these annotations help understanding the respective datasets, but they also facilitate subsequent steps, for example, by selecting appropriate similarity measures or normalizing the data upfront. This approach works without schema information. Following that, we show a partitioning technique that strongly reduces the number of pair comparisons for the duplicate detection process. The approach automatically finds particularly suitable partitioning keys that simultaneously allow for effective and efficient duplicate retrieval. By means of a user study, we demonstrate that this technique finds partitioning keys that outperform expert suggestions and additionally does not need manual configuration. Furthermore, this approach can be applied independently of the attribute types. To measure the success of a duplicate detection process and to execute the described partitioning approach, a gold standard is required that provides information about the actual duplicates in a training dataset. This thesis presents a technique that uses existing duplicate detection results and crowdsourcing to create a near gold standard that can be used for the purposes above. Another part of the thesis describes and evaluates strategies how to reduce these crowdsourcing costs and to achieve a consensus with less effort. N2 - Die erfolgreiche Ausführung von Geschäftsprozessen ist eng an die Datenqualität der Datenbestände in einer Organisation geknüpft. Bestehen Mängel in der Datenqualität, kann es zu Problemen kommen: Unkorrekte Adressdaten verhindern, dass Kunden (rechtzeitig) beliefert werden. Fehlerhafte Bestellungen führen zu Reklamationen und somit zu unnötigem Aufwand. Falsche Preisauszeichnungen zwingen Unternehmen, auf Einnahmen zu verzichten oder gefährden die Kundenzufriedenheit. Können Bestellungen oder Kundendaten nicht gefunden werden, verlängert sich die Abarbeitung von Beschwerden. Durch fehlerhafte Inventarisierung wird zu wenig oder zu viel Nachschub bestellt. Ein spezielles Datenqualitätsproblem und der Grund für viele der genannten Datenqualitätsprobleme sind Duplikate in Datenbanken. Duplikate sind verschiedene Repräsentationen derselben Realweltobjekte im Datenbestand. Allerdings unterscheiden sich diese Repräsentationen voneinander und sind so für den Computer nur schwer als zusammengehörig zu erkennen. Außerdem wächst die Anzahl der zur Aufdeckung der Duplikate benötigten Vergleiche quadratisch mit der Datensatzgröße. Zum Zwecke der Datenreinigung müssen diese Duplikate erkannt und beseitigt werden. Diese Duplikaterkennung ist ein sehr aufwändiger Prozess. Um gute Ergebnisse zu erzielen, ist die Erstellung von entsprechender Software und das Konfigurieren vieler Parameter (Ähnlichkeitsmaße, Partitionierungsschlüssel, Schwellwerte usw.) nötig. Beides erfordert viel manuellen Aufwand und Erfahrung. Diese Dissertation befasst sich mit dem Automatisieren der Parameterwahl für die Duplikaterkennung und stellt verschiedene neuartige Verfahren vor, durch die Teile des Duplikaterkennungsprozesses ohne menschliche Erfahrung gestaltet werden können. Es wird ein Vorverarbeitungsschritt vorgestellt, der die betreffenden Datensätze analysiert und deren Attribute automatisch semantisch klassifiziert. Durch diese Annotationen wird nicht nur das Verständnis des Datensatzes verbessert, sondern es werden darüber hinaus die folgenden Schritte erleichtert, zum Beispiel können so geeignete Ähnlichkeitsmaße ausgewählt oder die Daten normalisiert werden. Dabei kommt der Ansatz ohne Schemainformationen aus. Anschließend wird ein Partitionierungsverfahren gezeigt, das die Anzahl der für die Duplikaterkennung benötigten Vergleiche stark reduziert. Das Verfahren findet automatisch besonders geeignete Partitionierungsschlüssel, die eine gleichzeitig effektive und effiziente Duplikatsuche ermöglichen. Anhand einer Nutzerstudie wird gezeigt, dass die so gefundenen Partitionierungsschlüssel Expertenvorschlägen überlegen sind und zudem keine menschliche Konfiguration benötigen. Außerdem lässt sich das Verfahren unabhängig von den Attributtypen anwenden. Zum Messen des Erfolges eines Duplikaterkennungsverfahrens und für das zuvor beschriebene Partitionierungsverfahren ist ein Goldstandard nötig, der Auskunft über die zu findenden Duplikate gibt. Die Dissertation stellt ein Verfahren vor, das anhand mehrerer vorhandener Duplikaterkennungsergebnisse und dem Einsatz von Crowdsourcing einen Nahezu-Goldstandard erzeugt, der für die beschriebenen Zwecke eingesetzt werden kann. Ein weiterer Teil der Arbeit beschreibt und evaluiert Strategien, wie die Kosten dieses Crowdsourcingeinsatzes reduziert werden können und mit geringerem Aufwand ein Konsens erreicht wird. KW - data quality KW - Datenqualität KW - Duplikaterkennung KW - duplicate detection KW - Machine Learning KW - Information Retrieval KW - Automatisierung KW - automation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410573 ER - TY - THES A1 - Kayser, Markus T1 - Wechselwirkung der atmosphärischen Grenzschicht mit synoptisch–skaligen Prozessen während der N-ICE2015 Kampagne N2 - Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat. Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen. Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt. Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert. N2 - The Arctic warms faster than the rest of the earth. The causes and effects of this arctic amplification are manifested in the arctic atmosphere, especially in the atmospheric boundary layer, which plays a key role in the exchange processes of the atmosphere, ocean and sea ice. This work highlights the importance of synoptic cyclones in the Arctic North Atlantic region. For this purpose, the influence of synoptic cyclones on the Arctic boundary layer as well as their interactions with different regions within the Arctic atmosphere on local to supraregional scales is investigated. The starting point for this are measurement data and model simulations for the period of the NICE2015 expedition, which took place in the Arctic North Atlantic region from early January to late June 2015. On the basis of radiosonde measurements, the effects of synoptic cyclones are most noticeable in the winter because, by the advection of warm and humid air masses into the Arctic, the condition of the atmosphere changes from a radiative clear to opaquely cloudy. Although this sharp contrast only exists in winter, the analysis shows that integrated water vapor is an indicator for the advection of air masses from low latitudes into the Arctic even in the spring. In addition to the advection of air masses, the influence of cyclones on static stability is characterized. Comparing the N-ICE2015 observations with the SHEBA campaign (1997/1998), which took place over thicker ice, similarities are found in the static stability of the atmosphere despite the different sea ice regimes. The observed differences in stability can be attributed to differences in synoptic activity. A further comparison with the radiosondes of the AWIPEV station in Ny-Åesund, Spitzbergen, which were launched parallel to the N-ICE2015 campaign, shows that synoptic cyclones determine the course of the winter months. In addition, the effects of vertically-varying nudging on the development of cyclones is examined for February 2015 using the hydrostatic regional climate model HIRHAM5. It is shown that the differences between the eight model simulations are increasing with decreasing number of nudged levels. The greatest differences are mainly due to the temporal offset of the development of synoptic cyclones. To correct the time offset of the cyclone initiation, it is sufficient to use nudging in the lowest troposphere. The free HIRHAM reproduces the positive end of the N-ICE2015 temperature distribution well, but has a strong negative bias which most likely results from an under-estimation of the moisture content. An example of a cyclone shows that nudging has an influence on the position of the high altitude lows, which in turn influences cyclone development on the ground. Furthermore, a statistical estimate of the effect of nudging on the vertical is made by means of a variance measure suitable for small ensemble sizes. It is found that the similarity of model simulations in the lower troposphere is generally higher than above and has a local minimum in 500 hPa. In the last part of the analysis, the interaction of the upper troposphere and the lower stratosphere is investigated with data from the ERA interim reanalysis using previously examined cyclones. The position and orientation of the polar vortex produced an unusually large meridional component of the tropopause jets, which favored passage of low pressure systems into the central Arctic from the beginning of February 2015 onwards. Using a cyclone as an example, the synoptic development is compared with the theoretical assumptions about the downward impact of the stratosphere on the troposphere. The non-linear interaction between Greenland’s orography, an intrusion of stratospheric air into the troposphere, and a Rossby wave propagating in the direction of the Arctic play a key role in the selected time frame. As an indicator of this interaction, horizontal signatures are identified from alternately ascending and descending air within the troposphere. KW - arktische Grenzschicht KW - Arctic boundary layer KW - synoptische Zyklone KW - synoptic cyclones KW - thermodynamische Struktur KW - thermodynamic structure KW - regional climate simulations KW - regionale Klimasimulationen KW - nudging Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411124 ER - TY - THES A1 - Braun, Max T1 - Heterogeneous Catalysis for the Conversion of Fructose to Chemicals and Fuel in a Continuous Flow Process T1 - Umsetzung von Fruktose zu Chemikalien und Treibstoff mittels heterogener Katalysatoren in einem kontinuierlichen Prozess N2 - Die Umsetzung von Zucker (Kohlenhydrate) in einem kontinuierlichen Prozess eröffnet Möglichkeiten der Synthese diverser Chemikalien und Treibstoff aus erneuerbaren Ressourcen, welche heute überwiegend aus fossilen Quellen stammen. Passend zum Konzept der Bioraffinerie und der „grünen Chemie“, liegt der Fokus dieser Arbeit auf der Umsetzung von in Ethanol gelöster Fruktose in einem kontinuierlichen Verfahren, mit Hilfe eigens entwickelter heterogener Katalysatoren. Die Dehydratisierung von Fruktose wird mit einem heterogenen Säurekatalysator realisiert, während die Folgeprodukte mittels einer Hydrodesoxygenierung umgesetzt werden. Für den zweiten Schritt kommen Metallkatalysatoren auf Basis von Nickel und Wolframcarbid (WC) zum Einsatz, wodurch der Einsatz teurer Edelmetalle vermieden werden kann. Hauptprodukte des zweistufigen Verfahrens sind 2,5-Dimethylfuran (DMF) und Ethyllevulinat (EL). Beide Moleküle sind vielversprechende alternative Treibstoffe, bzw. können gebräuchlichen Treibstoffen beigemischt werden, um deren Einsatz zu reduzieren und schrittweise zu substituieren. Alternativ können die Zwischenprodukte der Dehydratisierung, sowie DMF und EL weiter zu Chemikalien umgesetzt werden, welche in der Polymersynthese, als Lösungsmittel oder als Grundchemikalien eingesetzt werden können. Die Entwicklung der jeweiligen Katalysatoren für Dehydratisierungs- und Hydrodesoxygenierungsreaktionen erfolgt auf Basis von karbonisierter Biomasse, sowie Wolframcarbid. Die jeweiligen Reaktivitäten werden durch Standardreaktionen getestet, wobei sich Wolframcarbid in Nanopartikelform, in Kombination mit Wasserstoff als sehr aktiv erwiesen hat. Der selbst entwickelte aktivierte Kohlenstoff, das kommerzielle Amberlyst 15, sowie Wolframcarbid mit zusätzlichen Nickel-Nanopartikeln werden für weiterführende Reaktionen in einem kontinuierlichen Prozess herangezogen und kombiniert. Um den Umsatz von Fruktose zu DMF in einer „zwei Reaktoren Anlage“ zu ermöglichen, wird eine Erweiterung eines kommerziellen Reaktorsystems um einen weiteren Reaktor vorgenommen. Die Verweilzeit in der Reaktoranlage beträgt somit ca. 14 Minuten, wobei 11 Minuten auf die erste Säule (Dehydratisierung) und 3 Minuten auf die zweite Säule (Hydrodesoxygenierung) entfallen. In diesem kontinuierlichen und zweistufigen System lassen sich Ausbeuten von 38.5 % DMF und 47 % EL erzielen. Ein kontinuierlicher Lauf von sieben Stunden zeigt die Stabilität der eingesetzten Katalysatoren, auch wenn eine geringe Deaktivierung des Dehydratisierungskatalysators beobachtet werden kann. Der Ni@WC Katalysator zeigte hingegen keine Abnahme der Nickel Konzentration und somit kommt es zu keiner Auswaschung des Metalls. Das gebildete EL wurde hingegen nicht umgesetzt und verbleibt unverändert in Lösung. Das zweistufige System wurde schließlich in einem Mischkatalysatorsystem kombiniert, wobei auf aktivierten und sulfonierten Kohlenstoff zurückgegriffen wurde. Dieser zeigte bereits eine Transferhydrodesoxygenierungsaktivität. Diese Beobachtung ist deshalb bemerkenswert, da erst seit kurzem bekannt ist, dass Graphenstrukturen an sich katalytisch aktiv sein können. Um diese Aktivität weiter zu steigern, wurde der aktivierte Kohlenstoff mit 10 wt% Ni@WC gemischt, sodass beide Katalysatoren in einer Säule vorliegen. Die ursprünglichen 2 % DMF Ausbeute mit reinem aktivierten Kohlenstoff können somit auf 12 % gesteigert werden, da das Folgeprodukt EL hierbei vermieden wird und das Zwischenprodukt „HMF Derivat“ direkt zu DMF weiter reagieren kann. Dieses Ergebnis zeigt das Potential der „ein Reaktor Umsetzung“, weshalb eine kontinuierliche Durchflussreaktoranlage im Litermaßstab als Scale-Up des vorhergehenden Labormaßstabs realisiert wurde. Der 800 mm x 28.5 mm Reaktor bedient eine maximale Flussrate von 50 mL min-1, Drücke von 100 bar und Temperaturen bis zu 500 °C. N2 - The valorization of carbohydrates is one of the most promising fields in green chemistry, as it enables to produce bulk chemicals and fuels out of renewable and abundant resources, instead of further exploiting fossil feedstocks. The focus in this thesis is the conversion of fructose, using dehydration and hydrodeoxygenation reactions. The main goal is to find an easy continuous process, including the solubility of the sugar in a green solvent, the conversion over a solid acid as well as over a metal@tungsten carbide catalyst. At the beginning of this thesis, solid acid catalysts are synthesized by using carbohydrate material like glucose and starch at high temperatures (up to 600 °C). Additionally a third carbon is synthesized, using an activation method based on Ca(OH)2. After carbonization and further sulfonation, using fuming sulfuric acid, the three resulting catalysts are characterized together with sulfonated carbon black and Amberlyst 15 as references. In order to test all solid acid catalysts in reaction, a 250 mm x 4.6 mm stainless steel column is used as a fixed-bed continuous reactor. The temperature (110 °C to 250 °C) and residence time (2 to 30 minutes) is varied, and a direct relationship between contact time and selectivity is determined. The reaction mechanism, as well as the product distribution is showing a dehydration step of fructose towards 5-hydroxymethylfurfural (HMF). These furan-ring molecules are considered as “sleeping giants”, due to the possibility of using them as fuel, but also for upgrading them to chemicals like terephthalic acid or p-xylene. Consecutive reactions are producing levulinic acid, as well as condensation products with ethanol and formic acid. The activated carbon is additionally showing a 2 % yield of 2,5-Dimethylfuran (DMF) production, pointing towards the extraordinary properties of this catalyst. Without a metal catalyst present, what is normally necessary for hydrogenation reactions, a transferhydrogenation (with formic acid) is observed. The active catalyst was therefore carbon itself, what activated the hydrogen on its surface. This phenomenon was just very rarely observed so far. Expensive noble metals are the material of choice, when it comes to hydrogenation reactions nowadays and cheaper alternatives are necessary. By postulating a similar electronic structure of tungsten carbide (WC) to platinum by Lewy and Boudart, research is focusing on the replacement of Pt. The production of nano-sized tungsten carbide particles (7.5 ± 2.5 nm, 70 m2 g-1) is enabled by the so called “urea glass route” and its catalytic performances are compared to commercial material. It is shown, that the activity is strongly dependent on the size of the particles as well as the surface area. Nano-sized tungsten carbide is showing activity for hydrogenation reactions under mild conditions (maximum 150 °C, 30 bar). This material therefore opens up new possibilities for replacing the rare and expensive platinum with tungsten carbide based catalysts. Additionally different metal nanoparticles of palladium, copper and nickel are deposited on top of WC to further promote its reactivity. The nickel nanoparticles are strongly connected to WC and showed the best activity as well as selectivity for upgrading HMF with hydrodeoxygenation. The Ni@WC is not leaching and is showing very good hydrodeoxygenation properties with DMF yields up to 90 percent. Copper@WC is not showing good activity and palladium@WC enables undesired consecutive reactions, hydrogenating the furan ring system. In order to enable the upgrade of fructose to DMF directly in a continuous system, the current H CUBE Pro TM hydrogenation system is customized with a second reaction column. A 250 mm x 4.6 mm stainless steel reactor column is connected ahead of the hydrogen insertion, enabling the dehydration of fructose to HMF derivatives, before pumping these products into the second column for hydrogenation. The overall residence time in the two column reactor system is 14 minutes. The overall results are an almost full conversion with a yield of 38.5 % DMF and 47 % yield of EL. The main disadvantage is the formation of higher mass products, so called humins, which start depositing on top of the catalysts, blocking their active sites. In general it can be stated, that a two column system goes along with a higher investment as well as more maintenance costs, compared to a one column catalytic approach. To develop a catalyst, which is on the one hand able to dehydrate as well as hydrodeoxygenate the reactants, is aimed for at the last part of the thesis. The activated carbon however shows already activity for hydrodeoxygenation without any metal present and offers itself therefore as an alternative to overcome the temperature instability of Amberlyst 15 (max. 120 °C) for a combined DMF production directly from fructose. The activity for the upgrade to DMF is increased from 2 % to 12 % DMF yield in one mixed continuous column. In order to scale up the entire one column approach, an 800 mm x 28.5 mm inner diameter column was planned and manufactured. The system is scaled up and assembled, whereas this flow reactor system is able to be run with 50 mL min-1 maximum flow rate, to stand a pressure of maximum 100 bar and be heated to around 500 °C. The tubing and connections, as well as the used devices are planned according to be safe and easy in use. The scaled-up approach offers a reaction column 120 times bigger (510 ml) then the first extension of the commercial system. This further extension offers the possibility of ranging between 1 and 1000 mL min-1, making it possible to use the approach in pilot plant applications. KW - Biorefinery KW - Catalysis KW - Hydroxymethylfurfural KW - Upgrade of Fructose KW - Bioraffinerie KW - Katalyse KW - Hydroxymethylfurfural KW - Aufarbeitung von Fruktose Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410370 ER - TY - THES A1 - Meiling, Till Thomas T1 - Development of a reliable and environmentally friendly synthesis for fluorescence carbon nanodots T1 - Entwicklung einer zuverlässigen und umweltfreundlichen Synthese für fluoreszierende Kohlenstoff-Nanopunkte BT - preparation and characterisation of excellent and well-defined carbon nanodots by a fast, simple and cost-efficient synthesis method; with special focus on future exploration and large scale applications BT - Herstellung und Charakterisierung von hochwertigen und klar definierten Kohlenstoff-Nanopunkten mit Hilfe einer schnellen, einfachen, und kosteneffizienten Synthesemethode; mit speziellem Fokus auf ihre zukünftige Erforschung und breite Anwendung N2 - Carbon nanodots (CNDs) have generated considerable attention due to their promising properties, e.g. high water solubility, chemical inertness, resistance to photobleaching, high biocompatibility and ease of functionalization. These properties render them ideal for a wide range of functions, e.g. electrochemical applications, waste water treatment, (photo)catalysis, bio-imaging and bio-technology, as well as chemical sensing, and optoelectronic devices like LEDs. In particular, the ability to prepare CNDs from a wide range of accessible organic materials makes them a potential alternative for conventional organic dyes and semiconductor quantum dots (QDs) in various applications. However, current synthesis methods are typically expensive and depend on complex and time-consuming processes or severe synthesis conditions and toxic chemicals. One way to reduce overall preparation costs is the use of biological waste as starting material. Hence, natural carbon sources such as pomelo peal, egg white and egg yolk, orange juice, and even eggshells, to name a few; have been used for the preparation of CNDs. While the use of waste is desirable, especially to avoid competition with essential food production, most starting-materials lack the essential purity and structural homogeneity to obtain homogeneous carbon dots. Furthermore, most synthesis approaches reported to date require extensive purification steps and have resulted in carbon dots with heterogeneous photoluminescent properties and indefinite composition. For this reason, among others, the relationship between CND structure (e.g. size, edge shape, functional groups and overall composition) and photophysical properties is yet not fully understood. This is particularly true for carbon dots displaying selective luminescence (one of their most intriguing properties), i.e. their PL emission wavelength can be tuned by varying the excitation wavelength. In this work, a new reliable, economic, and environmentally-friendly one-step synthesis is established to obtain CNDs with well-defined and reproducible photoluminescence (PL) properties via the microwave-assisted hydrothermal treatment of starch, carboxylic acids and Tris-EDTA (TE) buffer as carbon- and nitrogen source, respectively. The presented microwave-assisted hydrothermal precursor carbonization (MW-hPC) is characterized by its cost-efficiency, simplicity, short reaction times, low environmental footprint, and high yields of approx. 80% (w/w). Furthermore, only a single synthesis step is necessary to obtain homogeneous water-soluble CNDs with no need for further purification. Depending on starting materials and reaction conditions different types of CNDs have been prepared. The as-prepared CNDs exhibit reproducible, highly homogeneous and favourable PL properties with narrow emission bands (approx. 70nm FWHM), are non-blinking, and are ready to use without need for further purification, modification or surface passivation agents. Furthermore, the CNDs are comparatively small (approx. 2.0nm to 2.4nm) with narrow size distributions; are stable over a long period of time (at least one year), either in solution or as a dried solid; and maintain their PL properties when re-dispersed in solution. Depending on CND type, the PL quantum yield (PLQY) can be adjusted from as low as 1% to as high as 90%; one of the highest reported PLQY values (for CNDs) so far. An essential part of this work was the utilization of a microwave synthesis reactor, allowing various batch sizes and precise control over reaction temperature and -time, pressure, and heating- and cooling rate, while also being safe to operate at elevated reaction conditions (e.g. 230 ±C and 30 bar). The hereby-achieved high sample throughput allowed, for the first time, the thorough investigation of a wide range of synthesis parameters, providing valuable insight into the CND formation. The influence of carbon- and nitrogen source, precursor concentration and -combination, reaction time and -temperature, batch size, and post-synthesis purification steps were carefully investigated regarding their influence on the optical properties of as-synthesized CNDs. In addition, the change in photophysical properties resulting from the conversion of CND solution into solid and back into the solution was investigated. Remarkably, upon freeze-drying the initial brown CND-solution turns into a non-fluorescent white/slightly yellow to brown solid which recovers PL in aqueous solution. Selected CND samples were also subject to EDX, FTIR, NMR, PL lifetime (TCSPC), particle size (TEM), TGA and XRD analysis. Besides structural characterization, the pH- and excitation dependent PL characteristics (i.e. selective luminescence) were examined; giving inside into the origin of photophysical properties and excitation dependent behaviour of CNDs. The obtained results support the notion that for CNDs the nature of the surface states determines the PL properties and that excitation dependent behaviour is caused by the “Giant Red-Edge Excitation Shift” (GREES). N2 - Kohlenstoff-Nanopunkte (CNDs, engl. carbon nanodots) haben im letzten Jahrzehnt insbesondere durch ihre vielversprechenden Eigenschaften immer mehr an Popularität gewonnen. CNDs zeichnen sich insbesondere durch ihre Wasserlöslichkeit, hohe chemische Stabilität, Biokompatibilität, hohe Resistenz gegen Photobleichen, und die Möglichkeit zur Oberflächenfunktionalisierung aus. Diese Eigenschaften machen sie somit ideal für eine breite Palette von Anwendungen: z.B. Abwasserbehandlung, (Foto-) Katalyse, Bioimaging und Biotechnologie, chemische Sensorik, sowie elektrochemische- und optoelektronische Anwendungen (z.B. LEDs). Insbesondere die Möglichkeit, CNDs aus einer Vielzahl organischer Materialien herzustellen, machen sie zu einer möglichen Alternative für herkömmliche organische Farbstoffe und Halbleiter-Quantenpunkte (QDs). Derzeitigen Synthesestrategien erweisen sich jedoch häufig als teuer, komplex und zeitaufwändig; bzw. benötigen toxischen Chemikalien und/oder drastische Reaktionsbedingungen. Eine Möglichkeit, die Herstellungskosten von CNDs zu reduzieren, ist die Verwendung von biologischem Abfall als Ausgangsmaterial. So wurden bereits eine Vielzahl an natürlichen Kohlenstoffquellen, z.B. Pomelo-Schale, Eiweiß und Eigelb, Orangensaft und sogar Eierschalen, für die Darstellung von CNDs verwendet. Während die Verwendung von biologischem Abfall wünschenswert ist, insbesondere um Wettbewerb mit der Nahrungsmittelproduktion zu vermeiden, fehlt den meisten Ausgangsmaterialien jedoch die notwendige Reinheit und strukturelle Homogenität um einheitliche CNDs zu erhalten. So führen bisherige Syntheseansätze oft zu CNDs mit heterogenen photophysikalischen Eigenschaften und unbestimmter Zusammensetzung. Für die Untersuchung des Zusammenhangs zwischen CND Struktur und photophysikalischen Eigenschaften werden aber möglichst homogene und vergleichbare Proben benötigt. In dieser Arbeit wird daher eine neue, zuverlässige, ökonomische und umweltfreundliche Einstufen-Synthese zur Darstellung von CNDs mit klar definierten und reproduzierbaren Photolumineszenz- (PL) -Eigenschaften vorgestellt. Die vorgestellte Methode basiert auf der mikrowellenunterstützten, hydrothermischen Behandlung (MW-hPC, engl. microwaveassisted hydrothermal precursor carbonization) wässriger Lösungen aus Stärke, Carbonsäuren (als Kohlenstoffquelle) und Tris-EDTA (TE) -Puffer (als Stickstoffquelle). Die MW-hPC zeichnet sich insbesondere durch die hohe Reproduzierbarkeit, einfache Handhabung, geringen Reaktionszeiten, geringe Umweltbelastung, Kosteneffizienz und die hohen Ausbeuten von ca. 80% (w/w) aus. Darüber hinaus wird nur ein einziger Syntheseschritt (ohne weitere Aufreinigung) benötigt um homogene, wasserlösliche CNDs zu erhalten. In Abhängig der gewählten Ausgangsmaterialen und Reaktionsbedingungen können verschiedene Typen an CNDs gewonnen werden. Die so gewonnen CNDs sind verhältnismäßig klein (ca. 2.0nm- 2.4nm); besitzen eine geringe Größenverteilung, hochgradig homogenen PL-Eigenschaften, und geringen Halbwertsbreiten (FWHM) von ca. 70nm. Darüber hinaus erwiesen sie sich als nicht blinkend; sind langzeitstabil (min. ein Jahr) sowohl in Lösung als auch als Feststoff; und sind direkt gebrauchsfertig, d.h. benötigen keine weitere Aufreinigung oder Oberflächenpassivierung. In Abhängigkeit vom CND-Typ kann die PL-Quantenausbeute zwischen 1% bis 90% betragen; einer der höchsten Werte der je (für CNDs) erreicht wurde. Ein wesentlicher Bestandteil dieser Arbeit war die Verwendung eines Mikrowellensynthese- Reaktors (MiWR) und die damit einhergehende präzise Kontrolle über die Reaktionstemperatur und -zeit, den Druck, und die Heiz- und Abkühlgeschwindigkeit. Des Weiteren ermöglichte der MiWR unterschiedliche Ansatzgrößen und das sichere Arbeiten bei erhöhten Reaktionsbedingungen (z.B. 230 ±C und 30 bar). Der hierdurch erreichte hohe Probendurchsatz ermöglichte somit erstmals die sorgfältige Untersuchung einer Vielzahl an Syntheseparametern hinsichtlich ihres Einflusses auf die photophysikalischen Eigenschaften der dargestellten CNDs. Die untersuchten Parameter reichen hierbei von der Reaktionstemperatur und -zeit über die Edukt-Konzentration und -Kombination (Kohlenstoff- und Stickstoffquelle) bis hin zur Ansatzgröße. Bemerkenswerterweise, und unabhängig vom CND-Typ, transformieren die ursprünglich braunen CND-Lösungen während der Trocknung zu einem nicht fluoreszierenden, weißen/leicht gelblich bis bräunlichen Feststoff; und regenerieren ihre photophysikalischen Eigenschaften verlustfrei in wässriger Lösung. Im Rahmen dieser Arbeit wurden ausgewählte CND-Proben der EDX-, FTIR-, NMR-, TCSPC-, Partikelgrößen (TEM)-, TGA- und XRD-Analyse unterzogen. Die hierbei gewonnenen Erkenntnisse stützen die Theorie, dass die photophysikalischen Eigenschaften der CNDs durch ihre Oberflächenzustände bestimmt werden und dass die s.g. ”Riesen-Rotkanten-Anregungsverschiebung” (GREES, engl. Giant Red Edge Excitation Shift) eine mögliche Ursache für die häufig beobachtete Anregungswellenlängenabhängigkeit der Emissionswellenlänge (bzw. selektive Lumineszenz) in CNDs ist. KW - carbon dots KW - carbon nanodots KW - fluorescence KW - high quantum yield KW - microwave synthesis KW - white carbon KW - Kohlenstoff-Punkte KW - Kohlenstoff-Nanopunkte KW - Fluoreszenz KW - hohe Quantenausbeute KW - mikrowellengestützte Synthese KW - weißer Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410160 ER - TY - THES A1 - Lindblad Petersen, Oliver T1 - The Cauchy problem for the linearised Einstein equation and the Goursat problem for wave equations T1 - Das Cauchyproblem für die linearisierte Einsteingleichung und das Goursatproblem für Wellengleichungen N2 - In this thesis, we study two initial value problems arising in general relativity. The first is the Cauchy problem for the linearised Einstein equation on general globally hyperbolic spacetimes, with smooth and distributional initial data. We extend well-known results by showing that given a solution to the linearised constraint equations of arbitrary real Sobolev regularity, there is a globally defined solution, which is unique up to addition of gauge solutions. Two solutions are considered equivalent if they differ by a gauge solution. Our main result is that the equivalence class of solutions depends continuously on the corre- sponding equivalence class of initial data. We also solve the linearised constraint equations in certain cases and show that there exist arbitrarily irregular (non-gauge) solutions to the linearised Einstein equation on Minkowski spacetime and Kasner spacetime. In the second part, we study the Goursat problem (the characteristic Cauchy problem) for wave equations. We specify initial data on a smooth compact Cauchy horizon, which is a lightlike hypersurface. This problem has not been studied much, since it is an initial value problem on a non-globally hyperbolic spacetime. Our main result is that given a smooth function on a non-empty, smooth, compact, totally geodesic and non-degenerate Cauchy horizon and a so called admissible linear wave equation, there exists a unique solution that is defined on the globally hyperbolic region and restricts to the given function on the Cauchy horizon. Moreover, the solution depends continuously on the initial data. A linear wave equation is called admissible if the first order part satisfies a certain condition on the Cauchy horizon, for example if it vanishes. Interestingly, both existence of solution and uniqueness are false for general wave equations, as examples show. If we drop the non-degeneracy assumption, examples show that existence of solution fails even for the simplest wave equation. The proof requires precise energy estimates for the wave equation close to the Cauchy horizon. In case the Ricci curvature vanishes on the Cauchy horizon, we show that the energy estimates are strong enough to prove local existence and uniqueness for a class of non-linear wave equations. Our results apply in particular to the Taub-NUT spacetime and the Misner spacetime. It has recently been shown that compact Cauchy horizons in spacetimes satisfying the null energy condition are necessarily smooth and totally geodesic. Our results therefore apply if the spacetime satisfies the null energy condition and the Cauchy horizon is compact and non-degenerate. N2 - In der vorliegenden Arbeit werden zwei Anfangswertsprobleme aus der Allgemeinen Relativitätstheorie betrachtet. Das erste ist das Cauchyproblem für die linearisierte Einsteingleichung auf allgemeinen global hyperbolischen Raumzeiten mit glatten und distributionellen Anfangsdaten. Wir verallgemeinern bekannte Ergebnisse, indem wir zeigen, dass für jede gegebene Lösung der linearisierten Constraintgleichungen mit reeller Sobolevregularität eine global definierte Lösung existiert, die eindeutig ist bis auf Addition von Eichlösungen. Zwei Lösungen sind äquivalent falls sie sich durch eine Eichlösung unterscheiden. Unser Hauptergebnis ist, dass die äquivalenzklasse der Lösungen stetig von der zugehörigen Äquivalenzklasse der Anfangsdaten abhängt. Wir lösen auch die linearisierten Constraintgleichungen in Spezialfällen und zeigen, dass beliebig irreguläre (nicht Eich-) Lösungen der linearisierten Einsteingleichungen auf der Minkowski-Raumzeit und der Kasner-Raumzeit existieren. Im zweiten Teil betrachten wir das Goursatproblem (das charakteristische Cauchyproblem) für Wellengleichungen. Wir geben Anfangsdaten auf einem Cauchyhorizont vor, der eine lichtartige Hyperfläche ist. Dieses Problem wurde bisher noch nicht viel betrachtet, weil es ein Anfangswertproblem auf einer nicht global hyperbolischen Raumzeit ist. Unser Hauptergebnis ist: Gegeben eine glatte Funktion auf einem nicht-leeren glatten, kompakten, totalgeodätischen und nicht-degenerierten Cauchyhorizont und eine so genannte zulässige Wellengleichung, dann existiert eine eindeutige Lösung, die auf dem global hyperbolischen Gebiet definiert ist und deren Einschränkung auf dem Cauchyhorizont die gegebene Funktion ist. Die Lösung hängt stetig von den Anfangsdaten ab. Eine Wellengleichung heißt zulässig, falls der Teil erster Ordnung eine gewisse Bedingung am Cauchyhorizont erfüllt, zum Beispiel falls er gleich Null ist. Interessant ist, dass Existenz der Lösung und Eindeutigkeit falsch sind für allgemeine Wellengleichungen, wie Beispiele zeigen. Falls wir die Bedingung der Nichtdegeneriertheit weglassen, ist Existenz von Lösungen falsch sogar für die einfachste Wellengleichung. Der Beweis benötigt genaue Energieabschätzungen für die Wellengleichung nahe am Cauchyhorizont. Im Fall, dass die Ricci-Krümmung am Cauchyhorizont verschwindet, zeigen wir, dass die Energieabschätzungen stark genug sind, um lokale Existenz und Eindeutigkeit für eine Klasse von nicht-linearen Wellengleichungen zu zeigen. Unser Ergebnis ist zum Beispiel auf der Taub-NUT-Raumzeit oder der Misner-Raumzeit gültig. Es wurde vor kurzem gezeigt, dass kompakte Cauchyhorizonte in Raumzeiten, die die Nullenergiebedingung erfüllen, notwendigerweise glatt und totalgeodätisch sind. Unsere Ergebnisse sind deshalb auf Raumzeiten gültig, die die Nullenergiebedingung erfüllen, wenn der Cauchyhorizont kompakt und nicht-degeneriert ist. KW - Cauchy horizon KW - the Goursat problem KW - the characteristic Cauchy problem KW - wave equation KW - the Cauchy problem KW - gravitational wave KW - the linearised Einstein equation KW - Cauchyhorizont KW - das Goursatproblem KW - das charakteristische Cauchyproblem KW - Wellengleichung KW - das Cauchyproblem KW - Gravitationswelle KW - die linearisierte Einsteingleichung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410216 ER - TY - THES A1 - Herbrich, Marcus T1 - Einfluss der erosionsbedingten Pedogenese auf den Wasserund Stoffhaushalt ackerbaulich genutzter Böden der Grundmoränenbodenlandschaft NO-Deutschlands - hydropedologische Untersuchungen mittels wägbarer Präzisionslysimeter T1 - Effects of erosion-affected soil evolution on water and dissolved carbon fluxes, soil hydraulic properties, and crop development of soils from a hummocky ground moraine landscape - hydropedological analysis using high precision weighing lysimeters N2 - In the arable soil landscape of hummocky ground moraines, an erosion-affected spatial differentiation of soils can be observed. Man-made erosion leads to soil profile modifications along slopes with changed solum thickness and modified properties of soil horizons due to water erosion in combination with tillage operations. Soil erosion creates, thereby, spatial patterns of soil properties (e.g., texture and organic matter content) and differences in crop development. However, little is known about the manner in which water fluxes are affected by soil-crop interactions depending on contrasting properties of differently-developed soil horizons and how water fluxes influence the carbon transport in an eroded landscape. To identify such feedbacks between erosion-induced soil profile modifications and the 1D-water and solute balance, high-precision weighing lysimeters equipped with a wide range of sensor technique were filled with undisturbed soil monoliths that differed in the degree of past soil erosion. Furthermore, lysimeter effluent concentrations were analyzed for dissolved carbon fractions in bi-weekly intervals. The water balance components measured by high precision lysimeters varied from the most eroded to the less eroded monolith up to 83 % (deep drainage) primarily caused due to varying amounts of precipitation and evapotranspiration for a 3-years period. Here, interactions between crop development and contrasting rainfall interception by above ground biomass could explain differences in water balance components. Concentrations of dissolved carbon in soil water samples were relatively constant in time, suggesting carbon leaching was mainly affected by water fluxes in this observation period. For the lysimeter-based water balance analysis, a filtering scheme was developed considering temporal autocorrelation. The minute-based autocorrelation analysis of mass changes from lysimeter time series revealed characteristic autocorrelation lengths ranging from 23 to 76 minutes. Thereby, temporal autocorrelation provided an optimal approximation of precipitation quantities. However, the high temporal resolution in lysimeter time series is restricted by the lengths of autocorrelation. Erosion-induced but also gradual changes in soil properties were reflected by dynamics of soil water retention properties in the lysimeter soils. Short-term and long-term hysteretic water retention data suggested seasonal wettability problems of soils increasingly limited rewetting of previously dried pore regions. Differences in water retention were assigned to soil tillage operations and the erosion history at different slope positions. The threedimensional spatial pattern of soil types that result from erosional soil profile modifications were also reflected in differences of crop root development at different landscape positions. Contrasting root densities revealed positive relations of root and aboveground plant characteristics. Differences in the spatially-distributed root growth between different eroded soil types provided indications that root development was affected by the erosion-induced soil evolution processes. Overall, the current thesis corroborated the hypothesis that erosion-induced soil profile modifications affect the soil water balance, carbon leaching and soil hydraulic properties, but also the crop root system is influenced by erosion-induced spatial patterns of soil properties in the arable hummocky post glacial soil landscape. The results will help to improve model predictions of water and solute movement in arable soils and to understand interactions between soil erosion and carbon pathways regarding sink-or-source terms in landscapes. N2 - Hydropedologische Wechselwirkungen zwischen Wasserflüssen und erosionsbedingten Veränderungen im Profilaufbau ackerbaulich genutzter Böden treten insbesondere in der Jungmoränenlandschaft auf, die sich durch eine überwiegend flachwellige bis kuppige Topographie auszeichnet. Mit der dynamischen Veränderung von Bodenprofilen, wie etwa der veränderten Solumtiefe und Horizontabfolgen, sowie deren Verteilungen in der Landschaft gehen Veränderungen in den bodenhydraulischen Eigenschaften einher. Über deren Auswirkungen auf den Wasser- und Stoffhaushalt ist bislang nur wenig bekannt. Im Rahmen dieser Dissertation wurden kontinuierliche Messungen aus vier Jahren (2011 bis 2014) unter Verwendung von wägbaren Lysimetern in der ackerbaulich genutzten Bodenlandschaft Nordostdeutschlands (Uckermark) erhoben. Dabei sollte die zentrale Frage, inwieweit die erosionsbedingte Pedogenese, in Wechselwirkung mit der pflanzenbaulichen Nutzung, den Wasser- und Kohlenstoffhaushalt beeinflusst, beantwortet werden. Ziel dieser Arbeit war es, 1D-Wasserflüsse und Austräge an gelöstem Kohlenstoff für unterschiedlich erodierte Bodenprofile zu quantifizieren. Damit einhergehend wurden Untersuchungen zu hydraulischen Bodeneigenschaften sowie möglichen Veränderungen im System Boden-Pflanze (Wurzeluntersuchungen) durchgeführt. Um derartige Veränderungen zwischen unterschiedlich erodierten Böden beschreiben zu können, wurden Bodenmonolithe in ungestörter Lagerung entnommen und in Lysimeteranlagen installiert. Zudem erfolgte eine Instrumentierung der einzelnen Lysimeter mit verschiedener Sensorik, u.a. um Wassergehalte und Matrixpotentiale zu messen. Für stoffhaushaltliche Untersuchungen wurden darüber hinaus Konzentrationen der gelösten Kohlenstofffraktion in der Bodenlösung in 14-tägigen Intervallen bestimmt. Der Wasserhaushalt von sechs gering bis stark erodierten Parabraunerden unterschied sich im Hinblick auf die bilanzierten Wasserhaushaltskomponenten deutlich. Anhand dieser Ergebnisse liegt die Vermutung nahe, dass die dynamischen Veränderungen im Gefüge- und Profilaufbau (in Abhängigkeit von der Bodenerosion) einen Effekt auf die Wasserbilanzen aufweisen. Über die mehrjährige Messperiode von 2011 bis 2014 konnte für das mit einer stark erodierten Parabraunerde gefüllte Lysimeter ein circa 83 Prozent höherer Abfluss als für das Lysimeter mit einer wenig erodierten Parabraunerde gemessen werden. Somit variierte der Abfluss am unteren Rand in Abhängigkeit zum Erosionsgrad. Neben dem unterschiedlichen Abflussverhalten variierten die Bodenmonolithe innerhalb der Lysimeter ebenfalls in den Evapotranspirations- und Niederschlagsmengen, hervorgerufenen durch die Differenzierung in den Horizontabfolgen, -mächtigkeiten und deren Einfluss auf die bodenhydraulischen Eigenschaften in Abhängigkeit vom Pflanzenbewuchs. Aufgrund der homogen verteilten Stoffkonzentrationen des gelösten organischen und anorganischen Kohlenstoffs am unteren Rand waren Kohlenstoffausträge maßgeblich von den Wasserflüssen abhängig. Als Grundlage der Lysimeter-basierten Wasserhaushaltsanalyse diente ein im Rahmen dieser Dissertation entwickeltes Auswertungsverfahren von kontinuierlichen Gewichtsänderungen unter Berücksichtigung der zeitlichen Autokorrelation. Um eine mögliche Periodizität in zeitlich hochaufgelösten Änderungen des Lysimeterwaagensystems zu ermitteln, fand eine Autokorrelationsfunktion in der Zeitreihenanalyse von vier saisonalen Messzeiträumen Anwendung. Die Ergebnisse der Arbeit deuten darauf hin, dass hochaufgelöste Lysimeterzeitreihen in einem Bereich von circa 30 min bis circa 60 min zeitlich autokorreliert sind. Die ermittelten Autokorrelationslängen bieten wiederum eine Möglichkeit zur Annäherung von (optimalen) Zeitintervallen für die Niederschlagsberechnung, basierend auf Änderungen in den Wiegedaten. Im Vergleich zu einem Kippwaagenregenmesser nahe der Lysimeterstation überstiegen die ermittelten Niederschlagsmengen der Lysimeter in Bodennähe die der in zwei Metern Höhe erfolgten Messung deutlich. Zur Charakterisierung der zeitlichen (Hysterese), als auch räumlichen (erosionsbedingter Pedogenese) Veränderungen der bodenhydraulischen Eigenschaften der Lysimeterböden wurden kontinuierliche Datenreihen des Wassergehaltes und Matrixpotentials analysiert. Die daraus abgeleiteten Wasserretentionskurven wurden in 3 Messtiefen (10, 30, 50 cm) unter Feldbedingungen ausgewertet und mit Labormessungen von Bodenkernen verglichen. Sowohl zwischen den unterschiedlich erodierten Bodenprofilen als auch zwischen den Feld- und Labormessungen waren Unterschiede in den Wasserretentionseigenschaften ersichtlich. Innerhalb eines Jahres (eingeschränkte Benetzbarkeit) sowie zwischen den Jahren (Veränderung der Porenmatrix) zeigten die Ergebnisse zudem eine zeitliche Veränderung der Wasserretentionseigenschaften. Diese dynamische Variabilität der Wasserretention wiederum unterliegt der räumlichen Heterogenität von Bodeneigenschaften, wie Textur und Lagerungsdichte. Für die Interpretation der unterschiedlichen bodenhydraulischen Eigenschaften sowie im Hinblick auf Veränderungen im Wasserhaushalt von ackerbaulich genutzten Lysimetern spielt das System Boden-Pflanze eine bedeutende Rolle. Diesbezüglich wurden Biomasse- und Wurzeluntersuchungen an unterschiedlich erodierten Böden durchgeführt. Die erzielten Ergebnisse verdeutlichen, dass erosionsbedingte Veränderungen im Profilaufbau beziehungsweise Horizonteigenschaften die Wurzelentwicklung beeinflussen können. Zudem stehen die Durchwurzelungsraten an grundwasserbeeinflussten Senkenstandorten in enger Beziehung zum Grundwasserstand (insbesondere im Frühjahr). Die oberirdisch beobachteten Unterschiede in der Biomasse korrelierten stark mit den ermittelten Wurzeldichten (Winterweizen), dies lässt vermuten, dass eine Abschätzung der Wurzelentwicklung mittels oberirdischer Biomasse möglich ist. Zusammenfassend zeigen die Ergebnisse der vorliegenden Lysimeterstudie komplexe Wechselwirkungen zwischen dem pedogenetischen Zustand erodierter Böden und dem Wasserhaushalt, den bodenhydraulischen Eigenschaften sowie der Wurzelentwicklung angebauter Kulturen. Zudem leisten die ermittelten unterschiedlichen Austragsraten an gelöstem Kohlenstoff einen Beitrag zur Abschätzung der langfristigen, in die Tiefe fortschreitenden Entkalkung sowie zur Beantwortung der Fragestellung, ob ackerbaulich genutzte Böden eher als Quell- oder als Senkenterm für Kohlendioxid fungieren. KW - Lysimeter KW - Wasserhaushalt KW - Kohlenstoff KW - lysimeter KW - water balance KW - carbon Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408561 ER - TY - THES A1 - Santilli, Mario T1 - Higher order rectifiability in Euclidean space T1 - Rektifizierbarkeit höherer Ordnung in Euklidischen Räumen N2 - The first main goal of this thesis is to develop a concept of approximate differentiability of higher order for subsets of the Euclidean space that allows to characterize higher order rectifiable sets, extending somehow well known facts for functions. We emphasize that for every subset A of the Euclidean space and for every integer k ≥ 2 we introduce the approximate differential of order k of A and we prove it is a Borel map whose domain is a (possibly empty) Borel set. This concept could be helpful to deal with higher order rectifiable sets in applications. The other goal is to extend to general closed sets a well known theorem of Alberti on the second order rectifiability properties of the boundary of convex bodies. The Alberti theorem provides a stratification of second order rectifiable subsets of the boundary of a convex body based on the dimension of the (convex) normal cone. Considering a suitable generalization of this normal cone for general closed subsets of the Euclidean space and employing some results from the first part we can prove that the same stratification exists for every closed set. N2 - Das erste Ziel dieser Arbeit ist die Entwicklung eines Konzepts zur Beschreibung von Differenzierbarkeit höherer Ordnung für Teilmengen des euklidischen Raumes, welche es erlaubt von höherer Ordnung rektifizierbare Mengen zu charakterisieren. Wir betonen, dass wir für jede Teilmenge A des euklidischen Raumes und jede ganze Zahl k ≥ 2 ein approximatives Differenzial der Ordnung k einführen und beweisen, dass es sich dabei um eine Borelfunktion handelt deren Definitionsbereich eine (möglicherweise leere) Borelmenge ist. Unser Konzept könnte hilfreich für die Behandlung von höherer Ordnung rektifizierbarer Mengen in Anwendungen sein. Das andere Ziel ist die Verallgemeinerung auf beliebige abgeschlossene Mengen eines bekannten Satzes von Alberti über Rektifizierbarkeit zweiter Ordnung des Randes konvexer Körper. Für den Rand eines solchen konvexen Körper liefert Albertis Resultat eine Stratifikation durch von zweiter Ordnung rektifizierbare Teilmengen des Randes basierend auf der Dimension des (konvexen) Normalenkegels. Für eine geeignete Verallgemeinerung dieses Normalenkegels auf allgemeine abgeschlossene Teilmengen des euklidischen Raumes und unter Verwendung einiger Resultate aus dem ersten Teil können wir zeigen dass eine solche Stratifiaktion für alle abgeschlossenen Mengen existiert. KW - higher order rectifiability KW - approximate differentiability KW - Borel functions KW - normal bundle KW - coarea formula KW - Rektifizierbarkeit höherer Ordnung KW - approximative Differenzierbarkeit KW - Borel Funktionen KW - Coarea Formel KW - Normalenbündel Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403632 ER - TY - THES A1 - Heck, Christian T1 - Gold and silver nanolenses self-assembled by DNA origami T1 - Gold- und Silbernanolinsen, selbstassembliert durch DNA-Origami N2 - Nanolenses are linear chains of differently-sized metal nanoparticles, which can theoretically provide extremely high field enhancements. The complex structure renders their synthesis challenging and has hampered closer analyses so far. Here, the technique of DNA origami was used to self-assemble DNA-coated 10 nm, 20 nm, and 60 nm gold or silver nanoparticles into gold or silver nanolenses. Three different geometrical arrangements of gold nanolenses were assembled, and for each of the three, sets of single gold nanolenses were investigated in detail by atomic force microscopy, scanning electron microscopy, dark-field scattering and Raman spectroscopy. The surface-enhanced Raman scattering (SERS) capabilities of the single nanolenses were assessed by labelling the 10 nm gold nanoparticle selectively with dye molecules. The experimental data was complemented by finite-difference time-domain simulations. For those gold nanolenses which showed the strongest field enhancement, SERS signals from the two different internal gaps were compared by selectively placing probe dyes on the 20 nm or 60 nm gold particles. The highest enhancement was found for the gap between the 20 nm and 10 nm nanoparticle, which is indicative of a cascaded field enhancement. The protein streptavidin was labelled with alkyne groups and served as a biological model analyte, bound between the 20 nm and 10 nm particle of silver nanolenses. Thereby, a SERS signal from a single streptavidin could be detected. Background peaks observed in SERS measurements on single silver nanolenses could be attributed to amorphous carbon. It was shown that the amorphous carbon is generated in situ. N2 - Nanolinsen sind Strukturen aus linear angeordneten, unterschiedlich großen metallischen Nanopartikeln. Elektromagnetische Felder können durch sie theoretisch extrem verstärkt werden, aufgrund ihres komplexen Aufbaus sind sie bislang aber wenig erforscht. Im Rahmen dieser Dissertation wurden Nanolinsen mit Hilfe der DNA-Origami-Technik aus DNA-beschichteten 10 nm-, 20 nm- und 60 nm-Gold- oder Silbernanopartikeln hergestellt. Für Goldnanolinsen sind die Partikel dabei in drei unterschiedlichen Geometrien angeordnet worden. Einzelne Goldnanolinsen wurden mittels Rasterkraftmikroskopie, Rasterelektronenmikroskopie, Dunkelfeld- und Ramanspektroskopie untersucht. Um die Raman-Verstärkung quantifizieren zu können, trugen dabei jeweils die 10 nm-Goldpartikel Farbstoffmoleküle in ihrer Beschichtung. Die Interpretation der Messdaten wurde durch numerische Simulationen unterstützt. Nanolinsen zeichnen sich durch eine stufenweise Feldverstärkung aus. Dieser Effekt konnte experimentell bestätigt werden, indem selektiv die 20 nm- oder 60 nm-Partikel von Goldnanolinsen mit Farbstoffen markiert und die resultierenden Raman-Signale verglichen wurden. Ein mit Alkingruppen markiertes Protein ist ortsselektiv in Silbernanolinsen integriert worden. Es war möglich, das für das Alkin charakteristische oberflächenverstärkte Raman-Signal im Spektrum einer einzelnen Nanolinse und damit eines einzelnen Proteins zu beobachten. Bei den Messungen mit Silbernanolinsen sind für amorphe Kohlenstoffspezies charakterstische Hintergrundsignale beobachtet worden. Durch zeitabhängige Messungen konnte gezeigt werden, dass diese Spezies erst in situ gebildet werden. KW - DNA origami KW - gold nanoparticles KW - silver nanoparticles KW - SERS KW - self-assembly KW - plasmonics KW - nanolenses KW - DNA-Origami KW - Goldnanopartikel KW - Silbernanopartikel KW - SERS KW - Selbstassemblierung KW - Plasmonik KW - Nanolinsen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409002 ER - TY - THES A1 - Kasch, Juliane T1 - Impact of maternal high-fat consumption on offspring exercise performance, skeletal muscle energy metabolism, and obesity susceptibility T1 - Einfluss der maternalen Ernährung auf den Energiestoffwechsel des Skelettmuskels, die Ausdauerleistung und die Adipositasentwicklung der Nachkommen N2 - Background: Obesity is thought to be the consequence of an unhealthy nutrition and a lack of physical activity. Although the resulting metabolic alterations such as impaired glucose homeostasis and insulin sensitivity can usually be improved by physical activity, some obese patients fail to enhance skeletal muscle metabolic health with exercise training. Since this might be largely heritable, maternal nutrition during pregnancy and lactation is hypothesized to impair offspring skeletal muscle physiology. Objectives: This PhD thesis aims to investigate the consequences of maternal high-fat diet (mHFD) consumption on offspring skeletal muscle physiology and exercise performance. We could show that maternal high-fat diet during gestation and lactation decreases the offspring’s training efficiency and endurance performance by influencing the epigenetic profile of their skeletal muscle and altering the adaptation to an acute exercise bout, which in long-term, increases offspring obesity susceptibility. Experimental setup: To investigate this issue in detail, we conducted several studies with a similar maternal feeding regime. Dams (C57BL/6J) were either fed a low-fat diet (LFD; 10 energy% from fat) or high-fat diet (HFD; 40 energy% from fat) during pregnancy and lactation. After weaning, male offspring of both maternal groups were switched to a LFD, on which they remained until sacrifice in week 6, 15 or 25. In one study, LFD feeding was followed by HFD provision from week 15 until week 25 to elucidate the effects on offspring obesity susceptibility. In week 7, all mice were randomly allocated to a sedentary group (without running wheel) or an exercised group (with running wheel for voluntary exercise training). Additionally, treadmill endurance tests were conducted to investigate training performance and efficiency. In order to uncover regulatory mechanisms, each study was combined with a specific analytical setup, such as whole genome microarray analysis, gene and protein expression analysis, DNA methylation analyses, and enzyme activity assays. Results: mHFD offspring displayed a reduced training efficiency and endurance capacity. This was not due to an altered skeletal muscle phenotype with changes in fiber size, number, and type. DNA methylation measurements in 6 week old offspring showed a hypomethylation of the Nr4a1 gene in mHFD offspring leading to an increased gene expression. Since Nr4a1 plays an important role in the regulation of skeletal muscle energy metabolism and early exercise adaptation, this could affect offspring training efficiency and exercise performance in later life. Investigation of the acute response to exercise showed that mHFD offspring displayed a reduced gene expression of vascularization markers (Hif1a, Vegfb, etc) pointing towards a reduced angiogenesis which could possibly contribute to their reduced endurance capacity. Furthermore, an impaired glucose utilization of skeletal muscle during the acute exercise bout by an impaired skeletal muscle glucose handling was evidenced by higher blood glucose levels, lower GLUT4 translocation and diminished Lactate dehydrogenase activity in mHFD offspring immediately after the endurance test. These points towards a disturbed use of glucose as a substrate during endurance exercise. Prolonged HFD feeding during adulthood increases offspring fat mass gain in mHFD offspring compared to offspring from low-fat fed mothers and also reduces their insulin sensitivity pointing towards a higher obesity and diabetes susceptibility despite exercise training. Consequently, mHFD reduces offspring responsiveness to the beneficial effects of voluntary exercise training. Conclusion: The results of this PhD thesis demonstrate that mHFD consumption impairs the offspring’s training efficiency and endurance capacity, and reduced the beneficial effects of exercise on the development of diet-induced obesity and insulin resistance in the offspring. This might be due to changes in skeletal muscle epigenetic profile and/or an impaired skeletal muscle angiogenesis and glucose utilization during an acute exercise bout, which could contribute to a disturbed adaptive response to exercise training. N2 - Hintergrund: Übergewicht ist die Folge einer ungesunden Ernährung und einem Mangel an körperlicher Aktivität. Obwohl die daraus resultierenden metabolischen Veränderungen wie die beeinträchtigte Glukose-Homöostase und die Insulinsensitivität in der Regel durch körperliche Aktivität verbessert werden können, sind einige adipöse Patienten nicht in der Lage ihren Skelettmuskel-Metabolismus durch regelmäßiges Training zu verbessern. Da dies weitgehend vererbbar sein könnte, wird vermutet, dass die maternale Ernährung während der Gestation und Laktation einen beeinträchtigten Energiestoffwechsel des Skelettmuskels der Nachkommen begünstigt. Ziel: Ziel dieser Dissertation war es, den Einfluss der maternalen Hochfett-Diät (mHFD) auf den Skelettmuskel des Nachkommens zu untersuchen. Wir konnten zeigen, dass eine mHFD während der Gestation und Laktation die Trainingseffizienz und die Ausdauerleistung der Nachkommen verringert, verursacht durch die Veränderung des epigenetischen Profils des Skelettmuskels der Nachkommen und der verminderten Anpassung an eine akute Trainingsleistung, was langfristig die Anfälligkeit für die Entwicklung einer Adipositas im Nachkommen erhöht. Experimentelles Setup: Um dieses Thema ausführlich zu erforschen, hatten wir ein komplexes Studiendesign. Allen vier Studien ging dasselbe maternale Fütterungsregime voraus. Weibliche C57BL/6J Mäuse wurden entweder mit einer Niedrigfett-Diät (LFD; 10 Energie% aus Fett) oder Hochfett-Diät (HFD; 40 Energie% aus Fett) während der Gestation und Laktation gefüttert. Nach Absatz wurden die männlichen Nachkommen beider Gruppen auf eine LFD umgestellt, auf der sie bis zum Ende der jeweiligen Studie in der Woche 6, 15 oder 25 blieben. In einer Studie folgte auf die LFD-Fütterung eine HFD-Versorgung von Woche 15 bis Woche 25, um den Einfluss der maternalen Diät auf die Entwicklung einer Adipositas der Nachkommen aufzuklären. In der 7. Woche wurden alle Mäuse zufällig einer sesshaften Gruppe (ohne Laufrad) oder einer Trainingsgruppe (mit Laufrad für freiwilliges Trainingstraining) zugewiesen. Darüber hinaus wurden Laufband-Ausdauertests durchgeführt, um die Trainingsleistung und -effizienz zu untersuchen. Um die regulatorischen Mechanismen aufzudecken, wurde jede Studie mit einem spezifischen analytischen Aufbau kombiniert, wie z. B. einer Mikroarray-Analyse, Gen- und Protein-Expressionsanalysen, DNA-Methylierungsanalysen und Enzymaktivitäts-Assays. Ergebnisse: mHFD Nachkommen zeigten eine reduzierte Trainingseffizienz und Ausdauerkapazität. Dies ist nicht auf einen veränderten Skelettmuskel-Phänotyp mit Veränderungen der Muskelfasergröße, der Anzahl und der Muskelfasertypen zurückzuführen. DNA-Methylierungsmessungen bei 6 Wochen alten Nachkommen zeigten eine Hypomethylierung des Nr4a1-Gens in mHFD-Nachkommen, was wiederum in einer erhöhten Genexpression resultierte. Da Nr4a1 eine wichtige Rolle bei der Regulierung des Skelettmuskel-Energiestoffwechsels und der frühen Trainingsanpassung spielt, könnte dies die Trainingseffizienz und -leistung der Nachkommen im späteren Leben beeinflussen. Bei der Untersuchung der Reaktion auf eine akute Ausdauerleistung zeigten die mHFD-Nachkommen eine reduzierte Genexpression von Vaskularisierungsmarkern (Hif1a, Vegfb usw.), die auf eine reduzierte Angiogenese hindeuteten, welche eine Ursache für ihre verminderte Ausdauerkapazität darstellen könnte. Darüber hinaus wurde eine beeinträchtigte Glucoseverwertung des Skelettmuskels während des akuten Ausdauertrainings durch eine beeinträchtigte Glucose-Nutzung des Skelettmuskels mit erhöhten Blutzuckerwerten, einer verminderten GLUT4-Translokation und Laktatdehydrogenase-Aktivität in mHFD-Nachkommen unmittelbar nach dem Ausdauertest gezeigt. Dies weist auf eine gestörte Verwertung der Glucose als Substrat während des Ausdauertrainings hin. Länger andauernde HFD-Fütterung während des Erwachsenenalters erhöht die Fettmasse in mHFD-Nachkommen im Vergleich zu mLFD-Nachkommen und verringert zudem ihre Insulinsensitivität, was Hinweise auf eine erhöhte Adipositas- und Diabetes-Anfälligkeit gibt. Folglich führt die mHFD zu einer verminderten Anpassung der Nachkommen an die positiven Effekte des freiwilligen Laufrad-Trainings. Schlussfolgerung: Die Ergebnisse dieser Dissertation zeigen, dass der mHFD-Konsum die Trainingseffizienz und Ausdauerkapazität der Nachkommen beeinträchtigt, was die Adipositas- und Diabetes-Anfälligkeit im Erwachsenenalter erhöhen kann. Dies könnte auf Veränderungen im epigenetischen Profil des Skelettmuskels und/oder Beeinträchtigungen der Angiogenese und Glukoseverwertung im Skelettmuskel während eines akuten Ausdauertrainings zurückzuführen sein, was zu einer gestörten Anpassung der Nachkommen an das Training beitragen könnte. KW - maternal diet KW - offspring KW - exercise performance KW - skeletal muscle KW - obesity KW - maternale Ernährung KW - Nachkommen KW - Ausdauerleistung KW - Skelettmuskel KW - Adipositas Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409703 ER - TY - THES A1 - Schulze, Nicole T1 - Neue Templatphasen zur anisotropen Goldnanopartikelherstellung durch den Einsatz strukturbildender Polymere T1 - New template phases for anisotropic gold nanoparticle production through the use of structure-forming polymers N2 - Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung von anisotropen Goldnanopartikeln in einer geeigneten Polyelektrolyt-modifizierten Templatphase. Der Mittelpunkt bildet dabei die Auswahl einer geeigneten Templatphase, zur Synthese von einheitlichen und reproduzierbaren anisotropen Goldnanopartikeln mit den daraus resultierenden besonderen Eigenschaften. Bei der Synthese der anisotropen Goldnanopartikeln lag der Fokus in der Verwendung von Vesikeln als Templatphase, wobei hier der Einfluss unterschiedlicher strukturbildender Polymere (stark alternierende Maleamid-Copolymere PalH, PalPh, PalPhCarb und PalPhBisCarb mit verschiedener Konformation) und Tenside (SDS, AOT – anionische Tenside) bei verschiedenen Synthese- und Abtrennungsbedingungen untersucht werden sollte. Im ersten Teil der Arbeit konnte gezeigt werden, dass PalPhBisCarb bei einem pH-Wert von 9 die Bedingungen eines Röhrenbildners für eine morphologische Transformation von einer vesikulären Phase in eine röhrenförmige Netzwerkstruktur erfüllt und somit als Templatphase zur formgesteuerten Bildung von Nanopartikeln genutzt werden kann. Im zweiten Teil der Arbeit wurde dargelegt, dass die Templatphase PalPhBisCarb (pH-Wert von 9, Konzentration von 0,01 wt.%) mit AOT als Tensid und PL90G als Phospholipid (im Verhältnis 1:1) die effektivste Wahl einer Templatphase für die Bildung von anisotropen Strukturen in einem einstufigen Prozess darstellt. Bei einer konstanten Synthesetemperatur von 45 °C wurden die besten Ergebnisse bei einer Goldchloridkonzentration von 2 mM, einem Gold-Templat-Verhältnis von 3:1 und einer Synthesezeit von 30 Minuten erzielt. Ausbeute an anisotropen Strukturen lag bei 52 % (Anteil an dreieckigen Nanoplättchen von 19 %). Durch Erhöhung der Synthesetemperatur konnte die Ausbeute auf 56 % (29 %) erhöht werden. Im dritten Teil konnte durch zeitabhängige Untersuchungen gezeigt werden, dass bei Vorhandensein von PalPhBisCarb die Bildung der energetisch nicht bevorzugten Plättchen-Strukturen bei Raumtemperatur initiiert wird und bei 45 °C ein Optimum annimmt. Kintetische Untersuchungen haben gezeigt, dass die Bildung dreieckiger Nanoplättchen bei schrittweiser Zugabe der Goldchlorid-Präkursorlösung zur PalPhBisCarb enthaltenden Templatphase durch die Dosierrate der vesikulären Templatphase gesteuert werden kann. In umgekehrter Weise findet bei Zugabe der Templatphase zur Goldchlorid-Präkursorlösung bei 45 °C ein ähnlicher, kinetisch gesteuerter Prozess der Bildung von Nanodreiecken statt mit einer maximalen Ausbeute dreieckigen Nanoplättchen von 29 %. Im letzten Kapitel erfolgten erste Versuche zur Abtrennung dreieckiger Nanoplättchen von den übrigen Geometrien der gemischten Nanopartikellösung mittels tensidinduzierter Verarmungsfällung. Bei Verwendung von AOT mit einer Konzentration von 0,015 M wurde eine Ausbeute an Nanoplättchen von 99 %, wovon 72 % dreieckiger Geometrien hatten, erreicht. N2 - The aim of the present work was the synthesis and characterization of anisotropic gold nanoparticles in a suitable polyelectrolyte-modified template phase. The focus was on the selection of a suitable template phase for the synthesis of uniform and reproducible anisotropic gold nanoparticles with the resulting special properties. In the synthesis of the anisotropic gold nanoparticles, the focus was on the use of vesicles as a template phase. Here, the influence of different structure-forming polymers (strongly alternating maleimide copolymers PalH, PalPh, PalPhCarb and PalPhBisCarb with different conformations) and surfactants (SDS, AOT - anionic surfactants) should be studied at various synthesis and separation conditions. In the first part of the work, it could be shown that PalPhBisCarb at pH 9 meets the requirements of a tubulating agent for a morphological transformation of a vesicular phase into a tubular network structure and thus can be used as a template phase for the shape-controlled formation of nanoparticles. In the second part of the work, it was shown that the template phase PalPhBisCarb (pH value of 9, concentration of 0.01 wt.%) with AOT as surfactant and PL90G as phospholipid (in the ratio 1:1) is the most effective choice of template phase for the formation of anisotropic structures in a one-step process. At a constant synthesis temperature of 45 °C, the best results were achieved with a gold chloride concentration of 2 mM, a gold-template ratio of 3:1 and a synthesis time of 30 minutes. The yield of anisotropic structures was 52% (triangular nanoplatelet content of 19%). By increasing the synthesis temperature, the yield could be increased to 56% (29%). In the third part, it was shown by time-dependent investigations that in the presence of PalPhBisCarb, the formation of the not energetically preferred platelet structures is initiated at room temperature and assumes an optimum at 45 °C. Kinetical studies have shown that the formation of triangular nanosheets can be controlled by the dosing rate of the vesicular template phase when the gold chloride precursor solution is gradually added to the PalPhBisCarb-containing template phase. Conversely, upon addition of the template phase to the gold chloride precursor solution at 45 °C, a similar, kinetically controlled process of formation of nanodimers takes place with a maximum yield of triangular nanoplatelets of 29%. In the last chapter, initial attempts were made to separate triangular nanoplatelets from the other geometries of the mixed nanoparticle solution by means of surfactant-induced depletion flocculation. When AOT was used at a concentration of 0.015 M, a yield of nanoplatelets of 99%, of which 72% had triangular geometries, was achieved. KW - Nanopartikel KW - nanoparticle KW - Templatphase KW - template phase KW - Gold KW - gold KW - anisotrop KW - anisotropic Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409515 ER - TY - THES A1 - Zühlke, Martin T1 - Elektrosprayionisation Ionenmobilitätsspektrometrie T1 - Electrospray ionization Ion mobility spectrometry BT - Entwicklung, Charakterisierung und Anwendung zur HPLC-Detektion und zum Reaktionsmonitoring BT - development, characterization and application for HPLC detection and reaction monitoring N2 - Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt. In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt. Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt. N2 - Electrospray ionization (ESI) is one of the most widespread ionization techniques for liquid samples in mass and ion mobility (IM) spectrometry. Due to its gentle ionization, ESI is often used for sensitive, complex molecules in biology and medicine. However, it is also applicable to a wide range of substance classes. IM spectrometry was originally developed for the detection of gaseous samples, which are mainly ionized by radioactive sources. It is the only analytical method in which isomers can be separated in real time and directly identified by their characteristic IM. ESI was introduced to IM spectrometry by the Hill Group in the 90s. So far, the combination was only used by a limited number of groups and therefore there is still a large development potential. A highly promising field of application is highperformance liquid chromatography (HPLC) for multidimensional separations. At present, HPLC is the standard method for the separation of complex samples in routine analysis. However, HPLC separations are often time-consuming and the use of different solvents, high flow rates, buffers, as well as solvent gradients impose high demands on the detectors. ESI IM spectrometry was already used as an HPLC detector in a number of studies. However, these studies were restricted to splitting or low flow rates of the mobile phase. In this cumulative thesis, an ESI IM spectrometer was developed as an HPLC detector for the flow rate range of 200-1500 μl/min for the first time. Based on five publications, (1) the suitability of the spectrometer as an HPLC detector was comprehensively characterized, (2) selected complex separations are presented, and (3) the application to the reaction monitoring as well as (4, 5) possible further developments are shown. With the in-house developed ESI IM spectrometer, typical HPLC conditions such as water contents in the mobile phase of up to 90%, buffer concentrations of up to 10 mM, as well as detection limits of up to 50 nM, were achieved successfully. Furthermore, on the basis of a complex separation (24 pesticides/18 amino acids), it could be demonstrated that HPLC and IM spectrometry possess a high degree of orthogonality. An effective peak capacity of 240 was thus realized. Substances coeulating on the HPLC column could be separated in the drift time and were identified by their IM. Thus, the overall separation times could be significantly reduced. The applicability of the ESI IM spectrometer for the monitoring of chemical syntheses was demonstrated for a three-stage reaction. The main starting materials, intermediates and products of all stages could be identified. A quantitative evaluation was possible both by means of a short HPLC pre-separation as well as by a newly developed calibration procedure, which takes charge competition during ESI into account, without HPLC. In the second part of the thesis, two further developments of the spectrometer are presented. One possibility is a reduction of the pressure to the intermediate range (300 - 1000 mbar) with the aim of reducing the required voltages. With the help of scattered light images and current-voltage curves, a reduced release of analyte ions from the droplets was determined at low pressures. However, these losses could be compensated for by higher electric field strengths. Therefore, the same detection limits were achieved at 500 mbar and at 1 bar. The second development is a novel ion gate with pulse switching, which allows a doubling of the resolution up to R > 100 with equal sensitivity. A possible application in the field of peptide analysis was demonstrated, achieving a considerable resolutions of R = 90 for the peptides. KW - HPLC KW - HPLC KW - Ionenmobilitätsspektrometrie KW - Elektrosprayionisation KW - ion mobility spectrometry KW - electrospray ionization (ESI) Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407452 ER - TY - THES A1 - Willersinn, Jochen T1 - Self-Assembly of double hydrophilic block copolymers T1 - Selbstorganisation Doppelt Hydrophiler Blockcopolymere BT - organized particles and vesicles beyond amphiphiles BT - organisierte Partikel und Vesikel jenseits von Amphiphilen N2 - The motivation of this work was to investigate the self-assembly of a block copolymer species that attended little attraction before, double hydrophilic block copolymers (DHBCs). DHBCs consist of two linear hydrophilic polymer blocks. The self-assembly of DHBCs towards suprastructures such as particles and vesicles is determined via a strong difference in hydrophilicity between the corresponding blocks leading to a microphase separation due to immiscibility. The benefits of DHBCs and the corresponding particles and vesicles, such as biocompatibility, high permeability towards water and hydrophilic compounds as well as the large amount of possible functionalizations that can be addressed to the block copolymers make the application of DHBC based structures a viable choice in biomedicine. In order to assess a route towards self-assembled structures from DHBCs that display the potential to act as cargos for future applications, several block copolymers containing two hydrophilic polymer blocks were synthesized. Poly(ethylene oxide)-b-poly(N-vinylpyrrolidone) (PEO-b-PVP) and Poly(ethylene oxide)-b-poly(N-vinylpyrrolidone-co-N-vinylimidazole) (PEO-b-P(VP-co-VIm) block copolymers were synthesized via reversible deactivation radical polymerization (RDRP) techniques starting from a PEO-macro chain transfer agent. The block copolymers displayed a concentration dependent self-assembly behavior in water which was determined via dynamic light scattering (DLS). It was possible to observe spherical particles via laser scanning confocal microscopy (LSCM) and cryogenic scanning electron microscopy (cryo SEM) at highly concentrated solutions of PEO-b-PVP. Furthermore, a crosslinking strategy with (PEO-b-P(VP-co-VIm) was developed applying a diiodo derived crosslinker diethylene glycol bis(2-iodoethyl) ether to form quaternary amines at the VIm units. The formed crosslinked structures proved stability upon dilution and transfer into organic solvents. Moreover, self-assembly and crosslinking in DMF proved to be more advantageous and the crosslinked structures could be successfully transferred to aqueous solution. The afforded spherical submicron particles could be visualized via LSCM, cryo SEM and Cryo TEM. Double hydrophilic pullulan-b-poly(acrylamide) block copolymers were synthesized via copper catalyzed alkyne azide cycloaddition (CuAAC) starting from suitable pullulan alkyne and azide functionalized poly(N,N-dimethylacrylamide) (PDMA) and poly(N-ethylacrylamide) (PEA) homopolymers. The conjugation reaction was confirmed via SEC and 1H-NMR measurements. The self-assembly of the block copolymers was monitored with DLS and static light scattering (SLS) measurements indicating the presence of hollow spherical structures. Cryo SEM measurements could confirm the presence of vesicular structures for Pull-b-PEA block copolymers. Solutions of Pull-b-PDMA displayed particles in cryo SEM. Moreover, an end group functionalization of Pull-b-PDMA with Rhodamine B allowed assessing the structure via LSCM and hollow spherical structures were observed indicating the presence of vesicles, too. An exemplified pathway towards a DHBC based drug delivery vehicle was demonstrated with the block copolymer Pull-b-PVP. The block copolymer was synthesized via RAFT/MADIX techniques starting from a pullulan chain transfer agent. Pull-b-PVP displayed a concentration dependent self-assembly in water with an efficiency superior to the PEO-b-PVP system, which could be observed via DLS. Cryo SEM and LSCM microscopy displayed the presence of spherical structures. In order to apply a reversible crosslinking strategy on the synthesized block copolymer, the pullulan block was selectively oxidized to dialdehydes with NaIO4. The oxidation of the block copolymer was confirmed via SEC and 1H-NMR measurements. The self-assembled and oxidized structures were subsequently crosslinked with cystamine dihiydrochloride, a pH and redox responsive crosslinker resulting in crosslinked vesicles which were observed via cryo SEM. The vesicular structures of crosslinked Pull-b-PVP could be disassembled by acid treatment or the application of the redox agent tris(2-carboxyethyl)-phosphin-hydrochloride. The successful disassembly was monitored with DLS measurements. To conclude, self-assembled structures from DHBCs such as particles and vesicles display a strong potential to generate an impact on biomedicine and nanotechnologies. The variety of DHBC compositions and functionalities are very promising features for future applications. N2 - Die Selbstanordnung von amphiphilen Blockcopolymeren in Wasser zu Strukturen höherer Ordnung, wie Partikel oder Vesikel, ist seit vielen Jahren bekannt und findet Anwendung in vielen Aspekten der Medizin und Materialwissenschaft. Allerdings ist die treibende Kraft dieser Selbstanordnung zu Vesikeln, die Hydrophobie des wasserunlöslichen Polmyerblocks, auch ein Hindernis für den gezielten Transport von neuen Medikamenten und Wirkstoffen, da die Membran dieser Vesikel aufgrund des hydrophoben Anteils sehr dicht gepackt ist und eine Diffusion der Wirkstoffe durch diese Membran häufig nur durch hohen synthetischen Aufwand gewährleistet werden kann. Einen möglichen Ausweg bietet die Anwendung von doppelt hydrophilen Blockcopolymeren (DHBCs), respektive Blockcopolymere die aus zwei Polymerblöcken mit unterschiedlicher Hydrophilie bestehen. Ist dieser Unterschied groß genug, können DHBCs Partikel- und Vesikelstrukturen ausbilden, die denen der amphiphilen Blockcopolymere ähnlich sind. Um das Potential von DHBC Strukturen zu untersuchen und einen tieferen Einblick in die fundamentalen Prinzipien dieser Selbstanordnung zu erhalten, wurden in dieser Arbeit fünf verschiedene Blockcopolymere hergestellt. Poly(Ethylenoxid)-b-Poly(N-Vinylpyrrolidon) und Poly(Ethylenoxid)-b-Poly(N-Vinylpyrrolidon-co-N-Vinylimidazol) Blockcopolymere wurden über eine kontrollierte radikalische Polymerisation hergestellt und zeigten eine konzentrationsabhängige Selbstanordnung zu Partikeln mit Größen unter einem Mikrometer. Diese Partikel konnten vernetzt werden, sodass sie auch bei starker Verdünnung nicht zerfallen. Zwei Pullulan-b-Poly(Acrylamid) Blockcopolymere wurden über eine Konjugationsreaktion hergestellt, die die beiden separaten Polymerblöcke miteinander verbindet. Diese Blockcopolymere ordneten sich in Wasser zu Vesikulären Strukturen mit Größen zwischen 250 nm und 500 nm. Des Weiteren war es möglich, einen Farbstoff an ein Blockcopolymer anzubringen und den vesikulären Charakter mit konfokaler Mikroskopie zu untersuchen. Ein Ausblick auf mögliche medizinische Anwendung von DHBCs wurde mit dem letzten Blockcopolymer Pullulan-b-Poly(N-Vinylpyrrolidon) gegeben. Vesikel aus diesem Blockcopolymer wurden mit einem pH- und Redox-responsivem Vernetzer vernetzt und es wurde gezeigt, dass sich die vesikulären Strukturen durch Säurebehandlung zersetzen lassen. Dieses System veranschaulicht die theoretische Anwendungsmöglichkeit von DHBCs im gezielten Medikamententransport. KW - self-assembly KW - double hydrophilic block copolymers KW - polymer chemistry KW - RAFT/MADIX polymerization KW - block copolymer vesicles KW - Selbstorganisation KW - Doppelt hydrophile Blockcopolymere KW - Polymerchemie KW - RAFT/MADIX Polymerisation KW - Blockcopolymervesikel Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408578 ER - TY - THES A1 - Reike, Dennis T1 - A look behind perceptual performance in numerical cognition T1 - Ein Blick hinter die perzeptuellen Leistungen numerischer Kognition N2 - Recognizing, understanding, and responding to quantities are considerable skills for human beings. We can easily communicate quantities, and we are extremely efficient in adapting our behavior to numerical related tasks. One usual task is to compare quantities. We also use symbols like digits in numerical-related tasks. To solve tasks including digits, we must to rely on our previously learned internal number representations. This thesis elaborates on the process of number comparison with the use of noisy mental representations of numbers, the interaction of number and size representations and how we use mental number representations strategically. For this, three studies were carried out. In the first study, participants had to decide which of two presented digits was numerically larger. They had to respond with a saccade in the direction of the anticipated answer. Using only a small set of meaningfully interpretable parameters, a variant of random walk models is described that accounts for response time, error rate, and variance of response time for the full matrix of 72 digit pairs. In addition, the used random walk model predicts a numerical distance effect even for error response times and this effect clearly occurs in the observed data. In relation to corresponding correct answers error responses were systematically faster. However, different from standard assumptions often made in random walk models, this account required that the distributions of step sizes of the induced random walks be asymmetric to account for this asymmetry between correct and incorrect responses. Furthermore, the presented model provides a well-defined framework to investigate the nature and scale (e.g., linear vs. logarithmic) of the mapping of numerical magnitude onto its internal representation. In comparison of the fits of proposed models with linear and logarithmic mapping, the logarithmic mapping is suggested to be prioritized. Finally, we discuss how our findings can help interpret complex findings (e.g., conflicting speed vs. accuracy trends) in applied studies that use number comparison as a well-established diagnostic tool. Furthermore, a novel oculomotoric effect is reported, namely the saccadic overschoot effect. The participants responded by saccadic eye movements and the amplitude of these saccadic responses decreases with numerical distance. For the second study, an experimental design was developed that allows us to apply the signal detection theory to a task where participants had to decide whether a presented digit was physically smaller or larger. A remaining question is, whether the benefit in (numerical magnitude – physical size) congruent conditions is related to a better perception than in incongruent conditions. Alternatively, the number-size congruency effect is mediated by response biases due to numbers magnitude. The signal detection theory is a perfect tool to distinguish between these two alternatives. It describes two parameters, namely sensitivity and response bias. Changes in the sensitivity are related to the actual task performance due to real differences in perception processes whereas changes in the response bias simply reflect strategic implications as a stronger preparation (activation) of an anticipated answer. Our results clearly demonstrate that the number-size congruency effect cannot be reduced to mere response bias effects, and that genuine sensitivity gains for congruent number-size pairings contribute to the number-size congruency effect. Third, participants had to perform a SNARC task – deciding whether a presented digit was odd or even. Local transition probability of irrelevant attributes (magnitude) was varied while local transition probability of relevant attributes (parity) and global probability occurrence of each stimulus were kept constantly. Participants were quite sensitive in recognizing the underlying local transition probability of irrelevant attributes. A gain in performance was observed for actual repetitions of the irrelevant attribute in relation to changes of the irrelevant attribute in high repetition conditions compared to low repetition conditions. One interpretation of these findings is that information about the irrelevant attribute (magnitude) in the previous trial is used as an informative precue, so that participants can prepare early processing stages in the current trial, with the corresponding benefits and costs typical of standard cueing studies. Finally, the results reported in this thesis are discussed in relation to recent studies in numerical cognition. N2 - Das Erkennen, Verstehen und Verwenden von Mengen sind beachtliche menschliche Fähigkeiten. Die Kommunikation numerischer Information fällt uns leicht, zudem beeinflussen numerische Informationen unser Handeln. Eine typische numerische Aufgabe ist der Mengenvergleich. Um solche Mengen zu beschreiben verwenden wir Ziffern als Symbole zur Bildung von Zahlen. Um Zahlen zu vergleichen, müssen wir auf die zuvor erlernte interne Zahlenrepräsentationen zurückgreifen. In dieser Dissertation werden drei Studien vorgestellt. Diese betrachten den Prozess des Zahlenvergleichs, die Interaktion numerischer und physikalischer Repräsentation und die strategische Nutzung numerischer Repräsentationen. In der ersten Studie sollten Versuchspersonen so schnell wie möglich die größere von zwei präsentierten Zahlen angeben. Sie sollten mit einer Sakkade in Richtung der größeren Zahl antworten. Eine Variante von Random Walk Modellen mit einem sparsamen Set an interpretierbaren Parameter wurde verwendet um die Reaktionszeit, die Fehlerrate und die Varianz der Reaktionszeit zu beschreiben. Auch für Fehlerzeiten sagt dieses Modell einen numerischen Distanzeffekt vorher, der sich in den Daten robust zeigt. Außerdem sind Fehlerzeiten schneller als korrespondierende Reaktionszeiten richtiger Antworten. Diese Asymmetrie lässt sich durch eine schiefe Schrittgrößenverteilung erklären, welche nicht zu den üblichen Standardannahmen von Random Walk Modellen gehört. Das vorgestellte Modell liefert einen definierten Rahmen um die Art und Skalierung (z.B. linear vs. logarithmisch) numerischer Repräsentationen zu untersuchen, wobei die Ergebnisse klar für eine logarithmische Skalierung sprechen. Abschließend wird ein Ausblick gegeben, wie dieses Modell helfen kann, komplexe Befunde (z.B. Geschwindigkeit vs. Genauigkeit) in Studien zu erklären, die Zahlenvergleiche als etabliertes Werkzeug verwenden. Außerdem beschreiben wir einen neuen okulomotorischen Effekt, den sakkadischen Overschoot Effekt. Für die zweite Studie wurde ein experimentelles Design entwickelt, das es ermöglicht die Signalentdeckungstheorie zu verwenden. Hierbei sollten Versuchspersonen die physikalische Größe von Ziffern beurteilen. Eine offene Frage ist, ob der Leistungsgewinn in (numerisch - physikalisch) kongruenten Bedingungen auf eine verbesserte Wahrnehmung oder auf einen numerisch induzierten Antwortbias zurückzuführen ist. Die Signalentdeckungstheorie ist das perfekte Werkzeug um zwischen diesen beiden Erklärungen zu unterscheiden. Dabei werden zwei Parameter beschrieben, die Sensitivität und der Antwortbias. Unsere Ergebnisse demonstrieren, dass der Zahlen-Größen Effekt nicht auf einen einfachen Antwortbias zurückzuführen ist. Vielmehr tragen wahre Sensitivitätsgewinne in kongruenten Bedingungen zur Entstehung des Zahlen-Größen Effekts bei. In der dritten Studie sollten die Versuchspersonen eine SNARC Aufgabe durchführen, wobei sie angeben sollten ob eine präsentierte Zahl gerade oder ungerade ist. Die lokale Wiederholungswahrscheinlichkeit des irrelevanten Attributes (Magnitude) wurde zwischen Versuchspersonen variiert. Die Versuchspersonen waren sensitiv für diese Wiederholungswahrscheinlichkeiten. Ein Leistungsgewinn zeigte sich bei tatsächlichen Wiederholungen des irrelevanten Attributes in der Bedingung mit hoher Wiederholungswahrscheinlichkeit des irrelevanten Attributes. Eine mögliche Interpretation ist, dass Informationen aus dem Vortrial als eine Art Hinweis betrachtet werden, so dass die Versuchspersonen im aktuellen Trial frühe Prozessstufen vorbereiten können, was zu entsprechenden Gewinnen und Kosten führt. Die in dieser Dissertation berichteten Ergebnisse werden abschließend diskutiert und in Relation zu aktuellen Studien im Bereich der numerischen Kognition gesetzt. KW - numerical cognition KW - mental number representation KW - numerische Kognition KW - mentale Zahlenrepräsentation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407821 ER - TY - THES A1 - Baumgarten, Franz T1 - Nahrungsergänzungsmittel im Nachwuchssport - Interventionsempfehlungen vor dem Hintergrund der Theorie der Zielsysteme T1 - Nutritional supplements in youth sport - Recommendations for interventions using the theory of goal systems N2 - Aufgrund verschiedener wissenschaftlicher Erkenntnisse wird jungen Sporttreibenden vom Gebrauch von Nahrungsergänzungsmitteln (NEM) abgeraten. Diese Dissertation verfolgt vor dem Hintergrund der Theorie der Zielsysteme (TDZ) das Ziel der Erstellung anwendungsorientieren Handlungswissens, anhand dessen Interventionsempfehlungen zur Reduzierung des prävalenten NEM-Konsums im Nachwuchssport ableitbar sind. Insgesamt wurden sechs Untersuchungen durchgeführt. Die Versuchsteilnehmenden absolvierten in sämtlichen Studien eine Variante der lexikalischen Entscheidungsaufgabe. Diese Aufgabe diente der Operationalisierung von automatisch aktivier- und abrufbaren nahrungsergänzungsmittelbezogenen Ziel-Mittel-Relationen. In einer Stichprobe von Sportstudierenden zeigte sich, dass NEM mit dem Ziel Leistung assoziiert sind (Studie 1). Unter Berücksichtigung des NEM-Konsums wurde dieses Ergebnis für Nachwuchsathletinnen und -athleten aus dem Breitensport repliziert (Studie 2). Zusätzlich konnte in beiden Studien die Bedeutung dieser Ziel-Mittel-Relationen für das Verhalten nachgewiesen werden. In den nachfolgenden Untersuchungen wurden spezifische Veränderungsmechanismen der verhaltensleitenden Ziel-Mittel-Relation aus Leistung und NEM zunächst an Sportstudierenden experimentell evaluiert. Durch das Herausstellen der fehlenden leistungssteigernden Wirkung von NEM konnte diese Zielassoziation nicht modifiziert werden (Studie 3). Das Betonen gesundheitsschädigender Konsequenzen (Studie 4) und das Akzentuieren einer gesunden Ernährung (Studie 5) erwiesen sich demgegenüber als geeignet zur Veränderung der Ziel-Mittel-Relation. Das Herausstellen einer gesunden Ernährung führte deskriptiv bei Nachwuchsathletinnen und -athleten ebenfalls zur Modifikation der Zielassoziation (Studie 6). Die inferenzstatistische Bestätigung der Ergebnisse dieser Studie steht aufgrund der geringen Teststärke der Untersuchung noch aus. Insgesamt verdeutlichen die Ergebnisse, dass die auf Ebene automatischer Kognitionen bestehende und verhaltensleitende Assoziation des Gebrauchs von NEM mit Leistung durch die Akzentuierung gesundheitlicher Perspektiven experimentell verändert werden kann. Abschließend wird die theoretische und praktische Bedeutung des erstellten Handlungswissen für künftige Interventionsempfehlungen zur Reduzierung des Gebrauchs von NEM diskutiert. N2 - Various scientific findings discourage the use of nutritional supplements (NS) among young athletes. In light of the theory of goal systems (TGS) this doctoral thesis aims at the development of academically guided recommendations for intervention approaches that reduce the prevalent NS use. Within this framework, a total of six studies was conducted. In each study participants completed an adapted version of a lexical decision task. This task served to measure NS related goal-means associations that are proposed within the TGS and can be activated and retrieved automatically. In a sample of sport and exercise students NS were associated with the goal performance (study 1). These findings were replicated in a sample of NS using young athletes from amateur sports (study 2). In addition, both studies emphasized the importance of this particular goal-means association for behaviour. The following studies evaluated potential mechanisms for the modification of the behaviour influencing goal-means association between NS and performance in samples of sport and exercise students. Highlighting the lack of performance enhancing effects of NS did not alter the goal-means association between NS and performance (study 3). Rather, the emphasis on the harmful effects of health (study 4) and on healthy diet (study 5) led to significant changes of this particular goal-means association. Highlighting the positive effects of a healthy diet for athletic performance descriptively proved to be a potential mechanism for altering goal-means associations in a sample of young athletes from competitive sports (study 6). Due to the lack of statistical power, the confirmation of this trend using inferential statistics is still pending. Overall, the results of the completed studies illustrate that the automatic and behaviour influencing goal-means associations between NS and performance can be experimentally modified, especially by health-oriented messages. The theoretical and practical relevance of this thesis for future interventions in order to reduce the NS use among young athletes is discussed. KW - Nahrungsergänzungsmittel KW - Nachwuchssport KW - Theorie der Zielsysteme KW - automatische Prozesse KW - Intervention KW - nutritional supplements KW - young athletes KW - theory of goal systems KW - automatic processes KW - intervention Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405652 ER - TY - THES A1 - Che, Xiaoyin T1 - E-lecture material enhancement based on automatic multimedia analysis T1 - Online-Vorlesung Materialverbesserung basierend auf automatischer Multimedia-Analyse N2 - In this era of high-speed informatization and globalization, online education is no longer an exquisite concept in the ivory tower, but a rapidly developing industry closely relevant to people's daily lives. Numerous lectures are recorded in form of multimedia data, uploaded to the Internet and made publicly accessible from anywhere in this world. These lectures are generally addressed as e-lectures. In recent year, a new popular form of e-lectures, the Massive Open Online Courses (MOOCs), boosts the growth of online education industry and somehow turns "learning online" into a fashion. As an e-learning provider, besides to keep improving the quality of e-lecture content, to provide better learning environment for online learners is also a highly important task. This task can be preceded in various ways, and one of them is to enhance and upgrade the learning materials provided: e-lectures could be more than videos. Moreover, this process of enhancement or upgrading should be done automatically, without giving extra burdens to the lecturers or teaching teams, and this is the aim of this thesis. The first part of this thesis is an integrated framework of multi-lingual subtitles production, which can help online learners penetrate the language barrier. The framework consists of Automatic Speech Recognition (ASR), Sentence Boundary Detection (SBD) and Machine Translation (MT), among which the proposed SBD solution is major technical contribution, building on Deep Neural Network (DNN) and Word Vector (WV) and achieving state-of-the-art performance. Besides, a quantitative evaluation with dozens of volunteers is also introduced to measure how these auto-generated subtitles could actually help in context of e-lectures. Secondly, a technical solution "TOG" (Tree-Structure Outline Generation) is proposed to extract textual content from the displaying slides recorded in video and re-organize them into a hierarchical lecture outline, which may serve in multiple functions, such like preview, navigation and retrieval. TOG runs adaptively and can be roughly divided into intra-slide and inter-slides phases. Table detection and lecture video segmentation can be implemented as sub- or post-application in these two phases respectively. Evaluation on diverse e-lectures shows that all the outlines, tables and segments achieved are trustworthily accurate. Based on the subtitles and outlines previously created, lecture videos can be further split into sentence units and slide-based segment units. A lecture highlighting process is further applied on these units, in order to capture and mark the most important parts within the corresponding lecture, just as what people do with a pen when reading paper books. Sentence-level highlighting depends on the acoustic analysis on the audio track, while segment-level highlighting focuses on exploring clues from the statistical information of related transcripts and slide content. Both objective and subjective evaluations prove that the proposed lecture highlighting solution is with decent precision and welcomed by users. All above enhanced e-lecture materials have been already implemented in actual use or made available for implementation by convenient interfaces. N2 - In der Ära der mit Hochgeschwindigkeit digitalisierten und globalisierten Welt ist die Online-Bildung nicht mehr ein kunstvoller Begriff im Elfenbeinturm, sondern eine sich schnell entwickelnde Industrie, die für den Alltag der Menschen eine wichtige Rolle spielt. Zahlreiche Vorlesungen werden digital aufgezeichnet und im Internet Online zur Verfügung gestellt, so dass sie vom überall auf der Welt erreichbar und zugänglich sind. Sie werden als e-Vorlesungen bezeichnet. Eine neue Form der Online-Bildung namens „Massive Open Online Courses“ (MOOCs), welche zum Trend seit dem letzten Jahr geworden ist, verstärket und beschleunigt die Entwicklung des Online-Lernens. Ein Online-Lernen Anbieter hat nicht nur die Qualität des Lerninhaltes sondern auch die Lernumgebung und die Lerntools ständig zu verbessern. Eine diese Verbesserungen ist die Form, in der das Lernmaterial aktualisiert und angeboten wird. Das Ziel dieser Dissertation ist die Untersuchung und die Entwicklung von Tools, die der Prozess der Verbesserung und Aktualisierung des Lernmaterials automatisch durchführen. Die entwickelten Tools sollen das Lehrerteam entlasten und seine Arbeit beschleunigen. Der erste Teil der Dissertation besteht aus einem integrierten Framework für die Generierung von mehrsprachigen Untertiteln. Dies kann den Online-Lernern ermöglichen, die Sprachbarriere beim Lernen zu überwinden. Das Framework besteht aus „Automatic Speech Recognition“ (ASR), „Sentence Boundary Detection“ (SBD), und „Machine Translation“ (MT). SBD ist realisiert durch die Anwendung von „Deep Neural Network“ (DNN) und „Word Vector“ (WV), wodurch die Genauigkeit der Stand der Technik erreicht ist. Außerdem quantitative Bewertung durch Dutzende von Freiwilligen ist also eingesetzt, um zu evaluieren, wie diese automaisch generierten Untertiteln in den E-Vorlesungen helfen können. Im zweiten Teil ist eine technische Lösung namens „Tree-Structure Outline Generation“ (TOG) für die Extraktion des textuellen Inhalts aus den Folien präsentiert. Der extrahierten Informationen werden dann in strukturierter Form dargestellt, welche die Outline der Vorlesung wiederspiegelt. Diese Darstellung kann verschiedenen Funktionen dienen, wie dem Vorschau, der Navigation, und dem Abfragen des Inhaltes. TOG ist adaptiv und kann grob in Intra-Folie und Inter-Folien Phasen unterteilt werden. Für diese Phasen, Tabellenerkennung und die Segmentierung von Vorlesungsvideo können als Sub- oder Post-Applikation jeweils implementiert werden. Die höhere Genauigkeit der extrahierten Outline, der Tabellen, und der Segmenten wird experimentell durch die Anwendung auf verschieden e-Vorlesungen gezeigt. Basierend auf den Untertiteln und dem Outline, die in vorher generiert wurden, Vorlesungsvideos können weiter in Satzeinheiten und Folien-basierten Segmenteinheiten gesplittet werden. Ein Hervorhebungsprozess wird weiter auf diese Einheiten angewendet, um die wichtigsten Teile innerhalb der entsprechenden Vorlesung zu erfassen und zu markieren. Dies entspricht genau, was die Lerner mit einem Stift beim Lesen von Büchern machen. Die Satz-Level-Hervorhebung hängt von der akustischen Analyse auf der Audiospur ab, während die Segment-Level-Hervorhebung auf die Erforschung von Hinweisen aus den statistischen Informationen der verwandten Transkripte und des Folieninhalts fokussiert. Die objektiven und subjektiven Auswertungen zeigen, dass die vorgeschlagene Vorlesungsvorhebungslösung mit anständiger Präzision und von den Benutzern akzeptiert wird. All diese Methoden für die Verbesserung der Online-Materialien wurden bereits für den Einsatz implementiert und durch komfortable Schnittstellen zur Verfügung gestellt. KW - E-Learning KW - deep learning KW - NLP KW - document analysis KW - E-Learning KW - Deep Learning KW - natürliche Sprachverarbeitung KW - Dokument Analyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408224 ER - TY - THES A1 - Berthold, Thomas T1 - Tannine für nachhaltige und funktionale Kohlenstoffmaterialien T1 - Tannins for sustainable and functional carbon materials BT - Synthesestrategien und mögliche Anwendungen BT - synthetic strategies and applications N2 - In Zeiten eines sich schnell ändernden und vielseitigen Energiemarktes müssen Kohlenstoffmaterialien für verschiedene Anforderungen einsetzbar sein. Dies erfordert flexibel synthetisierbare Kohlenstoffmaterialien bevorzugt aus günstigen und nachhaltigen Kohlenstoffquellen. Es ist allerdings nicht leicht Vorläuferverbindungen auszumachen, welche sich einerseits für verschiedene Herstellungsverfahren eignen und deren Kohlenstoffprodukte andererseits in spezifischen Eigenschaften, wie der Struktur, des Stickstoffanteils, der Oberfläche und der Porengrößen, eingestellt werden können. In diesem Zusammenhang können natürliche Polyphenole, etwa überschüssige Tannine aus der Weinproduktion, eine neue Welt zu hoch funktionalen und vielseitig einstellbaren Kohlenstoffmaterialien mit hohen Ausbeuten öffnen. Das Hauptziel dieser vorliegenden Thesis war es neue funktionale, einstellbare und skalierbare nanostrukturierte Kohlenstoffmaterialien aus Tanninen (insbesondere Tanninsäure) für unterschiedliche elektrochemische Zwecke zu synthetisieren und zu charakterisieren. Ermöglicht wurde dies durch unterschiedliche synthetische Herangehensweisen, wie etwa der polymeren Strukturdirektion, dem ionothermalen Templatieren und der weichen Templatierung. An Stelle des weitläufig gebräuchlichen, aber kanzerogenen Vernetzungsagens Formaldehyd wurden bei den vorgestellten Synthesen Harnstoff und Thioharnstoff gewählt, um zugleich die synthetisierten Kohlenmaterialien variabel dotieren zu können. Daher wurden im ersten Teil der Arbeit die Wechselwirkungen, Reaktionen und thermischen Verhaltensweisen von Tanninsäure und Mixturen von Tanninsäure und Harnstoff bzw. Thioharnstoff untersucht, um daraus wichtige Erkenntnisse für die verschiedenen Kohlenstoffsynthesen zu gewinnen. Durch die Verwendung eines polymeren Strukturierungsagenz Pluronic P123 konnten in einer ersten Kohlenstoffsynthese nachhaltige und dotierbare Kohlenstoffpartikel mit Durchmessern im Nanometerbereich aus Tanninsäure und Harnstoff hergestellt werden. Es konnte dabei gezeigt werden, dass durch die Modifikation der verschiedenen Syntheseparameter die Kohlenstoffnanopartikel gemäß ihres gemittelten Partikeldurchmessers, ihrer BET-Oberfläche, ihrer Komposition, ihrer Leitfähigkeit und ihrer chemischen Stabilität einstellbar sind. Dies eröffnete die Möglichkeit diese Kohlenstoffpartikel als alternatives und nachhaltiges Rußmaterial einzusetzen. Weiterhin war es durch die ionothermale Templatierung möglich poröse, dotierte und kontrollierbare Kohlenstoffpartikel mit hohen spezifischen Oberflächen aus den gewählten Präkursorverbindungen zu synthetisieren, die sich für den Einsatz in Superkondensatoren eignen. Auf diesen Erkenntnissen aufbauend konnten mittels der Rotationsbeschichtung poröse binderfreie und strukturierte Kohlenstofffilme synthetisiert werden, die eine spinodale Struktur aufwiesen. Anhand der Modifikation der Stammlösungskonzentration, der Rotationsgeschwindigkeit und der verwendeten Substrate konnten die Filmdicke (100-1000 nm), die Morphologie und Gesamtoberfläche gezielt beeinflusst werden. Die erweiterte elektrochemische Analyse zeigte außerdem ein sehr gut zugängliches Porensystem der porösen Kohlenstofffilme. Allumfassend konnten demnach verschiedene Synthesewege für Kohlenstoffmaterialien aus Tanninen aufgezeigt werden, die verschiedenartig strukturiert und kontrolliert werden können und sich für diverse Anwendungsgebiete eignen. N2 - In times of a fast changing and versatile energy market, carbon materials have to be applicable for various demands.1,2 This requires custom-designed carbons, preferably from cheap and renewable carbon sources. However, it is challenging to find a carbon precursor system, which can be used and tuned either in different kinds of fabrication techniques and/or in properties like structure, nitrogen content, surface area, and pore sizes for specific innovative demands. Using polyphenols such as abundant tannins as carbon-precursor open the box for highly functionalized and versatile tunable carbon materials in combination with high yields. Hence, the main objective of this thesis was to synthesize and characterize new functional, tunable, and scalable nanostructured carbon materials from tannins (especially tannic acid) for different electrochemical purposes. This was targeted by different synthetic strategies including polymeric agent structuring, an ionothermal approach and soft templating.3-6 Moreover, instead of using the cancerogenous formaldehyde as cross-linker, urea and thiourea were used as linking and doping agents.7 In this respect, the first topic dealt with the understanding and investigation of the interactions, reactions and thermal behavior during the pyrolysis step of tannic acid/urea and tannic acid/thiourea mixtures. In a first carbon synthesis the tri-block-polymer Pluronic P123 acted as structuring agent in combination with the natural precursors.4 This enabled the preparation of sustainable and controllable doped carbon spheres with diameters down to 20 nm. Properties, like particle size, BET-surface area, composition, conductivity, and chemical stability could be tuned by controlling synthetic parameters. In addition, specifically synthesized carbon particles from tannic acid and urea showed similar conductivity and performance compared to a commercial conductive soot in a standard Li-battery anode. Therefore, these carbon particles can be considered as an alternative and sustainable soot in the future. Moreover, tunable and highly porous doped carbon spheres could be synthesized by an ionothermal approach. This enables the application of the porous carbon spheres in supercapacitor devices.6 The third part of the thesis benefited from the preliminary outcomes of the first structuring agent based synthesis. Hence, the precursor system composed of tannic acid, urea and Pluronic P123 was used to prepare porous carbon films with spinodal morphology via spin coating. By varying the synthetic conditions such as stock solution concentration and rotation speed, the carbon film thickness could be tuned, which in turn allowed for the control of the total surface area. The enlarged electrochemical analysis showed an accessible pore system of the porous carbon films. In summary, different synthetic strategies for carbon materials from tannins could be shown, which were structured and controlled in various ways. The possible fields of application for these carbon materials reach from conductive soot over supercapacitors to batteries. KW - Tannine KW - Kohlenstoffsynthese KW - Harnstoff KW - Kohlenstoffpartikel KW - Kohlenstofffilme KW - Leitruss KW - Dotierung KW - Pyrolyse KW - tannins KW - carbon synthesis KW - urea KW - carbon particle KW - carbon films KW - conducting soot KW - doping KW - pyrolysis Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407564 ER - TY - THES A1 - Kirsch, Fabian T1 - Intrapersonal risk factors of aggressive behavior in childhood T1 - Intrapersonale Risikofaktoren für die Entwicklung aggressiven Verhaltens in der Kindheit BT - a longitudinal perspective BT - eine längsschnittliche Perspektive N2 - BACKGROUND: Aggressive behavior at an early age is linked to a broad range of psychosocial problems in later life. That is why risk factors of the occurrence and the development of aggression have been examined for a long time in psychological science. The present doctoral dissertation aims to expand this research by investigating risk factors in three intrapersonal domains using the prominent social-information processing approach by Crick and Dodge (1994) as a framework model. Anger regulation was examined as an affective, theory of mind as a cognitive, and physical attractiveness as an appearance-related developmental factor of aggression in middle childhood. An additional goal of this work was to develop and validate a behavioral observation assessment of anger regulation as past research lacked in ecologically valid measures of anger regulation that are applicable for longitudinal studies. METHODS: Three empirical studies address the aforementioned intrapersonal risk factors. In each study, data from the PIER-project were used, a three-wave-longitudinal study covering three years with a total sample size of 1,657 children in the age between 6 and 11 years (at the first measurement point). The central constructs were assessed via teacher-reports (aggression), behavioral observation (anger regulation), computer tests (theory of mind), and independent ratings (physical attractiveness). The predictive value of each proposed risk factor for the development of aggressive behavior was examined via structural equation modeling. RESULTS AND CONCLUSION: The newly developed behavioral observation measure was found to be a reliable and valid tool to assess anger regulation in middle childhood, but limited in capturing a full range of relevant regulation strategies. That might be the reason, why maladaptive anger regulation was not found to function as a risk factor of subsequent aggressive behavior. However, children’s deficits in theory of mind and a low level in physical attractiveness significantly predicted later aggression. Problematic peer relationships were identified as underlying the link between low attractiveness and aggression. Thus, fostering children’s skills in theory of mind and their ability to call existing beliefs about the nature of more versus less attractive individuals into question may be important starting points for the prevention of aggressive behavior in middle childhood. N2 - HINTERGRUND: Aggressives Verhalten in einem sehr jungen Alter steht im Zusammenhang mit einer Vielzahl psychosozialer Probleme im späteren Leben. Aus diesem Grund sind Risikofaktoren für das Auftreten von Aggression seit langer Zeit Gegenstand psychologischer Forschung. Die vorliegende Dissertation knüpft an dieser Forschung an und zielt darauf ab, potentielle Risikofaktoren aus drei intrapersonalen Domänen zu untersuchen. Als Grundlage wird das prominente Modell der sozialen Informationsverarbeitung von Crick und Dodge (1994) herangezogen. Hierbei wird Ärgerregulation als ein affektiver, Theory of Mind als ein kognitiver, und physische Attraktivität als ein aussehensbezogener Entwicklungsfaktor aggressiven Verhaltens in der mittleren Kindheit näher betrachtet. Ein zusätzliches Ziel dieser Arbeit besteht darin, ein Verhaltensbeobachtungsverfahren zur Erfassung der Ärgerregulation zu entwickeln und zu validieren, da in der Forschung ein Mangel an ökologisch validen Verfahren, die insbesondere auch für längsschnittliche Studien geeignet sind, besteht. METHODIK: Drei empirische Studien nehmen sich den benannten intrapersonalen Risikofaktoren an. Dabei werden in jeder Studie Daten aus dem PIER-Projekt genutzt, einer Längsschnittstudie, die drei Messzeitpunkte über drei Jahre abdeckt und eine Stichprobe von insgesamt 1657 Kinder im Alter zwischen 6 und 11 Jahren umfasst (zum ersten Messzeitpunkt). Die zentralen Konstrukte wurden mittels Lehrerberichte (aggressives Verhalten), Verhaltensbeobachtung (Ärgerregulation), Computerverfahren (Theory of Mind), und unabhängigen Ratings (physische Attraktivität) operationalisiert. Der prädiktive Wert der Risikofaktoren im Hinblick auf die Entwicklung aggressiven Verhaltens wurde mithilfe von Strukturgleichungsmodellen ermittelt. ERGEBNISSE UND KONKLUSION: Das neu entwickelte Verhaltensbeobachtungsverfahren hat sich als ein reliables und valides Instrument zur Messung ärgerregulativer Kompetenzen innerhalb der mittleren Kindheit herausgestellt; gleichzeitig wird deutlich, dass nicht alle relevanten Regulationsstrategien von solch einem Verfahren erfasst werden können. Das könnte ein Grund sein, dass sich maladaptive Ärgerregulation nicht als ein Risikofaktor für späteres aggressives Verhalten herausstellte. Allerdings zeigte sich, dass Defizite in der Theory of Mind und eine niedrig ausgeprägte physische Attraktivität signifikant spätere Aggression vorhersagte. Problematische Peerbeziehungen konnten als ein vermittelnder Mechanismus für den Zusammenhang von niedriger Attraktivität und Aggression identifiziert werden. Die Förderung der Theory of Mind und der Fähigkeit, bereits existierende Überzeugungen über die Persönlichkeit von attraktiven und weniger attraktiven Individuen in Frage zu stellen, können wichtige Ansatzpunkte für die Prävention aggressiven Verhaltens in der mittleren Kindheit darstellen. KW - aggression KW - anger regulation KW - theory of mind KW - physical attractiveness KW - development KW - childhood KW - longitudinal methodology KW - Aggression KW - Ärgerregulation KW - Theory of Mind KW - physische Attraktivität KW - Entwicklung KW - Kindheit KW - Längsschnitt Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407369 ER - TY - THES A1 - Mbaya Mani, Christian T1 - Functional nanoporous carbon-based materials derived from oxocarbon-metal coordination complexes T1 - Funktionale nanoporöse Kohlenstoffmaterialien auf Basis von Oxokohlenstoff-Metal Koordinationskomplexe N2 - Nanoporous carbon based materials are of particular interest for both science and industry due to their exceptional properties such as a large surface area, high pore volume, high electroconductivity as well as high chemical and thermal stability. Benefiting from these advantageous properties, nanoporous carbons proved to be useful in various energy and environment related applications including energy storage and conversion, catalysis, gas sorption and separation technologies. The synthesis of nanoporous carbons classically involves thermal carbonization of the carbon precursors (e.g. phenolic resins, polyacrylonitrile, poly(vinyl alcohol) etc.) followed by an activation step and/or it makes use of classical hard or soft templates to obtain well-defined porous structures. However, these synthesis strategies are complicated and costly; and make use of hazardous chemicals, hindering their application for large-scale production. Furthermore, control over the carbon materials properties is challenging owing to the relatively unpredictable processes at the high carbonization temperatures. In the present thesis, nanoporous carbon based materials are prepared by the direct heat treatment of crystalline precursor materials with pre-defined properties. This synthesis strategy does not require any additional carbon sources or classical hard- or soft templates. The highly stable and porous crystalline precursors are based on coordination compounds of the squarate and croconate ions with various divalent metal ions including Zn2+, Cu2+, Ni2+, and Co2+, respectively. Here, the structural properties of the crystals can be controlled by the choice of appropriate synthesis conditions such as the crystal aging temperature, the ligand/metal molar ratio, the metal ion, and the organic ligand system. In this context, the coordination of the squarate ions to Zn2+ yields porous 3D cube crystalline particles. The morphology of the cubes can be tuned from densely packed cubes with a smooth surface to cubes with intriguing micrometer-sized openings and voids which evolve on the centers of the low index faces as the crystal aging temperature is raised. By varying the molar ratio, the particle shape can be changed from truncated cubes to perfect cubes with right-angled edges. These crystalline precursors can be easily transformed into the respective carbon based materials by heat treatment at elevated temperatures in a nitrogen atmosphere followed by a facile washing step. The resulting carbons are obtained in good yields and possess a hierarchical pore structure with well-organized and interconnected micro-, meso- and macropores. Moreover, high surface areas and large pore volumes of up to 1957 m2 g-1 and 2.31 cm3 g-1 are achieved, respectively, whereby the macroscopic structure of the precursors is preserved throughout the whole synthesis procedure. Owing to these advantageous properties, the resulting carbon based materials represent promising supercapacitor electrode materials for energy storage applications. This is exemplarily demonstrated by employing the 3D hierarchical porous carbon cubes derived from squarate-zinc coordination compounds as electrode material showing a specific capacitance of 133 F g-1 in H2SO4 at a scan rate of 5 mV s-1 and retaining 67% of this specific capacitance when the scan rate is increased to 200 mV s-1. In a further application, the porous carbon cubes derived from squarate-zinc coordination compounds are used as high surface area support material and decorated with nickel nanoparticles via an incipient wetness impregnation. The resulting composite material combines a high surface area, a hierarchical pore structure with high functionality and well-accessible pores. Moreover, owing to their regular micro-cube shape, they allow for a good packing of a fixed-bed flow reactor along with high column efficiency and a minimized pressure drop throughout the packed reactor. Therefore, the composite is employed as heterogeneous catalyst in the selective hydrogenation of 5-hydroxymethylfurfural to 2,5-dimethylfuran showing good catalytic performance and overcoming the conventional problem of column blocking. Thinking about the rational design of 3D carbon geometries, the functions and properties of the resulting carbon-based materials can be further expanded by the rational introduction of heteroatoms (e.g. N, B, S, P, etc.) into the carbon structures in order to alter properties such as wettability, surface polarity as well as the electrochemical landscape. In this context, the use of crystalline materials based on oxocarbon-metal ion complexes can open a platform of highly functional materials for all processes that involve surface processes. N2 - Nanoporöse Kohlenstoffmaterialien zeichnen sich u. a. durch ihre außergewöhnlichen Eigenschaften aus wie z. B. hohe Oberfläche, hohes Porenvolumen, hohe elektrische Leitfähigkeit und auch hohe chemische und thermische Stabilität. Aufgrund dessen finden sie Anwendung in den unterschiedlichsten Bereichen von der Speicherung elektrischer Energie bis hin zur Katalyse und Gasspeicherung. Die klassische Synthese von porösen Kohlenstoffmaterialien basiert u. a. auf der Nutzung von sogenannten anorganischen bzw. organischen Templaten und/oder chemischen Aktivierungsagenzien. Allerdings gelten diese Methoden eher als kompliziert, kostspielig und umweltschädlich. Außerdem wird eine gezielte Kontrolle der Produkteigenschaften durch die zahlreichen Prozesse erschwert, die sich bei den hohen Karbonisierungstemperaturen abspielen und folglich die Materialeigenschaften unvorhersehbar verändern können. In der vorliegenden Arbeit wird ein alternatives Konzept für die Synthese von nanoporösen Kohlenstoffmaterialien mit gezielt einstellbaren Eigenschaften vorgestellt. Diese basiert auf der Nutzung von kristallinen Vorläufermaterialien, die aus der Koordination von den Anionen der Quadratsäure bzw. der Krokonsäure mit verschiedenen Metallionen (Zn2+, Cu2+, Ni2+ und Co2+) resultieren. Diese haben den Vorteil, dass Eigenschaften wie z. B. die Partikelmorphologie und Porosität gezielt durch die Wahl geeigneter Syntheseparameter (z. B. Temperatur, molares Verhältnis, Metallion und Ligand) eingestellt werden können. Beispielsweise führen Koordinationskomplexe von der Quadratsäure mit Zn2+ in Wasser zu porösen 3D würfelförmigen Mikrokristallen, die durch einfache thermische Behandlung unter Schutzgasatmosphäre zu den entsprechenden Kompositen umgewandelt werden. Ein anschließender Waschschritt führt zu den entsprechenden Kohlenstoffmaterialien unter Erhalt der makroskopischen Struktur der kristallinen Vorläufermaterialien. In diesem Zusammenhang weisen die resultierenden Kohlenstoffe ebenfalls eine 3D Würfelform mit einer hierarchischen Porenstruktur bestehend aus vernetzten Mikro-, Meso- und Makroporen auf. Ferner besitzen die Kohlenstoffe hohe Oberflächen und Porenvolumen von bis zu 1.957 m2 g-1 bzw. 2,31 cm3 g-1. Um die Vorteile dieser Eigenschaften zu demonstrieren, werden sie als Elektrodenmaterial für Superkondensatoren getestet und zeigen dabei vielversprechende Kapazitäten. Außerdem, werden sie auch als Trägermaterial für die Immobilisierung von Nickel-Nanopartikel verwendet und als heterogene Katalysatoren in der selektiven Hydrierung von 5-hydroxymethylfurfural zu 2,5-dimethylfuran in einem Festbettreaktor eingesetzt. Dabei wird eine gute Katalysatorleistung (Produktivität) bei minimalem Druckabfall in der Reaktorsäule erreicht. KW - squaric acid KW - Quadratsäure KW - mesocrystals KW - Mesokristalle KW - nanoporöser Kohlenstoffpartikel KW - nanoporous carbon particles KW - Nanopartikel KW - nanoparticles KW - Koordinationskomplexe KW - coordination complexes KW - oxocarbon KW - Oxo-Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407866 ER - TY - THES A1 - Périllon, Cécile T1 - The effect of groundwater on benthic primary producers and their interaction T1 - Der Einfluss von Grundwasser auf benthische Primärproduzenten und ihre Interaktionen N2 - In littoral zones of lakes, multiple processes determine lake ecology and water quality. Lacustrine groundwater discharge (LGD), most frequently taking place in littoral zones, can transport or mobilize nutrients from the sediments and thus contribute significantly to lake eutrophication. Furthermore, lake littoral zones are the habitat of benthic primary producers, namely submerged macrophytes and periphyton, which play a key role in lake food webs and influence lake water quality. Groundwater-mediated nutrient-influx can potentially affect the asymmetric competition between submerged macrophytes and periphyton for light and nutrients. While rooted macrophytes have superior access to sediment nutrients, periphyton can negatively affect macrophytes by shading. LGD may thus facilitate periphyton production at the expense of macrophyte production, although studies on this hypothesized effect are missing. The research presented in this thesis is aimed at determining how LGD influences periphyton, macrophytes, and the interactions between these benthic producers. Laboratory experiments were combined with field experiments and measurements in an oligo-mesotrophic hard water lake. In the first study, a general concept was developed based on a literature review of the existing knowledge regarding the potential effects of LGD on nutrients and inorganic and organic carbon loads to lakes, and the effect of these loads on periphyton and macrophytes. The second study includes a field survey and experiment examining the effects of LGD on periphyton in an oligotrophic, stratified hard water lake (Lake Stechlin). This study shows that LGD, by mobilizing phosphorus from the sediments, significantly promotes epiphyton growth, especially at the end of the summer season when epilimnetic phosphorus concentrations are low. The third study focuses on the potential effects of LGD on submerged macrophytes in Lake Stechlin. This study revealed that LGD may have contributed to an observed change in macrophyte community composition and abundance in the shallow littoral areas of the lake. Finally, a laboratory experiment was conducted which mimicked the conditions of a seepage lake. Groundwater circulation was shown to mobilize nutrients from the sediments, which significantly promoted periphyton growth. Macrophyte growth was negatively affected at high periphyton biomasses, confirming the initial hypothesis. More generally, this thesis shows that groundwater flowing into nutrient-limited lakes may import or mobilize nutrients. These nutrients first promote periphyton, and subsequently provoke radical changes in macrophyte populations before finally having a possible influence on the lake’s trophic state. Hence, the eutrophying effect of groundwater is delayed and, at moderate nutrient loading rates, partly dampened by benthic primary producers. The present research emphasizes the importance and complexity of littoral processes, and the need to further investigate and monitor the benthic environment. As present and future global changes can significantly affect LGD, the understanding of these complex interactions is required for the sustainable management of lake water quality. N2 - Im Uferbereich von Seen bestimmen eine Vielzahl von Prozessen das ökologische Gefüge und die Wasserqualität. Grundwasserzustrom, welcher häufig im Uferbereich eines Sees auftritt, kann zum Import von Nährstoffen führen und so signifikant zur Eutrophierung eines Gewässers beitragen. Darüber hinaus bildet der Uferbereich von Seen das Habitat für benthische Primärproduzenten wie Makrophyten (Wasserpflanzen) und Periphyton (Aufwuchs), welche eine Schlüsselrolle im Nahrungsnetz von Seen einnehmen und deren Wasserqualität beeinflussen können. Der durch Grundwasser gesteuerte Eintrag von Nährstoffen kann sich unterschiedlich auf die um Licht und Nährstoffe konkurrierenden Makrophyten und Periphyton auswirken. Während Makrophyten häufig über Wurzeln verfügen und damit Nährstoffe aus dem Sediment aufnehmen, kann Periphyton zu einer Beschattung der Makrophyten beitragen. Grundwasserzustrom könnte deshalb durch Nährstoffzufuhr das Wachstum von Periphyton fördern und damit zu einer Abnahme der Makrophytenabundanz führen. Die in dieser Doktorarbeit vorgestellten Forschungsergebnisse zeigen den Einfluss von einströmendem Grundwasser in Seen auf Makrophyten und Periphyton, und insbesondere die Interaktionen zwischen diesen beiden benthischen Primärproduzenten. Dafür wurden Laborexperimente, sowie Feldexperimente und Messungen in einem oligo-mesotrophen, kalkreichen See miteinander kombiniert. In der ersten Studie wurden im Rahmen einer Literaturrecherche die Auswirkungen des Einstroms von Grundwasser auf das Wachstum von Makrophyten und Periphyton untersucht. Dafür wurden Einträge von Nährstoffen sowie anorganischem und organischem Kohlenstoff berücksichtigt und abschließend ein Konzept entwickelt, das die Interaktion zwischen benthischen Primärproduzenten betrachtet. Die zweite Studie zeigt den Einfluss von Grundwasser auf das Wachstum von Periphyton im geschichteten, oligo-mesotrophen, kalkreichen Stechlinsee (Brandenburg) auf der Basis von Freilanduntersuchungen und -experimenten. Es konnte nachgewiesen werden, dass einströmendes Grundwasser Phosphor aus dem Sediment mobilisiert und so das Wachstum von Periphyton signifikant fördert. Dies war insbesondere am Ende des Sommers relevant, wenn Phosphor im Epilimnion nur noch in sehr geringer Konzentration vorlag. Der Fokus der dritten Studie liegt auf den potenziellen Auswirkungen des Einstroms von Grundwasser auf die Makrophyten in flachen Litoralbereichen des Stechlinsees. Die in den letzten Jahrzehnten beobachteten Veränderungen in der Abundanz und Artenzusammensetzung der Makrophyten, insbesondere der Rückgang der Armleuchteralgen, könnten auch auf Veränderungen im Einstrom von Grundwasser zurückzuführen sein. In der letzten Studie wurden in einem Laborexperiment der Grundwasserzustrom ins Litoral simuliert, um die kombinierte Auswirkung auf Makrophyten- und Periphytonentwicklung unter kontrollierten Umweltbedingungen zu testen. Die Ergebnisse bestätigen die Hypothese, dass die durch den Grundwasserzustrom mobilisierten Nährstoffe aus dem Sediment das Wachstum von Periphyton fördern. Oberhalb eines Grenzwertes der Periphytonbiomasse wird die Entwicklung von Makrophyten behindert. Die vorliegende Arbeit zeigt, dass einströmendes Grundwasser zur Mobilisierung und zum Import von Nährstoffen in Seen führen kann und damit weitreichende Konsequenzen für das ökologische Gefüge und die Wasserqualität haben kann. Die grundwassergesteuerte Nährstoffzufuhr fördert das Wachstum von Periphyton und führt bei genügend großer Periphytonbiomasse zu Änderungen der Makrophytenpopulation bis hin zum Verlust. Die Arbeit verdeutlicht die Relevanz und Komplexität von Prozessen im Litoral von Seen und zeigt zugleich die Notwendigkeit auf, diese benthische Habitate tiefgreifender zu untersuchen. Da globale Veränderungen des Klimas einen weitreichenden Einfluss auf den Grundwassereinstrom in Seen haben können, ist es von entscheidender Bedeutung, die komplexen Auswirkungen dieser Prozesse zu verstehen, um einen nachhaltigen Schutz dieser Ökosysteme zu gewährleisten. KW - groundwater KW - littoral eutrophication KW - benthic primary producers KW - asymmetric competition KW - macrophytes KW - periphyton KW - Grundwasser KW - Makrophyten KW - Periphyton KW - Eutrophierung KW - Litoral KW - benthische Primärproduzenten KW - asymmetrische Konkurrenz Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406883 ER - TY - THES A1 - Gudipudi, Venkata Ramana T1 - Cities and global sustainability T1 - Städte und globale Nachhaltigkeit BT - insights from emission and ecological efficiency BT - Einblicke von Emission und ökologischer Effizienz N2 - In the wake of 21st century, humanity witnessed a phenomenal raise of urban agglomerations as powerhouses for innovation and socioeconomic growth. Driving much of national (and in few instances even global) economy, such a gargantuan raise of cities is also accompanied by subsequent increase in energy, resource consumption and waste generation. Much of anthropogenic transformation of Earth's environment in terms of environmental pollution at local level to planetary scale in the form of climate change is currently taking place in cities. Projected to be crucibles for entire humanity by the end of this century, the ultimate fate of humanity predominantly lies in the hands of technological innovation, urbanites' attitudes towards energy/resource consumption and development pathways undertaken by current and future cities. Considering the unparalleled energy, resource consumption and emissions currently attributed to global cities, this thesis addresses these issues from an efficiency point of view. More specifically, this thesis addresses the influence of population size, density, economic geography and technology in improving urban greenhouse gas (GHG) emission efficiency and identifies the factors leading to improved eco-efficiency in cities. In order to investigate the in uence of these factors in improving emission and resource efficiency in cities, a multitude of freely available datasets were coupled with some novel methodologies and analytical approaches in this thesis. Merging the well-established Kaya Identity to the recently developed urban scaling laws, an Urban Kaya Relation is developed to identify whether large cities are more emission efficient and the intrinsic factors leading to such (in)efficiency. Applying Urban Kaya Relation to a global dataset of 61 cities in 12 countries, this thesis identifed that large cities in developed regions of the world will bring emission efficiency gains because of the better technologies implemented in these cities to produce and utilize energy consumption while the opposite is the case for cities in developing regions. Large cities in developing countries are less efficient mainly because of their affluence and lack of efficient technologies. Apart from the in uence of population size on emission efficiency, this thesis identified the crucial role played by population density in improving building and on-road transport sector related emission efficiency in cities. This is achieved by applying the City Clustering Algorithm (CCA) on two different gridded land use datasets and a standard emission inventory to attribute these sectoral emissions to all inhabited settlements in the USA. Results show that doubling the population density would entail a reduction in the total CO2 emissions in buildings and on-road sectors typically by at least 42 %. Irrespective of their population size and density, cities are often blamed for their intensive resource consumption that threatens not only local but also global sustainability. This thesis merged the concept of urban metabolism with benchmarking and identified cities which are eco-efficient. These cities enable better socioeconomic conditions while being less burden to the environment. Three environmental burden indicators (annual average NO2 concentration, per capita waste generation and water consumption) and two socioeconomic indicators (GDP per capita and employment ratio) for 88 most populous European cities are considered in this study. Using two different non-parametric ranking methods namely regression residual ranking and Data Envelopment Analysis (DEA), eco-efficient cities and their determining factors are identified. This in-depth analysis revealed that mature cities with well-established economic structures such as Munich, Stockholm and Oslo are eco-efficient. Further, correlations between objective eco-efficiency ranking with each of the indicator rankings and the ranking of urbanites' subjective perception about quality of life are analyzed. This analysis revealed that urbanites' perception about quality of life is not merely confined to the socioeconomic well-being but rather to their combination with lower environmental burden. In summary, the findings of this dissertation has three general conclusions for improving emission and ecological efficiency in cities. Firstly, large cities in emerging nations face a huge challenge with respect to improving their emission efficiency. The task in front of these cities is threefold: (1) deploying efficient technologies for the generation of electricity and improvement of public transportation to unlock their leap frogging potential, (2) addressing the issue of energy poverty and (3) ensuring that these cities do not develop similar energy consumption patterns with infrastructure lock-in behavior similar to those of cities in developed regions. Secondly, the on-going urban sprawl as a global phenomenon will decrease the emission efficiency within the building and transportation sector. Therefore, local policy makers should identify adequate fiscal and land use policies to curb urban sprawl. Lastly, since mature cities with well-established economic structures are more eco-efficient and urbanites' perception re ects its combination with decreasing environmental burden; there is a need to adopt and implement strategies which enable socioeconomic growth in cities whilst decreasing their environment burden. N2 - Im Laufe des 21. Jahrhunderts verzeichnete die Menschheit eine gewaltige Zunahme urbaner Agglomerationen als Motor für Innovation und soziökonomisches Wachstum. Angetrieben durch die nationale (und in wenigen Fällen auch globale) Wirtschaft, dieser gigantische Aufstieg der Städte ist allerdings auch mit einer Zunahme von Energie- und Ressourcenverbrauch sowie erhöhter Abfallerzeugung verbunden. Ein Großteil der anthropogenen Transformation der Umwelt in Form von Klimaveränderungen von der lokalen Ebene bis in die planetarische Dimension findet derzeit in Städten statt. Angenommen dass bis zum Ende des Jahrhunderts die gesamte Menschheit in einer Art Schmelztiegel miteinander verbunden sein wird, dann hängt ihr Schicksal von der Umsetzung innovativer und überlegender Entwicklungspfade heutiger und zukünftiger Städte ab. Angesichts des unvergleichlichen Energie- und Ressourcenverbrauchs sowie der Emissionen, die derzeit in Städten verursacht werden, befasst sich diese Arbeit mit genau diesen Fragen aus der Perspektive der Effizienz. Genauer gesagt, diese Arbeit befasst sich mit dem Einfluss der städtischen Größe, Dichte, Wirtschaftsgeographie und Technologie zur Verbesserung der Emissionseffizienz der städtischen Treibhausgase, mit dem Ziel die Faktoren, die zu einer Verbesserung der ökoeffizienz in Städten führt, zu identifizieren. Um den Einfluss dieser Faktoren auf die Verbesserung der Emissions- und Ressourceneffizienz in Städten zu untersuchen, wurden in dieser Arbeit eine Vielzahl von frei verfügbaren Datensätzen mit neuartigen Methoden und analytischen Ansätzen gekoppelt. Durch die Verschmelzung der bereits etablierten Kaya-Identität‘ mit den kürzlich entwickelten urbanen Skalierungsgesetzen wird eine ’urbane Kaya-Relation’ entwickelt, um herauszufinden, ob Großstädte emissionsärmer also effizienter sind und welche Faktoren zu dieser (In-)Effizienz führen. Dafür wurde die ’urbanen Kaya-Relation’ auf einen globalen Datensatz für 61 Städte in 12 Ländern angewendet. Die vorliegende Arbeit kommt zu dem Ergebnis, dass den Großstädten in den entwickelten Regionen der Welt Effizienzgewinne aufgrund des Einsatzes besserer Technologien für die Produktion und Nutzung von Energie gelingt, während für die Städte in Entwicklungsländern das Gegenteil gilt. Großstädte in Entwicklungsländern sind weniger effizient, vor allem wegen ihres Wohlstands und des Mangels an effizienten Technologien. Abgesehen vom Einfluss der Bevölkerungsgröße auf die Emissionseffizienz, zeigt diese Arbeit auch die entscheidende Rolle der Bevölkerungsdichte bei der Effizienzsteigerung im Bau- und Transportsektor. Dies wird durch die Anwendung des City Clustering Algorithmus (CCA) auf zwei verschiedene raster-basierte Landnutzungsdatensätze und ein Standard-Emissionskataster erreicht, um die sektoralen Emissionen allen bewohnten Siedlungen in den USA zuzuordnen. Die Ergebnisse zeigen, dass eine Verdoppelung der Bevölkerungsdichte eine Verringerung der CO2-Gesamtemissionen in Gebäuden und Straßenverkehrssektoren um typischerweise mindestens 42% bedeuten würde. Unabhängig von der Bevölkerungsgröße und -dichte werden Städte häufig für ihren intensiven Ressourcenverbrauch verantwortlich gemacht, der nicht nur die lokale, sondern auch die globale Nachhaltigkeit bedroht. Diese Arbeit verbindet das Konzept des urbanen Metabolismus mit Benchmarking und identifiziert Städten, die ökoeffizient sind. Diese Städte bieten bessere sozioökonomische Bedingungen und belasten die Umwelt weniger. In dieser Studie werden drei Indikatoren für die Umweltbelastung (jährliche durchschnittliche NO2-Konzentration, Abfallaufkommen pro Kopf und Wasserverbrauch) und zwei sozioökonomische Indikatoren (BIP pro Kopf und Beschäftigungsquote) für die 88 bevölkerungsreichsten europäischen Städte berücksichtigt. Mithilfe von zwei verschiedenen Rankingmethoden, einerseits dem regression residual ranking‘ und der Data Envelopment Analysis‘ (DEA), werden ökoeffiziente Städte und ihre Bestimmungsfaktoren identifiziert. Die gründliche Analyse ergab, dass die gewachsenen Städte mit etablierten städtischen Wirtschaften wie München, Stockholm und Oslo ökoeffizient sind. Weiterhin wurden Zusammenhänge zwischen objektiven ökoeffizienz Einstufungen (ranking) mit den Einstufungen hinsichtlich einzelner Indikatoren sowie der subjektiven Wahrnehmung der Stadtbewohner über ihre Lebensqualität analysiert. Diese Analyse ergab, dass sich die Wahrnehmung der Lebensqualität von Stadtbewohnern nicht nur auf das sozioökonomische Wohlergehen beschränkt, sondern auch auf die Kombination mit einer geringeren Umweltbelastung. Zusammenfassend lässt sich sagen, dass die Ergebnisse dieser Dissertation drei generelle Schlussfolgerungen zur Verbesserung der Emissions- und ökoeffizienz in Städten enthalten. Erstens stehen Großstädte in Schwellenländern wie China, Indien und Brasilien vor einer großen Herausforderung, ihre Emissionseffizienz zu verbessern. Vor diesen Städten stehen drei Aufgaben: (1) Einsatz effizienter Technologien zur Stromerzeugung und Verbesserung des öffentlichen Verkehrs, (2) Bekämpfung der Energiearmut und (3) Sicherstellung, dass diese Städte keine Energiekonsummuster entwickeln, die dem infrastrukturellen Lock-in-Verhalten‘ der Städte in entwickelten Regionen ähneln. Zweitens wird die fortschreitende Zersiedelung der Städte als globales Phänomen die Emissionseffizienz im Bau- und Verkehrssektor verringern. Daher sollten die lokalen politischen Entscheidungsträger angemessene fiskal- und landnutzungspolitische Maßnahmen zur Eindämmung der Zersiedelung der Städte festlegen. Schließlich müssen Strategien verabschiedet und umgesetzt werden, die das sozioökonomische Wachstum in den Städten ermöglicht und gleichzeitig die Umweltbelastung verringert, wie es in den gewachsenen Städten bereits heute vorzufinden ist. KW - cities KW - climate change KW - urban efficiency KW - sustainable urban development KW - Städe KW - Klimawandel KW - Städte Effizienz KW - nachaltige Städteentwicklung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407113 ER - TY - THES A1 - Osei Tutu, Anthony T1 - Linking global mantle dynamics with lithosphere dynamics using the geoid, plate velocities and lithosphere stress state as constraints T1 - Verknüpfung der globalen Manteldynamik mit der Lithosphärendynamik, unter Berücksichtigung des Geoids, der Plattengeschwindigkeiten und des Spannungszustandes der Lithosphäre als Einschränkungen BT - lithosphere and mantle dynamics coupling N2 - Lithospheric plates move over the low viscosity asthenosphere balancing several forces. The driving forces include basal shear stress exerted by mantle convection and plate boundary forces such as slab pull and ridge push, whereas the resisting forces include inter-plate friction, trench resistance, and cratonic root resistance. These generate plate motions, the lithospheric stress field and dynamic topography which are observed with different geophysical methods. The orientation and tectonic regime of the observed crustal/lithospheric stress field further contribute to our knowledge of different deformation processes occurring within the Earth's crust and lithosphere. Using numerical models previous studies were able to identify major forces generating stresses in the crust and lithosphere which also contribute to the formation of topography as well as driving lithospheric plates. They showed that the first-order stress pattern explaining about 80\,\% of the stress field originates from a balance of forces acting at the base of the moving lithospheric plates due to convective flow in the underlying mantle. The remaining second-order stress pattern is due to lateral density variations in the crust and lithosphere in regions of pronounced topography and high gravitational potential, such as the Himalayas and mid-ocean ridges. By linking global lithosphere dynamics to deep mantle flow this study seeks to evaluate the influence of shallow and deep density heterogenities on plate motions, lithospheric stress field and dynamic topography using the geoid as a major constraint for mantle rheology. We use the global 3D lithosphere-asthenosphere model SLIM3D with visco-elasto-plastic rheology coupled at 300 km depth to a spectral model of mantle flow. The complexity of the lithosphere-asthenosphere component allows for the simulation of power-law rheology with creep parameters accounting for both diffusion and dislocation creep within the uppermost 300 km. First we investigate the influence of intra-plate friction and asthenospheric viscosity on present-day plate motions. Previous modelling studies have suggested that small friction coefficients (µ < 0.1, yield stress ~ 100 MPa) can lead to plate tectonics in models of mantle convection. Here we show that, in order to match present-day plate motions and net rotation, the frictional parameter must be less than 0.05. We are able to obtain a good fit with the magnitude and orientation of observed plate velocities (NUVEL-1A) in a no-net-rotation (NNR) reference frame with µ < 0.04 and minimum asthenosphere viscosity ~ 5*10e19 Pas to 10e20 Pas. Our estimates of net rotation (NR) of the lithosphere suggest that amplitudes ~ 0.1-0.2 °/Ma, similar to most observation-based estimates, can be obtained with asthenosphere viscosity cutoff values of ~ 10e19 Pas to 5*10e19 Pas and friction coefficient µ < 0.05. The second part of the study investigates further constraints on shallow and deep mantle heterogeneities causing plate motion by predicting lithosphere stress field and topography and validating with observations. Lithosphere stresses and dynamic topography are computed using the modelling setup and rheological parameters for prescribed plate motions. We validate our results with the World Stress Map 2016 (WSM2016) and the observed residual topography. Here we tested a number of upper mantle thermal-density structures. The one used to calculate plate motions is considered the reference thermal-density structure. This model is derived from a heat flow model combined with a sea floor age model. In addition we used three different thermal-density structures derived from global S-wave velocity models to show the influence of lateral density heterogeneities in the upper 300 km on model predictions. A large portion of the total dynamic force generating stresses in the crust/lithosphere has its origin in the deep mantle, while topography is largely influenced by shallow heterogeneities. For example, there is hardly any difference between the stress orientation patterns predicted with and without consideration of the heterogeneities in the upper mantle density structure across North America, Australia, and North Africa. However, the crust is dominant in areas of high altitude for the stress orientation compared to the all deep mantle contribution. This study explores the sensitivity of all the considered surface observables with regards to model parameters providing insights into the influence of the asthenosphere and plate boundary rheology on plate motion as we test various thermal-density structures to predict stresses and topography. N2 - Lithosphärenplatten bewegen sich über die niederviskose Asthenosphäre, wobei mehrere Kräfte im Gleichgewicht stehen. Die antreibenden Kräfte umfassen eine basale Schubspannung, die durch Mantelkonvektion verursacht wird, und Plattengrenzkräfte, wie z.B. slab pull und ridge push, während die widerstehenden Kräfte die Reibung zwischen Platten, Widerstand an Tiefseegräben sowie an den kratonischen Wurzeln umfassen. Diese Kräfte erzeugen Plattenbewegungen, das lithosphärische Spannungsfeld und die dynamische Topographie, die mit verschiedenen geophysikalischen Methoden beobachtet werden. Die Orientierung und das tektonische Regime des beobachteten Krusten- und lithosphärischen Spannungsfeldes tragen weiter zu unserem Wissen über unterschiedliche Deformationsprozesse in der Erdkruste und Lithosphäre bei. Mit Hilfe von numerischen Modellen konnten frühere Studien die wichtigsten Kräfte identifizieren, die Spannungen in der Kruste und in der Lithosphäre erzeugen, und die auch zur Bildung von Topographie sowie zum Antrieb der lithosphärischen Platten beitragen. Sie zeigten, dass das Spannungsmuster erster Ordnung, das etwa 80% des Spannungsfeldes erklärt, aus einem Gleichgewicht der Kräfte stammt, die an der Basis der sich bewegenden lithosphärischen Platten aufgrund der konvektiven Strömung in dem darunter liegenden Mantel wirken. Das verbleibende Spannungsmuster der zweiten Ordnung ist auf laterale Dichtevariationen in der Kruste und der Lithosphäre in Regionen mit ausgeprägter Topographie und hohem Gravitationspotential zurückzuführen, wie im Himalaya und an den Mittelozeanischen Rücken. Durch die Verknüpfung der globalen Lithosphären-Dynamik mit den tiefen Mantelströmungen versucht diese Studie, den Einfluss von flachen und tiefen Dichte-Heterogenitäten auf die Plattenbewegungen, das lithosphärische Spannungsfeld und die dynamische Topographie mit dem Geoid als einer wesentlichen Randbedingung für die Mantel-Rheologie zu untersuchen. Ich verwende das globale 3D-Lithosphären-Asthenosphären-Modell SLIM3D mit viskoelasto-plastischer Rheologie, gekoppelt in 300 km Tiefe an ein spektrales Modell der Mantelströmung. Die Komplexität der Lithosphären-Asthenosphären- Komponente ermöglicht die Simulation der Power-law-Rheologie mit Kriechparametern, die sowohl Diffusions-als auch Dislokationskriechen in den obersten 300km einschließen. Zuerst untersuche ich den Einfluss der Intra-Platten-Reibung und der asthenosphärischen Viskosität auf heutige Plattenbewegungen. Bisherige Modellierungsstudien haben vorgeschlagen, dass kleine Reibungskoeffizienten ( u < 0,1, FlieSSspannung ~ 100 MPa) zu Plattentektonik in Modellen der Mantelkonvektion führen können. Hier zeigen wir, dass der Reibungsparameter, um den heutigen Plattenbewegungen und der Netto-Rotation zu entsprechen, kleiner als 0,05 sein muss. Wir können eine gute Übereinstimmung mit der Größe und Orientierung der beobachteten Plattengeschwindigkeiten (NUVEL-1A) in einem No-Net- Rotation- (NNR) Bezug system mit < 0,04 und minimaler Asthenosphärenviskosität ~ 510^19 Pas bis 10^20 Pas erreichen. Unsere Schätzungen der Netto-Rotation (NR) der Lithosphäre deuten darauf hin, dass Amplituden ~ 0:1 - 0:2 (◦/Ma), ähnlich den meisten Beobachtungs-basierten Schätzungen, mit Asthenosphären- Viskositäts-Cutoff-Werten von ~ 10^19 Pas bis 5 10^19 Pas und Reibungskoeffizient u < 0,05 erreicht werden können. Der zweite Teil der Studie untersucht weitere Einschränkungen auf flache und tiefe Mantelheterogenitäten, welche Plattenbewegungen verursachen, durch die Vorhersage des Lithosphärenspannungsfeldes und der Topographie und deren Validierung mit Beobachtungen. Lithosphärenspannungen und dynamische Topographie werden mit dem Modellaufbau und den rheologischen Parametern für vorgeschriebene Plattenbewegungen berechnet.Wir validieren unsere Ergebnisse mit der Weltspannungskarte 2016 (WSM2016) und der beobachteten Residualtopographie. Hier haben wir eine Anzahl von thermischen Dichte-Strukturen für den oberen Mantel getestet. Diejenige, die verwendet wurde, um Plattenbewegungen zu berechnen, wird als Referenz- thermische Dichte-Struktur betrachtet. Dieses Modell ist abgeleitet aus einem Wärmestrommodell, kombiniert mit einem Ozeanbodenalter-Modell. Darüber hinaus haben wir drei verschiedene thermische Dichtestrukturen abgeleitet aus globalen S-Wellengeschwindigkeits modellen verwendet, um den Einfluss von Heterogenitäten der lateralen Dichte in den oberen 300 km auf Modellvorhersagen zu zeigen. Ein großer Teil der gesamten dynamischen Kraft, die Spannungen in der Kruste / Lithosphäre erzeugt, hat ihren Ursprung im tiefen Mantel, während die Topographie weitgehend durch flache Heterogenitäten beeinflusst wird. Zum Beispiel gibt es kaum einen Unterschied zwischen den Spannungsorientierungsmustern, die mit und ohne Berücksichtigung der Heterogenitäten in der Dichtestruktur des oberen Mantels in Nordamerika, Australien und Nordafrika vorhergesagt wurden. Allerdings dominiert die Kruste in Gebieten von großer Höhe für die Spannungorientierung im Vergleich zu allen tiefen Mantelbeiträgen. Diese Studieerforschen die Empfindlichkeit aller betrachteten Oberflächen-Observablen in Bezug auf Modellparameter und gibt Einblicke über den Einfluss der Asthenosphäre und Plattengrenzen-Rheologie auf Plattenbewegung, wobei wir verschiedene thermische Dichte Strukturen zur Vorhersage von Spannungen und Topographie testen. KW - plate motions KW - plate boundary friction KW - upper mantle viscosity structure KW - lithosphere stress field KW - dynamic topography KW - lithosphere net rotation KW - upper mantle density heterogeneities KW - Plattenbewegungen KW - Reibung an Plattengrenzen KW - Viskositätsstruktur im oberen Mantel KW - lithosphärisches Spannungsfeld KW - dynamische Topographie KW - Nettorotation der Lithosphäre KW - Dichteheterogenitäten im oberen Mantel Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407057 ER - TY - THES A1 - Martin, Thorsten T1 - Advances in spatial econometrics and the political economy of local housing supply T1 - Anwendungen in der Regionalökonometrie und die politische Ökonomie der lokalen Wohnraumversorgung BT - essays in regional and political economics BT - Aufsätze der Regionalökonomie und der politischen Ökonomie N2 - This cumulative dissertation consists of five chapters. In terms of research content, my thesis can be divided into two parts. Part one examines local interactions and spillover effects between small regional governments using spatial econometric methods. The second part focuses on patterns within municipalities and inspects which institutions of citizen participation, elections and local petitions, influence local housing policies. N2 - Diese kumulative Dissertation besteht aus fünf Kapiteln und kann inhaltlich zweigeteilt betrachtet werden. Im ersten Teil werden lokale Interaktionen und Übertragungseffekte zwischen kleinen regionalen Verwaltungseinheiten unter Verwendung von regionalökonometrischer Methoden untersucht. Der zweite Teil untersucht Zusammenhänge innerhalb von Gemeinden und untersucht welche Instrumentarien lokaler Politikbeteiligung, Kommunalwahlen und lokale Bürgerbegehren, einen Einfluss auf die örtliche Wohnungspolitik haben. KW - spatial econometrics KW - political economics KW - regional economics KW - public economics KW - Regionalökonometrie KW - politische Ökonomie KW - Regionalökonomie KW - Finanzwissenschaften Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406836 ER - TY - THES A1 - Schmidt, Silke Regina T1 - Analyzing lakes in the time frequency domain T1 - Analyse von Seen in der Zeit-Frequenz-Domäne N2 - The central aim of this thesis is to demonstrate the benefits of innovative frequency-based methods to better explain the variability observed in lake ecosystems. Freshwater ecosystems may be the most threatened part of the hydrosphere. Lake ecosystems are particularly sensitive to changes in climate and land use because they integrate disturbances across their entire catchment. This makes understanding the dynamics of lake ecosystems an intriguing and important research priority. This thesis adds new findings to the baseline knowledge regarding variability in lake ecosystems. It provides a literature-based, data-driven and methodological framework for the investigation of variability and patterns in environmental parameters in the time frequency domain. Observational data often show considerable variability in the environmental parameters of lake ecosystems. This variability is mostly driven by a plethora of periodic and stochastic processes inside and outside the ecosystems. These run in parallel and may operate at vastly different time scales, ranging from seconds to decades. In measured data, all of these signals are superimposed, and dominant processes may obscure the signals of other processes, particularly when analyzing mean values over long time scales. Dominant signals are often caused by phenomena at long time scales like seasonal cycles, and most of these are well understood in the limnological literature. The variability injected by biological, chemical and physical processes operating at smaller time scales is less well understood. However, variability affects the state and health of lake ecosystems at all time scales. Besides measuring time series at sufficiently high temporal resolution, the investigation of the full spectrum of variability requires innovative methods of analysis. Analyzing observational data in the time frequency domain allows to identify variability at different time scales and facilitates their attribution to specific processes. The merit of this approach is subsequently demonstrated in three case studies. The first study uses a conceptual analysis to demonstrate the importance of time scales for the detection of ecosystem responses to climate change. These responses often occur during critical time windows in the year, may exhibit a time lag and can be driven by the exceedance of thresholds in their drivers. This can only be detected if the temporal resolution of the data is high enough. The second study applies Fast Fourier Transform spectral analysis to two decades of daily water temperature measurements to show how temporal and spatial scales of water temperature variability can serve as an indicator for mixing in a shallow, polymictic lake. The final study uses wavelet coherence as a diagnostic tool for limnology on a multivariate high-frequency data set recorded between the onset of ice cover and a cyanobacteria summer bloom in the year 2009 in a polymictic lake. Synchronicities among limnological and meteorological time series in narrow frequency bands were used to identify and disentangle prevailing limnological processes. Beyond the novel empirical findings reported in the three case studies, this thesis aims to more generally be of interest to researchers dealing with now increasingly available time series data at high temporal resolution. A set of innovative methods to attribute patterns to processes, their drivers and constraints is provided to help make more efficient use of this kind of data. N2 - See-Ökosysteme sind eine der bedrohtesten Ressourcen der Hydrosphäre. Sie reagieren besonders sensibel auf Veränderungen des Klimas und auf Einflüsse durch Landnutzung, da verschiedene Prozesse im gesamten Einzugsgebiet auf sie einwirken. Daher ist es von besonderer Dringlichkeit, die verschiedenen Prozess-Dynamiken in See-Ökosystemen besser zu verstehen. Die hier vorliegende Doktorarbeit hat zum Ziel, das bestehende Wissen bezüglich der verschiedenen einwirkenden Prozesse in See-Ökosystemen zu erweitern. Die Arbeit stellt ein Forschungsdesign zur Diskussion, das eine Literatur-basierte und auf empirischen Erhebungen beruhende Analyse von Variabilität und Mustern in großen Datensätzen verschiedener Umweltparameter im Zeit-Frequenz-Raum ermöglicht. Umweltparameter sind häufig charakterisiert durch eine hohe zeitliche Dynamik. Diese Variabilität steht im Zentrum dieser Arbeit. Sie wird durch eine Fülle an periodischen und stochastischen Prozessen innerhalb und außerhalb des Ökosystems getrieben. Diese Prozesse können gleichzeitig und auf sehr unterschiedlichen Zeitskalen, von Sekunden bis hin zu Dekaden, ablaufen. In Messdaten überlagern sich alle diese Signale, und dominante Prozesse können die Signale anderer Prozesse verschleiern, insbesondere wenn Mittelwerte über längere Zeiträume analysiert werden. Dominante Signale werden oft durch Prozesse auf längeren Zeitskalen verursacht, wie z. B. saisonale Zyklen. Diese sind im Allgemeinen in der limnologischen Literatur gut dokumentiert. See-Ökosysteme werden allerdings von Prozessen auf allen Zeitskalen beeinflusst. Insbesondere biologische, chemische und physikalische Prozesse operieren in kürzeren Zeitrahmen. Die Variabilität, die über solche Prozesse in See-Ökosysteme eingebracht wird, ist bisher weit weniger gut erforscht. Neben der Notwendigkeit, Umweltparameter in hoher zeitlicher Auflösung zu messen, erfordert die Untersuchung der kompletten Bandbreite an Variabilität innovative Analysemethoden. Die Berücksichtigung der Zeit-Frequenz-Domäne kann dabei helfen, Dynamiken auf verschiedenen Zeitskalen zu identifizieren und daraus bestimmte Prozesse abzuleiten. Diese Arbeit zeigt die Vorzüge dieser Herangehensweise anhand von drei Fallstudien auf. Die erste Studie zeigt die Bedeutung von Zeitskalen für die Erfassung von Ökosystem-Reaktionen auf klimatische Veränderungen. Diese ereignen sich oft während kritischer Zeitfenster im Jahresverlauf und können durch die Überschreitung von Schwellenwerten in den treibenden Variablen, unter Umständen zeitlich verzögert, verursacht sein. Solche Zusammenhänge können nur erfasst werden, wenn die zeitliche Auflösung der Daten hoch genug ist. In der zweiten Studie wird die Spektralanalyse, basierend auf der Fast Fourier Transformation, auf einen Datensatz täglicher Messungen der Wassertemperatur über zwanzig Jahre hinweg angewendet. Es wird gezeigt, wie zeitliche und räumliche Skalen der Variabilität der Wassertemperatur als Indikator für Mischprozesse in einem polymiktischen See dienen können. In der dritten Studie wird die Wavelet Coherence als Diagnose-Werkzeug für einen multivariaten, hochfrequenten Datensatz genutzt. Dieser wurde zwischen dem Einsetzen einer Eisbedeckung und einer Sommerblüte von Cyanobakteriern in einem polymiktischen See im Jahr 2009 erhoben. Synchronizitäten zwischen limnologischen und meteorologischen Zeitreihen in schmalen Frequenz-Bändern wurden genutzt, um vorherrschende limnologische Prozesse zu identifizieren und analytisch zu trennen. Neben den neuen empirischen Erkenntnissen, die in den drei Fallstudien präsentiert werden, zielt diese Doktorarbeit darauf ab, Forscher*innen, Behörden und politischen Entscheidungsträger*innen eine Grundlage zu liefern, die hohe zeitliche Auflösung der heute vielfach verfügbaren Monitoring-Datensätze effizienter zu nutzen. Innovative Methoden sollen dabei helfen, Muster in den Daten Prozessen zuzuordnen und die entsprechenden Treiber und Limitationen zu identifizieren. KW - variability KW - time scale KW - wavelet KW - coherence KW - spectral analysis KW - time series analysis KW - polymictic lakes KW - process identification KW - Variabilität KW - Zeitskala KW - Spektralanalyse KW - Zeitreihenanalyse KW - polymiktische Seen KW - Prozessidentifikation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406955 ER - TY - THES A1 - Reyna González, Emmanuel T1 - Engineering of the microviridin post-translational modification enzymes for the production of synthetic protease inhibitors T1 - Manipulation der posttranslationalen Modifikationsenzyme von Microviridin zur Herstellung synthetischer Proteaseinhibitoren N2 - Natural products and their derivatives have always been a source of drug leads. In particular, bacterial compounds have played an important role in drug development, for example in the field of antibiotics. A decrease in the discovery of novel leads from natural sources and the hope of finding new leads through the generation of large libraries of drug-like compounds by combinatorial chemistry aimed at specific molecular targets drove the pharmaceutical companies away from research on natural products. However, recent technological advances in genetics, bioinformatics and analytical chemistry have revived the interest in natural products. The ribosomally synthesized and post-translationally modified peptides (RiPPs) are a group of natural products generated by the action of post-translationally modifying enzymes on precursor peptides translated from mRNA by ribosomes. The great substrate promiscuity exhibited by many of the enzymes from RiPP biosynthetic pathways have led to the generation of hundreds of novel synthetic and semisynthetic variants, including variants carrying non-canonical amino acids (ncAAs). The microviridins are a family of RiPPs characterized by their atypical tricyclic structure composed of lactone and lactam rings, and their activity as serine protease inhibitors. The generalities of their biosynthetic pathway have already been described, however, the lack of information on details such as the protease responsible for cleaving off the leader peptide from the cyclic core peptide has impeded the fast and cheap production of novel microviridin variants. In the present work, knowledge on leader peptide activation of enzymes from other RiPP families has been extrapolated to the microviridin family, making it possible to bypass the need of a leader peptide. This feature allowed for the exploitation of the microviridin biosynthetic machinery for the production of novel variants through the establishment of an efficient one-pot in vitro platform. The relevance of this chemoenzymatic approach has been exemplified by the synthesis of novel potent serine protease inhibitors from both rationally-designed peptide libraries and bioinformatically predicted microviridins. Additionally, new structure-activity relationships (SARs) could be inferred by screening microviridin intermediates. The significance of this technique was further demonstrated by the simple incorporation of ncAAs into the microviridin scaffold. N2 - Naturstoffe und ihre Derivate waren schon immer eine Quelle von Leitstrukturen. Insbesondere haben bakterielle Verbindungen eine wichtige Rolle bei der Arzneimittelentwicklung gespielt, zum Beispiel im Bereich der Antibiotika. Die Abnahme von Entdeckungen neuer Leitstrukturen aus natürlichen Quellen und die Hoffnung, neue Leitstrukturen in großen Bibliotheken medikamentenähnlicher Verbindungen zu finden, welche auf spezifische molekulare Ziele gerichtet sind und mithilfe kombinatorischer Chemie erstellt wurden, trieben die Pharmaunternehmen weg von der Naturstoffforschung. Allerdings haben moderne technologische Fortschritte in der Genetik, der Bioinformatik und der analytischen Chemie das Interesse an Naturstoffen wiederbelebt. Die ribosomal synthetisierten und posttranslational modifizierten Peptide (RiPPs) sind eine Gruppe von Naturstoffen, die durch das Einwirken posttranslational modifizierender Enzymen auf Präkursorpeptide entstehen, welche ihrerseits aus mRNA durch Translation an den Ribosomen hervorgehen. Die durch viele der Enzyme aus RiPP Biosynthesewege gezeigte große Substrat- Promiskuität führte zur Erzeugung hunderter neuartiger synthetischer und halbsynthetischer Varianten, einschließlich Varianten mit nicht-kanonischen Aminosäuren. Die Microviridine sind eine Familie von RiPPs, die durch ihre atypische trizyklische Struktur aus Lacton- und Lactamringen und ihre Aktivität als Serin-Protease-Inhibitoren gekennzeichnet sind. Die Grundlagen ihres Biosyntheseweges sind bereits beschrieben worden, aber wesentliche Fragestellungen, zum Beispiel die für die Spaltung des Leader-Peptids vom zyklischen Core- Peptid verantwortliche Protease betreffend, sind weitgehend ungeklärt und erschweren die schnelle und kostengünstige Herstellung neuer Microviridinvarianten. In der vorliegenden Arbeit wurde das Wissen über die durch Leader-Peptid Aktivierung von Enzymen aus anderen RiPP-Familien auf die Microviridinfamilie extrapoliert, wodurch es möglich wurde, die Notwendigkeit eines Leader-Peptids zu umgehen. Diese Besonderheit erlaubt nunmehr, die Microviridin-Biosynthese-Enzyme für die Herstellung von neuartigen Varianten durch die Etablierung einer effizienten in vitro Synthese-Plattform auszunutzen. Die Relevanz dieses chemoenzymatischen Ansatzes wurde durch die Synthese von neuen potenten Serin-Protease- Inhibitoren aus sowohl rational gestalteten Peptidbibliotheken als auch bioinformatisch vorhergesagten Microviridinen veranschaulicht. Darüber hinaus wurden durch das Screenen von Microviridinzwischenprodukten neue Struktur-Funktionsbeziehungen abgeleitet. Die Bedeutung dieser Technik wurde durch den einfachen Einbau von nicht-kanonischen Aminosäuren in das Microviridin-Gerüst weiter demonstriert. KW - RiPP KW - microviridin KW - biosynthesis KW - natural products KW - peptide KW - protease inhibitor KW - Biosynthese KW - Naturstoffe KW - cyanobacteria KW - Cyanobakterien KW - Microviridin KW - Protease-Inhibitoren Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406979 ER - TY - THES A1 - Weißenberger, Martin T1 - Start-up subsidies for the unemployed - New evaluation approaches and insights T1 - Gründungsförderung für Arbeitslose - Neue Evaluationsansätze und -ergebnisse N2 - Start-up incentives targeted at unemployed individuals have become an important tool of the Active Labor Market Policy (ALMP) to fight unemployment in many countries in recent years. In contrast to traditional ALMP instruments like training measures, wage subsidies, or job creation schemes, which are aimed at reintegrating unemployed individuals into dependent employment, start-up incentives are a fundamentally different approach to ALMP, in that they intend to encourage and help unemployed individuals to exit unemployment by entering self-employment and, thus, by creating their own jobs. In this sense, start-up incentives for unemployed individuals serve not only as employment and social policy to activate job seekers and combat unemployment but also as business policy to promote entrepreneurship. The corresponding empirical literature on this topic so far has been mainly focused on the individual labor market perspective, however. The main part of the thesis at hand examines the new start-up subsidy (“Gründungszuschuss”) in Germany and consists of four empirical analyses that extend the existing evidence on start-up incentives for unemployed individuals from multiple perspectives and in the following directions: First, it provides the first impact evaluation of the new start-up subsidy in Germany. The results indicate that participation in the new start-up subsidy has significant positive and persistent effects on both reintegration into the labor market as well as the income profiles of participants, in line with previous evidence on comparable German and international programs, which emphasizes the general potential of start-up incentives as part of the broader ALMP toolset. Furthermore, a new innovative sensitivity analysis of the applied propensity score matching approach integrates findings from entrepreneurship and labor market research about the key role of an individual’s personality on start-up decision, business performance, as well as general labor market outcomes, into the impact evaluation of start-up incentives. The sensitivity analysis with regard to the inclusion and exclusion of usually unobserved personality variables reveals that differences in the estimated treatment effects are small in magnitude and mostly insignificant. Consequently, concerns about potential overestimation of treatment effects in previous evaluation studies of similar start-up incentives due to usually unobservable personality variables are less justified, as long as the set of observed control variables is sufficiently informative (Chapter 2). Second, the thesis expands our knowledge about the longer-term business performance and potential of subsidized businesses arising from the start-up subsidy program. In absolute terms, the analysis shows that a relatively high share of subsidized founders successfully survives in the market with their original businesses in the medium to long run. The subsidy also yields a “double dividend” to a certain extent in terms of additional job creation. Compared to “regular”, i.e., non-subsidized new businesses founded by non-unemployed individuals in the same quarter, however, the economic and growth-related impulses set by participants of the subsidy program are only limited with regard to employment growth, innovation activity, or investment. Further investigations of possible reasons for these differences show that differential business growth paths of subsidized founders in the longer run seem to be mainly limited by higher restrictions to access capital and by unobserved factors, such as less growth-oriented business strategies and intentions, as well as lower (subjective) entrepreneurial persistence. Taken together, the program has only limited potential as a business and entrepreneurship policy intended to induce innovation and economic growth (Chapters 3 and 4). And third, an empirical analysis on the level of German regional labor markets yields that there is a high regional variation in subsidized start-up activity relative to overall new business formation. The positive correlation between regular start-up intensity and the share among all unemployed individuals who participate in the start-up subsidy program suggests that (nascent) unemployed founders also profit from the beneficial effects of regional entrepreneurship capital. Moreover, the analysis of potential deadweight and displacement effects from an aggregated regional perspective emphasizes that the start-up subsidy for unemployed individuals represents a market intervention into existing markets, which affects incumbents and potentially produces inefficiencies and market distortions. This macro perspective deserves more attention and research in the future (Chapter 5). N2 - Die Gründungsförderung für Arbeitslose ist inzwischen in vielen Ländern fester Bestandteil der Aktiven Arbeitsmarktpolitik (ALMP) zur Bekämpfung der Arbeitslosigkeit. Im Gegensatz zu traditionellen ALMP-Instrumenten wie Fortbildungs- und Qualifikationsmaßnahmen, Lohnsubventionen oder Arbeitsbeschaffungsmaßnahmen ist das Ziel der Gründungsförderung keine Wiedereingliederung der Arbeitslosen in eine abhängige Beschäftigung, sondern ein Arbeitsmarktwiedereintritt in Selbständigkeit. Somit verfolgt dieses Instrument als ALMP-Maßnahme grundsätzlich nicht nur arbeitsmarkt- und sozialpolitische Ziele, sondern stellt indirekt auch eine Politik zur allgemeinen Förderung von Entrepreneurship und Existenzgründungen dar. Die zugehörige empirische Literatur war in der Vergangenheit jedoch hauptsächlich auf individuelle Arbeitsmarkteffekte dieser Programme konzentriert. Die vorliegende Dissertation beschäftigt sich eingehend mit dem deutschen Gründungszuschuss und besteht aus vier eigenständigen empirischen Studien, die die bestehende Evidenz zu Gründungsförderprogrammen für Arbeitslose durch folgende neue Erkenntnisse aus verschiedenen Perspektiven ergänzen und erweitern: Erstens zeigt die erstmalige kausale Wirkungsanalyse des Gründungszuschusses, dass das untersuchte Programm positive und langfristig anhaltende individuelle Fördereffekte auf Arbeitsmarktreintegration und Erwerbseinkommen für teilnehmende Arbeitslose aufweist. Die sehr vorteilhaften empirischen Befunde bestätigen ähnliche nationale und internationale Ergebnisse zu vergleichbaren Programmen und setzen sich damit von den insgesamt durchwachsenen Evaluationsergebnissen traditioneller ALMP-Maßnahmen ab. Dies unterstreicht das grundsätzliche Potential der Gründungsförderung von Arbeitslosen im Rahmen des ALMP-Instrumentariums. Eine innovative Sensitivitätsanalyse des verwendeten Propensity Score Matching Ansatzes ergibt zudem, dass die Ergebnisse der Programmevaluation nur geringfügig auf die (Nicht-)Berücksichtigung von üblicherweise unbeobachteten Persönlichkeitsvariablen reagieren, deren starker Einfluss auf Gründungsentscheidungen, Unternehmensentwicklungen und Arbeitsmarkterfolge in der Literatur breit dokumentiert ist. Die Gefahr und das Ausmaß einer potentiellen Verzerrung der Ergebnisse durch das Auslassen dieser Persönlichkeitsmerkmalen ist somit bei vergleichbaren Studien grundsätzlich als eher gering einzustufen, sofern die Liste der übrigen Kontrollvariablen informativ genug ist (Kapitel 2). Zweitens zeigt die empirische Analyse der Entrepreneurship-Perspektive, dass ein hoher Anteil an den durch den Gründungszuschuss geförderten Gründungen aus Arbeitslosigkeit auch mittel- bis langfristig erfolgreich im Markt etabliert ist und eine „doppelte Dividende“ der Förderung in Form von zusätzlicher Beschäftigung in den Unternehmen in begrenztem Umfang erzielt wird. Allerdings sind die geförderten Unternehmungen im Vergleich zu „regulären“ Gründungen, die von nicht-arbeitslosen Gründerpersonen im gleichen Quartal gegründet wurden, unterdurchschnittlich innovativ, investieren weniger und setzen geringere Impulse für Wachstum. Weiterführende Untersuchungen zeigen auf, dass mögliche Gründe dafür Restriktionen bei der Kapitalbeschaffung, weniger wachstums- und innovationsorientierte Unternehmensvorhaben und -strategien, sowie eine weniger stark ausgeprägte unternehmerische (subjektive) Persistenz bei einem Teil der arbeitslosen Gründer sind. Dies impliziert, dass sich die Gründungsförderung von Arbeitslosen nur in bedingtem Maße als Entrepreneurship-Maßnahme im engeren Sinne eignet, die Wachstums- und Innovationspotenziale freisetzt (Kapitel 3 und 4). Drittens lässt sich anhand einer empirischen Analyse auf Ebene regionaler Arbeitsmärkte feststellen, dass eine hohe regionale Variation in der relativen Bedeutung der Gründungsförderung am gesamten Gründungsgeschehen besteht. Die positive Korrelation zwischen regulärer Gründungsaktivität und dem Anteil arbeitsloser Gründerpersonen an allen potentiell teilnahmeberechtigten Arbeitslosen deutet darauf hin, dass positive Effekte von regionalem Entrepreneurshipkapital auch für arbeitslose Gründerpersonen wirksam sind. Zudem zeigt die empirische Analyse potentieller Mitnahme- und Verdrängungseffekte, dass Gründungsförderungen für Arbeitslose immer auch Eingriffe in bestehende Märkte sind, die direkte Auswirkungen auf existierende Unternehmen haben. Diese Makro-Ebene insbesondere ist noch untererforscht und verdient weitere Aufmerksamkeit (Kapitel 5). KW - Gründungsförderung KW - Arbeitslosigkeit KW - Arbeitsmarktpolitik KW - Entrepreneurship KW - Gründungszuschuss KW - business support KW - unemployment KW - labor market policy KW - entrepreneurship KW - start-up subsidy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406362 ER - TY - THES A1 - Schürmann, Robin Mathis T1 - Interaction of the potential DNA-radiosensitizer 8-bromoadenine with free and plasmonically generated electrons T1 - Wechselwikung des potentiellen DNA-Radiosensibilisators 8-Bromoadenin mit freien und plasmonisch erzeugten Elektronen N2 - In Germany more than 200.000 persons die of cancer every year, which makes it the second most common cause of death. Chemotherapy and radiation therapy are often combined to exploit a supra-additive effect, as some chemotherapeutic agents like halogenated nucleobases sensitize the cancerous tissue to radiation. The radiosensitizing action of certain therapeutic agents can be at least partly assigned to their interaction with secondary low energy electrons (LEEs) that are generated along the track of the ionizing radiation. In the therapy of cancer DNA is an important target, as severe DNA damage like double strand breaks induce the cell death. As there is only a limited number of radiosensitizing agents in clinical practice, which are often strongly cytotoxic, it would be beneficial to get a deeper understanding of the interaction of less toxic potential radiosensitizers with secondary reactive species like LEEs. Beyond that LEEs can be generated by laser illuminated nanoparticles that are applied in photothermal therapy (PTT) of cancer, which is an attempt to treat cancer by an increase of temperature in the cells. However, the application of halogenated nucleobases in PTT has not been taken into account so far. In this thesis the interaction of the potential radiosensitizer 8-bromoadenine (8BrA) with LEEs was studied. In a first step the dissociative electron attachment (DEA) in the gas phase was studied in a crossed electron-molecular beam setup. The main fragmentation pathway was revealed as the cleavage of the C-Br bond. The formation of a stable parent anion was observed for electron energies around 0 eV. Furthermore, DNA origami nanostructures were used as platformed to determine electron induced strand break cross sections of 8BrA sensitized oligonucleotides and the corresponding nonsensitized sequence as a function of the electron energy. In this way the influence of the DEA resonances observed for the free molecules on the DNA strand breaks was examined. As the surrounding medium influences the DEA, pulsed laser illuminated gold nanoparticles (AuNPs) were used as a nanoscale electron source in an aqueous environment. The dissociation of brominated and native nucleobases was tracked with UV-Vis absorption spectroscopy and the generated fragments were identified with surface enhanced Raman scattering (SERS). Beside the electron induced damage, nucleobase analogues are decomposed in the vicinity of the laser illuminatednanoparticles due to the high temperatures. In order to get a deeper understanding of the different dissociation mechanisms, the thermal decomposition of the nucleobases in these systems was studied and the influence of the adsorption kinetics of the molecules was elucidated. In addition to the pulsed laser experiments, a dissociative electron transfer from plasmonically generated ”hot electrons” to 8BrA was observed under low energy continuous wave laser illumination and tracked with SERS. The reaction was studied on AgNPs and AuNPs as a function of the laser intensity and wavelength. On dried samples the dissociation of the molecule was described by fractal like kinetics. In solution, the dissociative electron transfer was observed as well. It turned out that the timescale of the reaction rates were slightly below typical integration times of Raman spectra. In consequence such reactions need to be taken into account in the interpretation of SERS spectra of electrophilic molecules. The findings in this thesis help to understand the interaction of brominated nucleobases with plasmonically generated electrons and free electrons. This might help to evaluate the potential radiosensitizing action of such molecules in cancer radiation therapy and PTT. N2 - Mit deutschlandweit über 200.000 Todesfällen pro Jahr ist Krebs die zweithäufigste Todesursache. In der Krebstherapie werden häufig Strahlenund Chemotherapie kombiniert, da das Krebsgewebe durch die Gabe bestimmter Chemotherapeutika, z.B. halogenierte Nukleinbasen, gegenüber ionisierender Strahlung sensibilisiert wird. Die Wirkung dieser sogenannten Radiosensibilatoren lässt sich zumindest teilweise auf ihre Wechselwirkung mit niederenergetischen Elektronen zurückführen, welche in hoher Zahl entlang der Trajektorie hochenergetischer Teilchen oder Photonen erzeugt werden. In der Krebstherapie ist die DNA ein wichtiger Angriffspunkt, da schwere DNA-Schäden wie Doppelstrangbrüche zum Zelltod führen können. In der klinischen Praxis ist die Anzahl der eingesetzten meist zytotoxischen Radiosensibilisatoren relativ begrenzt. Zur Verbesserung der bestehenden Therapien durch den Einsatz von Medikamenten mit geringeren Nebenwirkungen, ist es notwendig die Wechselwirkungen zwischen potentiellen Radiosensibilisatoren und reaktiven Sekundärteilchen wie niederenergetischen Elektronen besser zu verstehen. Neben der Strahlentherapie werden niederenergetische Elektronen auch durch Laserbestrahlung von plasmonischen Nanopartikeln erzeugt, welche in der Photothermaltherapie (PTT) Anwendung finden. Die mögliche Anwendung von halogenierten Nukleinbasen zur Verbesserung der Photothermaltherapie ist jedoch bisher noch nicht in Erwägung gezogen worden. Im Rahmen dieser kumulativen Dissertation wird die Wechselwirkung des potentiellen Radiosensibilisators 8-Bromoadenin (8BrA) mit niederenergetischen Elektronen untersucht. Unter Verwendung eines gekreuzten Molekül-Elektronenstrahls wurde in einem ersten Schritt die dissoziative Elektronenanlagerung (DEA) an 8BrA untersucht. Dabei zeigte sich, dass der Hauptzerfallskanal in dem Aufbrechen der C-Br Bindung besteht. Darüberhinausgehend wurde bei der Anlagerung von Elektronen mit einer Energie von 0 eV ein stabiles 8BrA Anion beobachtet. Um den Einfluss der DEA-Resonanzen, die für freie Moleküle in der Gasphase beobachtet wurden, auf die elektroneninduzierten DNA-Strangbrüche zu untersuchen wurden DNA- Origami-Nanostrukturen mit Elektronen bestrahlt. Die DNAOrigami-Strukturen wurden sowohl mit 8BrA modifizierten Oligonukleotiden und der nicht modifizierten Kontrollsequenz bestückt und die Strangbruch Wirkungsquerschnitte in Abhängigkeit von der Elektronenenergie bestimmt. DEA-Prozesse hängen stark von dem umgebenden Medium ab. Aus diesem Grund wurden laserbestrahlte Gold-Nanopartikel (AuNPs) als Elektronenquellen auf der Nanoebene verwendet. Der Zerfall von bromierten und unmodifizierten Nukleinbasen wurde mit UV-Vis-Absorptions-Spektroskopie verfolgt, während die Identifizierung der entstandenen Fragmente über Oberflächenverstärkte Ramanstreuung (SERS) erfolgte. Neben dem elektroneninduzierten Schaden, werden die Nukleinbasen in der Umgebung der AuNPs durch die hohen Temperaturen auch thermisch zersetzt. Um diese verschiedenen Prozesse auseinander halten zu können, wurde die thermische Zersetzung auf den laserbestrahlten AuNPs detailliert untersucht und der Einfluss der Adsorptionskinetik herausgearbeitet. Elektroneninduzierte Reaktionen auf Nanopartikeln finden nicht nur bei Bestrahlung mit intensiven Laser-Pulsen statt. Ein dissoziativer Elektronentransfer auf 8BrA, der zum Aufbrechen der C-Br Bindung führt, konnte ebenfalls während der Bestrahlung mit einem kontinuierlichen Laser geringer Intensität mit SERS beobachtet werden. Mit Hilfe von fraktaler Kinetik konnten dabei die Reaktionen auf getrockneten Proben beschrieben werden. Auf diese Art wurde die Reaktion sowohl auf AuNPs als auch auf AgNPs als Funktion der Laserintensität und -Wellenlänge untersucht. Ebenfalls in Lösung konnte das Auftrennen der C-Br Bindung beobachtet werden, wobei die Zeitskalen der Reaktion ein wenig kürzer als die typischen Integrationszeiten bei Ramanmessungen waren. Aus diesem Grund müssen Dissoziative-ElektronenTransfer- Reaktionen bei der Interpretation von SERS Spektren mit in Betracht gezogen werden. Die Ergebnisse dieser kumulativen Doktorarbeit fördern das Verständnis der Wechselwirkungen zwischen bromierten Nukleinbasen mit freien und plasmonisch erzeugten Elektronen. Dies könnte dabei helfen das Potential von 8BrA als möglicher Radiosensibilisator besser beurteilen zu können. KW - DNA damage KW - Radiosensitization KW - dissociative electron attachment KW - nanoparticles KW - plasmonic catalysis KW - DNA-Schädigung KW - dissoziative Elektronen Anlagerung KW - Nanopartikel KW - plasmonische Katalyse Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407017 ER - TY - THES A1 - Papenbrock, Thorsten T1 - Data profiling - efficient discovery of dependencies T1 - Profilerstellung für Daten - Effiziente Entdeckung von Abhängigkeiten N2 - Data profiling is the computer science discipline of analyzing a given dataset for its metadata. The types of metadata range from basic statistics, such as tuple counts, column aggregations, and value distributions, to much more complex structures, in particular inclusion dependencies (INDs), unique column combinations (UCCs), and functional dependencies (FDs). If present, these statistics and structures serve to efficiently store, query, change, and understand the data. Most datasets, however, do not provide their metadata explicitly so that data scientists need to profile them. While basic statistics are relatively easy to calculate, more complex structures present difficult, mostly NP-complete discovery tasks; even with good domain knowledge, it is hardly possible to detect them manually. Therefore, various profiling algorithms have been developed to automate the discovery. None of them, however, can process datasets of typical real-world size, because their resource consumptions and/or execution times exceed effective limits. In this thesis, we propose novel profiling algorithms that automatically discover the three most popular types of complex metadata, namely INDs, UCCs, and FDs, which all describe different kinds of key dependencies. The task is to extract all valid occurrences from a given relational instance. The three algorithms build upon known techniques from related work and complement them with algorithmic paradigms, such as divide & conquer, hybrid search, progressivity, memory sensitivity, parallelization, and additional pruning to greatly improve upon current limitations. Our experiments show that the proposed algorithms are orders of magnitude faster than related work. They are, in particular, now able to process datasets of real-world, i.e., multiple gigabytes size with reasonable memory and time consumption. Due to the importance of data profiling in practice, industry has built various profiling tools to support data scientists in their quest for metadata. These tools provide good support for basic statistics and they are also able to validate individual dependencies, but they lack real discovery features even though some fundamental discovery techniques are known for more than 15 years. To close this gap, we developed Metanome, an extensible profiling platform that incorporates not only our own algorithms but also many further algorithms from other researchers. With Metanome, we make our research accessible to all data scientists and IT-professionals that are tasked with data profiling. Besides the actual metadata discovery, the platform also offers support for the ranking and visualization of metadata result sets. Being able to discover the entire set of syntactically valid metadata naturally introduces the subsequent task of extracting only the semantically meaningful parts. This is challenge, because the complete metadata results are surprisingly large (sometimes larger than the datasets itself) and judging their use case dependent semantic relevance is difficult. To show that the completeness of these metadata sets is extremely valuable for their usage, we finally exemplify the efficient processing and effective assessment of functional dependencies for the use case of schema normalization. N2 - Data Profiling ist eine Disziplin der Informatik, die sich mit der Analyse von Datensätzen auf deren Metadaten beschäftigt. Die verschiedenen Typen von Metadaten reichen von einfachen Statistiken wie Tupelzahlen, Spaltenaggregationen und Wertverteilungen bis hin zu weit komplexeren Strukturen, insbesondere Inklusionsabhängigkeiten (INDs), eindeutige Spaltenkombinationen (UCCs) und funktionale Abhängigkeiten (FDs). Diese Statistiken und Strukturen dienen, sofern vorhanden, dazu die Daten effizient zu speichern, zu lesen, zu ändern und zu verstehen. Die meisten Datensätze stellen ihre Metadaten aber nicht explizit zur Verfügung, so dass Informatiker sie mittels Data Profiling bestimmen müssen. Während einfache Statistiken noch relativ schnell zu berechnen sind, stellen die komplexen Strukturen schwere, zumeist NP-vollständige Entdeckungsaufgaben dar. Es ist daher auch mit gutem Domänenwissen in der Regel nicht möglich sie manuell zu entdecken. Aus diesem Grund wurden verschiedenste Profiling Algorithmen entwickelt, die die Entdeckung automatisieren. Keiner dieser Algorithmen kann allerdings Datensätze von heutzutage typischer Größe verarbeiten, weil entweder der Ressourcenverbrauch oder die Rechenzeit effektive Grenzen überschreiten. In dieser Arbeit stellen wir neuartige Profiling Algorithmen vor, die automatisch die drei populärsten Typen komplexer Metadaten entdecken können, nämlich INDs, UCCs, und FDs, die alle unterschiedliche Formen von Schlüssel-Abhängigkeiten beschreiben. Die Aufgabe dieser Algorithmen ist es alle gültigen Vorkommen der drei Metadaten-Typen aus einer gegebenen relationalen Instanz zu extrahieren. Sie nutzen dazu bekannte Entdeckungstechniken aus verwandten Arbeiten und ergänzen diese um algorithmische Paradigmen wie Teile-und-Herrsche, hybrides Suchen, Progressivität, Speichersensibilität, Parallelisierung und zusätzliche Streichungsregeln. Unsere Experimente zeigen, dass die vorgeschlagenen Algorithmen mit den neuen Techniken nicht nur um Größenordnungen schneller sind als alle verwandten Arbeiten, sie erweitern auch aktuelle Beschränkungen deutlich. Sie können insbesondere nun Datensätze realer Größe, d.h. mehrerer Gigabyte Größe mit vernünftigem Speicher- und Zeitverbrauch verarbeiten. Aufgrund der praktischen Relevanz von Data Profiling hat die Industrie verschiedene Profiling Werkzeuge entwickelt, die Informatiker in ihrer Suche nach Metadaten unterstützen sollen. Diese Werkzeuge bieten eine gute Unterstützung für die Berechnung einfacher Statistiken. Sie sind auch in der Lage einzelne Abhängigkeiten zu validieren, allerdings mangelt es ihnen an Funktionen zur echten Entdeckung von Metadaten, obwohl grundlegende Entdeckungstechniken schon mehr als 15 Jahre bekannt sind. Um diese Lücke zu schließen haben wir Metanome entwickelt, eine erweiterbare Profiling Plattform, die nicht nur unsere eigenen Algorithmen sondern auch viele weitere Algorithmen anderer Forscher integriert. Mit Metanome machen wir unsere Forschungsergebnisse für alle Informatiker und IT-Fachkräfte zugänglich, die ein modernes Data Profiling Werkzeug benötigen. Neben der tatsächlichen Metadaten-Entdeckung bietet die Plattform zusätzlich Unterstützung bei der Bewertung und Visualisierung gefundener Metadaten. Alle syntaktisch korrekten Metadaten effizient finden zu können führt natürlicherweise zur Folgeaufgabe daraus nur die semantisch bedeutsamen Teile zu extrahieren. Das ist eine Herausforderung, weil zum einen die Mengen der gefundenen Metadaten überraschenderweise groß sind (manchmal größer als der untersuchte Datensatz selbst) und zum anderen die Entscheidung über die Anwendungsfall-spezifische semantische Relevanz einzelner Metadaten-Aussagen schwierig ist. Um zu zeigen, dass die Vollständigkeit der Metadaten sehr wertvoll für ihre Nutzung ist, veranschaulichen wir die effiziente Verarbeitung und effektive Bewertung von funktionalen Abhängigkeiten am Anwendungsfall Schema Normalisierung. KW - data profiling KW - functional dependency KW - unique column combination KW - inclusion dependency KW - dependency KW - metanome KW - metadata KW - discovery KW - hybrid KW - divide-and-conquer KW - Profilerstellung für Daten KW - funktionale Abhängigkeit KW - eindeutige Spaltenkombination KW - Inklusionsabhängigkeit KW - Abhängigkeit KW - Metanome KW - Metadaten KW - Entdeckung KW - Hybrid KW - Teile und Herrsche Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406705 ER -