TY - THES A1 - Aich, Valentin T1 - Floods in the Niger River Basin in the face of global change T1 - Hochwasser im Niger Einzugsgebiet im Kontext des Globalen Wandels BT - analysis, attribution and projections BT - Analyse, Zuschreibung und Projektionen N2 - In the last decade, the number and dimensions of catastrophic flooding events in the Niger River Basin (NRB) have markedly increased. Despite the devastating impact of the floods on the population and the mainly agriculturally based economy of the riverine nations, awareness of the hazards in policy and science is still low. The urgency of this topic and the existing research deficits are the motivation for the present dissertation. The thesis is an initial detailed assessment of the increasing flood risk in the NRB. The research strategy is based on four questions regarding (1) features of the change in flood risk, (2) reasons for the change in the flood regime, (3) expected changes of the flood regime given climate and land use changes, and (4) recommendations from previous analysis for reducing the flood risk in the NRB. The question examining the features of change in the flood regime is answered by means of statistical analysis. Trend, correlation, changepoint, and variance analyses show that, in addition to the factors exposure and vulnerability, the hazard itself has also increased significantly in the NRB, in accordance with the decadal climate pattern of West Africa. The northern arid and semi-arid parts of the NRB are those most affected by the changes. As potential reasons for the increase in flood magnitudes, climate and land use changes are attributed by means of a hypothesis-testing framework. Two different approaches, based on either data analysis or simulation, lead to similar results, showing that the influence of climatic changes is generally larger compared to that of land use changes. Only in the dry areas of the NRB is the influence of land use changes comparable to that of climatic alterations. Future changes of the flood regime are evaluated using modelling results. First ensembles of statistically and dynamically downscaled climate models based on different emission scenarios are analyzed. The models agree with a distinct increase in temperature. The precipitation signal, however, is not coherent. The climate scenarios are used to drive an eco-hydrological model. The influence of climatic changes on the flood regime is uncertain due to the unclear precipitation signal. Still, in general, higher flood peaks are expected. In a next step, effects of land use changes are integrated into the model. Different scenarios show that regreening might help to reduce flood peaks. In contrast, an expansion of agriculture might enhance the flood peaks in the NRB. Similarly to the analysis of observed changes in the flood regime, the impacts of climate- and land use changes for the future scenarios are also most severe in the dry areas of the NRB. In order to answer the final research question, the results of the above analysis are integrated into a range of recommendations for science and policy on how to reduce flood risk in the NRB. The main recommendations include a stronger consideration of the enormous natural climate variability in the NRB and a focus on so called “no-regret” adaptation strategies which account for high uncertainty, as well as a stronger consideration of regional differences. Regarding the prevention and mitigation of catastrophic flooding, the most vulnerable and sensitive areas in the basin, the arid and semi-arid Sahelian and Sudano-Sahelian regions, should be prioritized. Eventually, an active, science-based and science-guided flood policy is recommended. The enormous population growth in the NRB in connection with the expected deterioration of environmental and climatic conditions is likely to enhance the region´s vulnerability to flooding. A smart and sustainable flood policy can help mitigate these negative impacts of flooding on the development of riverine societies in West Africa. N2 - Während des vergangenen Jahrzehnts nahmen die Anzahl und die Ausmaße von katastrophalen Hochwassern im Einzugsgebiet des Nigerflussess (NEZG) deutlich zu. Trotz der verheerenden Auswirkungen der Hochwasserkatastrophen auf die Menschen und die hauptsächlich auf Landwirtschaft basierende Wirtschaft der Anrainerstaaten wird das Thema von Politik und Wissenschaft noch kaum beachtet. Die vorliegende Dissertation ist die erste ausführliche Analyse des steigenden Hochwasserrisikos im NEZG. Die Forschungsstrategie basiert auf vier Fragen nach (1) der Art der Veränderungen des Hochwasserrisikos, (2) den Ursachen der Veränderungen im Hochwasserregime, (3) den zukünftigen Entwicklungen im Hochwasserregime hinsichtlich der erwartenden Klima- und Landnutzungswandel und (4) den aus den Untersuchungen abgeleiteten Empfehlungen zur Reduzierung des Hochwasserrisikos im NEZG. Die Frage nach den Merkmalen der Veränderungen im Hochwasserrisiko wurde mithilfe von statistischen Untersuchungen beantwortet. Die Analysen zeigen, dass neben den Risikofaktoren Exponiertheit und Verwundbarkeit auch die Hochwasserstände selbst im NEZG in den letzten Jahrzehnten signifikant und entsprechend der typischen dekadischen Klimamuster Westafrikas angestiegen sind. Als potentielle Ursachen des Hochwasseranstiegs werden Klima- und Landnutzungswandel untersucht. Zwei verschiedene Ansätze, basierend auf Daten sowie auf Simulationen, führen zu ähnlichen Ergebnissen und zeigen, dass der Einfluss der Klimaveränderungen im Allgemeinen größer als der des Landnutzungswandels ist. Das zukünftige Hochwasserrisiko wird anhand des öko-hydrologisches Modells SWIM abgeschätzt. Der Einfluss des Klimawandels auf das Hochwasserregime ist auf Grund des problematischen Niederschlagssignals unsicher. Tendenziell werden aber höhere Maximalabflüsse erwartet. Der Effekt der Landnutzungsänderung beeinflusst das Hochwasserverhalten ebenfalls stark, besonders in den trockenen Gebieten. Verschiedene Szenarien zeigen, dass Renaturierung hülfe, Hochwasserspitzen zu kappen. Eine Ausweitung der Agrarflächen dagegen würde die Hochwässer im NEZG weiter verstärken Zentrale Empfehlungen sind eine stärkere Einbeziehung der enorm starken natürlichen Klimavariabilität im NEZG und eine Fokussierung auf sogenannte „no-regret“ Anpassungsstrategien. Dabei sollte den verwundbarsten Regionen des Einzugsgebiets, den ariden und semi-ariden Regionen, Priorität eingeräumt werden. Die enorme Bevölkerungszunahme im NEZG verbunden mit der zu erwartenden Verschlechterung der Umwelt- und Klimabedingungen wird mit hoher Wahrscheinlichkeit auch die Verwundbarkeit bezüglich Hochwässer weiter ansteigen lassen. Eine vernünftige und nachhaltige Hochwasserpolitik kann helfen, die negativen Folgen auf die Entwicklung der Anrainerstaaten des Nigerflusses abzumindern. KW - flood KW - Niger KW - climate change KW - land use change KW - Hochwasser KW - Niger KW - Klimawandel KW - Landnutzungswandel Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91577 ER - TY - THES A1 - Aygül, Mesut T1 - Pre-collisional accretion and exhumation along the southern Laurasian active margin, Central Pontides, Turkey T1 - Prä-Kollisions Akkretion und Exhumierung entlang des aktiven südlichen Kontinentalrands Laurassisens, mittlere Pontiden, Türkei N2 - The Central Pontides is an accretionary-type orogenic area within the Alpine-Himalayan orogenic belt characterized by pre-collisional tectonic continental growth. The region comprises Mesozoic subduction-accretionary complexes and an accreted intra-oceanic arc that are sandwiched between the Laurasian active continental margin and Gondwana-derived the Kırşehir Block. The subduction-accretion complexes mainly consist of an Albian-Turonian accretionary wedge representing the Laurasian active continental margin. To the north, the wedge consists of slate/phyllite and metasandstone intercalation with recrystallized limestone, Na-amphibole-bearing metabasite (PT= 7–12 kbar and 400 ± 70 ºC) and tectonic slices of serpentinite representing accreted distal part of a large Lower Cretaceous submarine turbidite fan deposited on the Laurasian active continental margin that was subsequently accreted and metamorphosed. Raman spectra of carbonaceous material (RSCM) of the metapelitic rocks revealed that the metaflysch sequence consists of metamorphic packets with distinct peak metamorphic temperatures. The majority of the metapelites are low-temperature (ca. 330 °C) slates characterized by lack of differentiation of the graphite (G) and D2 defect bands. They possibly represent offscraped distal turbidites along the toe of the Albian accretionary wedge. The rest are phyllites that are characterized by slightly pronounced G band with D2 defect band occurring on its shoulder. Peak metamorphic temperatures of these phyllites are constrained to 370-385 °C. The phyllites are associated with a strip of incipient blueschist facies metabasites which are found as slivers within the offscraped distal turbidites. They possibly represent underplated continental metasediments together with oceanic crustal basalt along the basal décollement. Tectonic emplacement of the underplated rocks into the offscraped distal turbidites was possibly achieved by out-of-sequence thrusting causing tectonic thickening and uplift of the wedge. 40Ar/39Ar phengite ages from the phyllites are ca. 100 Ma, indicating Albian subduction and regional HP metamorphism. The accreted continental metasediments are underlain by HP/LT metamorphic rocks of oceanic origin along an extensional shear zone. The oceanic metamorphic sequence mainly comprises tectonically thickened deep-seated eclogite to blueschist facies metabasites and micaschists. In the studied area, metabasites are epidote-blueschists locally with garnet (PT= 17 ± 1 kbar and 500 ± 40 °C). Lawsonite-blueschists are exposed as blocks along the extensional shear zone (PT= 14 ± 2 kbar and 370–440 °C). They are possibly associated with low shear stress regime of the initial stage of convergence. Close to the shear zone, the footwall micaschists consist of quartz, phengite, paragonite, chlorite, rutile with syn-kinematic albite porphyroblast formed by pervasive shearing during exhumation. These types of micaschists are tourmaline-bearing and their retrograde nature suggests high-fluid flux along shear zones. Peak metamorphic mineral assemblages are partly preserved in the chloritoid-micaschist farther away from the shear zone representing the zero strain domains during exhumation. Three peak metamorphic assemblages are identified and their PT conditions are constrained by pseudosections produced by Theriak-Domino and by Raman spectra of carbonaceous material: 1) garnet-chloritoid-glaucophane with lawsonite pseudomorphs (P= 17.5 ± 1 kbar, T: 390-450 °C) 2) chloritoid with glaucophane pseudomorphs (P= 16-18 kbar, T: 475 ± 40 °C) and 3) relatively high-Mg chloritoid (17%) with jadeite pseudomorphs (P= 22-25 kbar; T: 440 ± 30 °C) in addition to phengite, paragonite, quartz, chlorite, rutile and apatite. The last mineral assemblage is interpreted as transformation of the chloritoid + glaucophane assemblage to chloritoid + jadeite paragenesis with increasing pressure. Absence of tourmaline suggests that the chloritoid-micaschist did not interact with B-rich fluids during zero strain exhumation. 40Ar/39Ar phengite age of a pervasively sheared footwall micaschist is constrained to 100.6 ± 1.3 Ma and that of a chloritoid-micaschist is constrained to 91.8 ± 1.8 Ma suggesting exhumation during on-going subduction with a southward younging of the basal accretion and the regional metamorphism. To the south, accretionary wedge consists of blueschist and greenschist facies metabasite, marble and volcanogenic metasediment intercalation. 40Ar/39Ar phengite dating reveals that this part of the wedge is of Middle Jurassic age partly overprinted during the Albian. Emplacement of the Middle Jurassic subduction-accretion complexes is possibly associated with obliquity of the Albian convergence. Peak metamorphic assemblages and PT estimates of the deep-seated oceanic metamorphic sequence suggest tectonic stacking within wedge with different depths of burial. Coupling and exhumation of the distinct metamorphic slices are controlled by decompression of the wedge possibly along a retreating slab. Structurally, decompression of the wedge is evident by an extensional shear zone and the footwall micaschists with syn-kinematic albite porphyroblasts. Post-kinematic garnets with increasing grossular content and pseudomorphing minerals within the chloritoid-micaschists also support decompression model without an extra heating. Thickening of subduction-accretionary complexes is attributed to i) significant amount of clastic sediment supply from the overriding continental domain and ii) deep level basal underplating by propagation of the décollement along a retreating slab. Underplating by basal décollement propagation and subsequent exhumation of the deep-seated subduction-accretion complexes are connected and controlled by slab rollback creating a necessary space for progressive basal accretion along the plate interface and extension of the wedge above for exhumation of the tectonically thickened metamorphic sequences. This might be the most common mechanism of the tectonic thickening and subsequent exhumation of deep-seated HP/LT subduction-accretion complexes. To the south, the Albian-Turonian accretionary wedge structurally overlies a low-grade volcanic arc sequence consisting of low-grade metavolcanic rocks and overlying metasedimentary succession is exposed north of the İzmir-Ankara-Erzincan suture (İAES), separating Laurasia from Gondwana-derived terranes. The metavolcanic rocks mainly consist of basaltic andesite/andesite and mafic cognate xenolith-bearing rhyolite with their pyroclastic equivalents, which are interbedded with recrystallized pelagic limestone and chert. The metavolcanic rocks are stratigraphically overlain by recrystallized micritic limestone with rare volcanogenic metaclastic rocks. Two groups can be identified based on trace and rare earth element characteristics. The first group consists of basaltic andesite/andesite (BA1) and rhyolite with abundant cognate gabbroic xenoliths. It is characterized by relative enrichment of LREE with respect to HREE. The rocks are enriched in fluid mobile LILE, and strongly depleted in Ti and P reflecting fractionation of Fe-Ti oxides and apatite, which are found in the mafic cognate xenoliths. Abundant cognate gabbroic xenoliths and identical trace and rare earth elements compositions suggest that rhyolites and basaltic andesites/andesites (BA1) are cogenetic and felsic rocks were derived from a common mafic parental magma by fractional crystallization and accumulation processes. The second group consists only of basaltic andesites (BA2) with flat REE pattern resembling island arc tholeiites. Although enriched in LILE, this group is not depleted in Ti or P. Geochemistry of the metavolcanic rocks indicates supra-subduction volcanism evidenced by depletion of HFSE and enrichment of LILE. The arc sequence is sandwiched between an Albian-Turonian subduction-accretionary complex representing the Laurasian active margin and an ophiolitic mélange. Absence of continent derived detritus in the arc sequence and its tectonic setting in a wide Cretaceous accretionary complex suggest that the Kösdağ Arc was intra-oceanic. This is in accordance with basaltic andesites (BA2) with island arc tholeiite REE pattern. Zircons from two metarhyolite samples give Late Cretaceous (93.8 ± 1.9 and 94.4 ± 1.9 Ma) U/Pb ages. Low-grade regional metamorphism of the intra-oceanic arc sequence is constrained 69.9 ± 0.4 Ma by 40Ar/39Ar dating on metamorphic muscovite from a metarhyolite indicating that the arc sequence became part of a wide Tethyan Cretaceous accretionary complex by the latest Cretaceous. The youngest 40Ar/39Ar phengite age from the overlying subduction-accretion complexes is 92 Ma confirming southward younging of an accretionary-type orogenic belt. Hence, the arc sequence represents an intra-oceanic paleo-arc that formed above the sinking Tethyan slab and finally accreted to Laurasian active continental margin. Abrupt non-collisional termination of arc volcanism was possibly associated with southward migration of the arc volcanism similar to the Izu-Bonin-Mariana arc system. The intra-oceanic Kösdağ Arc is coeval with the obducted supra-subduction ophiolites in NW Turkey suggesting that it represents part of the presumed but missing incipient intra-oceanic arc associated with the generation of the regional supra-subduction ophiolites. Remnants of a Late Cretaceous intra-oceanic paleo-arc and supra-subduction ophiolites can be traced eastward within the Alp-Himalayan orogenic belt. This reveals that Late Cretaceous intra-oceanic subduction occurred as connected event above the sinking Tethyan slab. It resulted as arc accretion to Laurasian active margin and supra-subduction ophiolite obduction on Gondwana-derived terranes. N2 - Die Mittelpontiden sind ein akkretionäres orogenes Gebiet innerhalb des Alpen-Himalaya Orogengürtels, das durch präkollisionales tektonisches kontinentales Wachstum gekennzeichnet ist. Die Region umfasst mesozoische subduktions-akkretions Komplexe und einen akkretierten intraozeanischen Bogen, die zwischen dem aktiven laurassischen Kontinentalrand und dem von Gondwana abgeleiteten Kırşehir Block eingeklemmt sind. Die Subduktions-Akkretionskomplexe bestehen hauptsächlich aus einem Alb-Turon Akkretionskeil, der den aktiven laurassischen Kontinentalrand repräsentiert. Im Norden besteht der Keil aus Schiefer/Phyllit und Metasandsteineinlagerungen mit rekristallisiertem Kalkstein, Na-Amphibole-tragendem Metabasit (PT= 7-12 kbar und 400 ± 70 ºC) und tektonischen Serpentinit-Einlagerungen, die einen distalen Teil eines großen submarinen Turbiditfächers der Unterkreide darstellen, der auf dem aktiven Kontinentalrand von Lauras abgelagert und anschließend akkretiert und metamorphisiert wurde. Ramanspektren von kohlenstoffhaltigem Material (RSCM) der metapelitischen Gesteine zeigen, dass die Metaflyschsequenz aus metamorphen Paketen mit ausgeprägten metamorphen Temperaturspitzen besteht. Die Mehrheit der Metapelite sind Niedertemperatur (ca. 330 °C) Schiefer, die sich durch eine mangelnde Differenzierung der Defektbänder Graphit (G) und D2 auszeichnen. Sie stellen möglicherweise abgetragene distale Turbidite entlang der Sohle des Akkretionskeils im Alb dar. Der Rest sind Phyllite, die sich durch ein leicht ausgeprägtes G-Band mit D2-Defektband an der Schulter auszeichnen. Die metamorphen Temperaturen dieser Phyllite sind auf 370-385 °C begrenzt. Die Phyllite sind mit Streifen von Metabasiten der beginnenden blauen Fazies assoziiert, die sich als Bänder innerhalb der abgetragenen distalen Turbidite befinden. Sie stellen möglicherweise unterschichtete kontinentale Metasedimente zusammen mit ozeanischem Krustenbasalt entlang des basalen Decollements dar. Die tektonische Einlagerung der unterschobenen Gesteine in die abgetragenen distalen Turbidite wurde möglicherweise durch "out-of-sequence thrusting" erreicht, was zu einer tektonischen Verdickung und Hebung des Keils führte. 40Ar/39Ar Phengit Alter von den Phylliten sind ca. 100 Ma, was auf Subduktion und regionale HP-Metamorphose während dem Alb hinweist. Die akkretierten kontinentalen Metasedimente werden von HP/LT-metamorphen Gesteinen ozeanischen Ursprungs entlang einer ausgedehnten Scherzone durchzogen. Die ozeanisch metamorphe Sequenz umfasst hauptsächlich tektonisch verdickte, tief sitzende Eklogite bis hin zu blauschieferfaziellen Metabasiten und Glimmerschiefern. Im Untersuchungsgebiet treten Metabasite als Epidot-Blauschiefer lokal mit Granat auf (PT= 17 ± 1 kbar und 500 ± 40 °C). Lawsonit-Blauschiefer treten als Blöcke entlang einer Extensionsscherzone auf (PT= 14 ± 2 kbar und 370-440 °C). Sie sind möglicherweise mit einem niedrigen Scherspannungsregime während der Anfangsphase der Konvergenz verbunden. In der Nähe der Scherzone bestehen die Glimmerschiefer aus Quarz, Phengit, Paragonit, Chlorit, Rutil und syn-kinematischen Albitporphyroblasten, die durch Scherung während der Exhumierung entstanden. Die Glimmerschiefer führen Turmalin und ihre retrograde Natur deutet auf hohen Fluidflux entlang der Scherzonen. Mineralvergesellschaftungen des metamorphen Maximums sind, weiter weg von der Scherzone, teilweise noch in den Chloritoid-Glimmerschiefern erhalten. Diese Domänen erfuhren während der Exhumierung keinen Strain. Drei metamorphe Vergesellschaftungen wurden identifiziert und ihre PT-Bedingungen durch Theriak-Domino Modellierung und Raman-Spektren von kohlenstoffhaltigem Material eingeschränkt: 1) Granat-Chloritoid-Glaukophan mit Lawsonit-Pseudomorphen (P= 17.5 ± 1 kbar, T: 390-450 °C); 2) Chloritoid mit Glaukophan-Pseudomorphen (P= 16-18 kbar, T: 475 ± 40 °C) und 3) relativ hoch-Mg-Chloritoid (17%) mit Jadeit-Pseudomorphen (P= 22-25 kbar; T: 440 ± 30 °C) zusätzlich zu Phengit, Paragonit, Quarz, Chlorit, Rutil und Apatit. Die letzte Mineralparagenese wird interpretiert als Transformation der Chloritoid + Glaukophan Vergesellschaftung zu Chloritoid + Jadeit Paragenese mit steigendem Druck. Das Fehlen von Turmalin deutet darauf hin, dass der Chloritoid-Glimmerschiefer während der strain-freien Exhumierung nicht mit B-reichen Fluiden reagiert hat. Das 40Ar/39Ar Phengitalter eines penetrativ geschieferten Glimmerschiefers ist auf 100,6 ± 1,3 Ma und das eines Chlorit-Glimmerschiefers auf 91,8 ± 1,8 Ma begrenzt, was auf eine Exhumierung während der laufenden Subduktion mit einer südlichen Verjüngung der Basalakkretion und des regionalen Metamorphismus hindeutet. Im Süden besteht der Akkretionskeil aus blauschiefer- und grünschieferfaziellen Metabasiten, Marmoren und vulkanogenen Metasedimenteinlagerungen. 40Ar/39Ar Phengit Datierung zeigt, dass dieser Teil des Keils aus dem Mittleren Jura stammt, der während des Albs teilweise überprägt wurde. Die Platznahe der Subduktions-/Akkretionskomplexe des Mittleren Jura ist möglicherweise mit einer schiefen Lage der Konvergenz im Alb verbunden. Peak metamorphe Mineralvergesellschaftungen und PT-Schätzungen der tiefliegenden ozeanischen metamorphen Sequenz deuten auf eine tektonische Stapelung im Akkretionskeil mit unterschiedlichen Grabentiefen hin. Die Kopplung und Exhumierung der einzelnen metamorphen Einheiten wird durch Dekompression des Keils gesteuert, möglicherweise entlang einer sich zurückziehenden Platte. Strukturell ist die Dekompression des Keils durch eine ausgedehnte Scherzone und die Glimmerschiefer der Basis mit syn-kinematischen Albitporphyroblasten erkennbar. Postkinematische Granate mit steigendem Grossulargehalt und pseudomorphe Mineralien innerhalb der Chloritoid-Glimmerschiefer unterstützen ein Dekompressionsmodell ohne zusätzliche Erwärmung. Die Verdickung der Subduktions-/Akkretionskomplexe wird zugeschrieben: i) einer signifikanten Menge an klastischer Sedimentzufuhr aus dem überschobenen kontinentalen Bereich und ii) tiefer basaler Unterschiebung durch Ausbreitung des Decollements entlang einer sich zurückziehenden Platte. Die Unterschiebung durch basale Decollementausbreitung und anschließende Exhumierung der tief liegenden Subduktions-Akkretionskomplexe wird durch Slab-Rollback gesteuert. Dadurch wird der notwendige Raum für eine progressive basale Akkretion entlang der Plattengrenze und der Verlängerung des überliegenden Keils für die Exhumierung der tektonisch verdickten metamorphen Sequenzen geschaffen. Dies könnte der wichtigste Mechanismus tektonischer Verdickung und anschließender Exhumierung von tief sitzenden HP/LT-Subduktions-Akkretionskomplexen sein. Im Süden liegt der Akkretionskeil des Alb-Turon strukturell über einer vulkanischen Bogensequenz aus niedriggradigen metavulkanischem Gestein und darüber liegender metasedimentärer Abfolge. Diese Metavulkanite, treten nördlich der İzmir-Ankara-Erzincan Sutur (İAES), welche Laurasia von der aus Gondwana stammenden Terranen trennt. Die metavulkanischen Gesteine bestehen hauptsächlich aus basaltischem Andesit/Andesit und Rhyolith mit mafischen Xenolithen sowie mit ihren pyroklastischen Äquivalenten, welche mit rekristallisiertem pelagischem Kalkstein und Hornstein durchsetzt sind. Die metavulkanischen Gesteine sind stratigraphisch überlagert von rekristallisiertem mikritischem Kalkstein mit seltenen vulkanischen metaklastischen Gesteinen. Zwei Gruppen können anhand von Spuren- und Seltenerden-gehalten identifiziert werden. Die erste Gruppe besteht aus basaltischem Andesit/Andesit (BA1) und Rhyolith mit zahlreichen gabbroiden Xenolithen. Sie ist durch eine relative Anreicherung von LREE gegenüber HREE gekennzeichnet. Die Gesteine sind mit fluidmobilen LILE angereichert und stark in Ti und P abgereichert, was die Fraktionierung von Fe-Ti-Oxiden und Apatit widerspiegelt, die in den mafischen Xenolithen zu finden sind. Reichlich gabbroide Xenolithe und identische Spuren- und Seltenerdelemente-Zusammensetzungen deuten darauf hin, dass Rhyolithe und basaltische Andesite/Andesite (BA1) kogenetisch sind und die felsischen Gesteine von einem gemeinsamen mafischen Magma durch fraktionierte Kristallisations- und Akkumulationsprozesse abgeleitet wurden. Die zweite Gruppe besteht nur aus basaltischen Andesiten (BA2) mit flachem REE-Muster, das an Inselbogen-Tholeiite erinnert. Obwohl angereichert mit LILE, ist diese Gruppe nicht Ti oder P verarmt. Die Geochemie der metavulkanischen Gesteine deutet auf Supra-Subduktionsvulkanismus hin, der durch den Abbau von HFSE und die Anreicherung von LILE belegt ist. Die Insel-Bogensequenz ist zwischen einem subduktions-akkretionären Komplex des Alb-Turon, der den laurassischen aktiven Kontinentalrandrand repräsentiert, und einer ophiolitischen Mélange eingeklemmt. Das Fehlen von kontinentalem Detritus in der Insel-Bogensequenz und seine tektonische Anordnung in einem breiten kreidezeitlichen Akkretionskomplex deuten darauf hin, dass der Kösdağ Arc intraozeanisch war. Dem entsprechen die basaltischen Andesiten (BA2) mit Inselbogen-Tholeiit-REE-Muster. Zirkon aus zwei Metarhyolithproben ergibt U/Pb-Alter der Spätkreide (93,8 ± 1,9 und 94,4 ± 1,9 Ma). Die niedriggradige regionale Metamorphose der intraozeanischen Bogensequenz ist durch 40Ar/39Ar Datierung von metamorphem Muskovit aus einem Metarhyolith auf 69,9 ± 0,4 Ma eingegrenzt, was darauf hindeutet, dass die Insel-Bogensequenz in der späten Kreide Teil des breiten Akkretionskomplexes der Tethys wurde. Das jüngste Phengitalter von 40Ar/39Ar aus den darüber liegenden Subduktions-Akkretionskomplexen ist 92 Ma, was die Verjüngung des akkretionären orogenen Gürtels gegen Süden bestätigt. Die Insel-Bogensequenz stellt somit einen intraozeanischen Paläobogen dar, der sich über der absinkenden Tethys-platte gebildet und schließlich an den aktiven laurassischen Kontinentalrand akkretiert hat. Der abrupte, nicht kollisionsbedingte Abbruch des Insel-Bogenvulkanismus war möglicherweise mit der südwärts Wanderung des Vulkanismus ähnlich dem Izu-Bonin-Mariana-Bogensystem verbunden. Der intraozeanische Kösdağ Bogen ist gleichaltrig zu den obduzierten Supra-Subduktionsophiolithen der Nordwesttürkei, was darauf hindeutet, dass er einen Teil des vermuteten, aber fehlenden beginnenden intraozeanischen Systems darstellt, das mit der Erzeugung der regionalen Supra-Subduktionsophiolithe verbunden ist. Überreste eines intraozeanischen Paläobogens und supra-subduzierter Ophiolithe der späten Kreide können innerhalb des orogenen Alpen-Himalaya-Gürtels nach Osten verfolgt werden. Dies zeigt, dass die intraozeanische Subduktion der Spätkreide als verbreitetes Ereignis über der absinkenden Platte der Tethys stattfand. Dieses führte zur Insel-Bogenakkretion am aktiven Kontinenntalrand Laurasirns und zur Supra-Subduktion Ophiolith-obduktion auf aus Gondwana stammenden Terranen. KW - Eurasian active margin KW - subduction-accretionary complexes KW - HP/LT metamorphism KW - Pontides KW - Eurasischer aktiver Kontinentalrand KW - subduktions-akkretions Komplexe KW - HP/LT-Metamorphose KW - Pontiden Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416769 ER - TY - THES A1 - Baier, Thomas T1 - Matching events and activities T1 - Zuordnung von Ereignissen zu Aktivitäten BT - preprocessing event logs for process analysis BT - Vorverarbeitung von Ereignislogs für die Prozessanalyse N2 - Nowadays, business processes are increasingly supported by IT services that produce massive amounts of event data during process execution. Aiming at a better process understanding and improvement, this event data can be used to analyze processes using process mining techniques. Process models can be automatically discovered and the execution can be checked for conformance to specified behavior. Moreover, existing process models can be enhanced and annotated with valuable information, for example for performance analysis. While the maturity of process mining algorithms is increasing and more tools are entering the market, process mining projects still face the problem of different levels of abstraction when comparing events with modeled business activities. Mapping the recorded events to activities of a given process model is essential for conformance checking, annotation and understanding of process discovery results. Current approaches try to abstract from events in an automated way that does not capture the required domain knowledge to fit business activities. Such techniques can be a good way to quickly reduce complexity in process discovery. Yet, they fail to enable techniques like conformance checking or model annotation, and potentially create misleading process discovery results by not using the known business terminology. In this thesis, we develop approaches that abstract an event log to the same level that is needed by the business. Typically, this abstraction level is defined by a given process model. Thus, the goal of this thesis is to match events from an event log to activities in a given process model. To accomplish this goal, behavioral and linguistic aspects of process models and event logs as well as domain knowledge captured in existing process documentation are taken into account to build semiautomatic matching approaches. The approaches establish a pre--processing for every available process mining technique that produces or annotates a process model, thereby reducing the manual effort for process analysts. While each of the presented approaches can be used in isolation, we also introduce a general framework for the integration of different matching approaches. The approaches have been evaluated in case studies with industry and using a large industry process model collection and simulated event logs. The evaluation demonstrates the effectiveness and efficiency of the approaches and their robustness towards nonconforming execution logs. N2 - Heutzutage werden Geschäftsprozesse verstärkt durch IT Services unterstützt, welche große Mengen an Ereignisdaten während der Prozessausführung generieren. Mit dem Ziel eines besseren Prozessverständnisses und einer möglichen Verbesserung können diese Daten mit Hilfe von Process–Mining–Techniken analysiert werden. Prozessmodelle können dabei automatisiert erstellt werden und die Prozessausführung kann auf ihre Übereinstimmung hin geprüft werden. Weiterhin können existierende Modelle durch wertvolle Informationen erweitert und verbessert werden, beispielsweise für eine Performanceanalyse. Während der Reifegrad der Algorithmen immer weiter ansteigt, stehen Process–Mining–Projekte immer noch vor dem Problem unterschiedlicher Abstraktionsebenen von Ereignisdaten und Prozessmodellaktivitäten. Das Mapping der aufgezeichneten Ereignisse zu den Aktivitäten eines gegebenen Prozessmodells ist ein essentieller Schritt für die Übereinstimmungsanalyse, Prozessmodellerweiterungen sowie auch für das Verständnis der Modelle aus einer automatisierten Prozesserkennung. Bereits existierende Ansätze abstrahieren Ereignisse auf automatisierte Art und Weise, welche die notwendigen Domänenkenntnisse für ein Mapping zu bestehenden Geschäftsprozessaktivitäten nicht berücksichtigt. Diese Techniken können hilfreich sein, um die Komplexität eines automatisiert erstellten Prozessmodells schnell zu verringern, sie eignen sich jedoch nicht für Übereinstimmungsprüfungen oder Modellerweiterungen. Zudem können solch automatisierte Verfahren zu irreführenden Ergebnissen führen, da sie nicht die bekannte Geschäftsterminologie verwenden. In dieser Dissertation entwickeln wir Ansätze, die ein Ereignislog auf die benötigte Abstraktionsebene bringen, welche typischerweise durch ein Prozessmodell gegeben ist. Daher ist das Ziel dieser Dissertation, die Ereignisse eines Ereignislogs den Aktivitäten eines Prozessmodells zuzuordnen. Um dieses Ziel zu erreichen, werden Verhaltens- und Sprachaspekte von Ereignislogs und Prozessmodellen sowie weitergehendes Domänenwissen einbezogen, um teilautomatisierte Zuordnungsansätze zu entwickeln. Die entwickelten Ansätze ermöglichen eine Vorverarbeitung von Ereignislogs, wodurch der notwendige manuelle Aufwand für den Einsatz von Process–Mining–Techniken verringert wird. Die vorgestellten Ansätze wurden mit Hilfe von Industrie-Case-Studies und simulierten Ereignislogs aus einer großen Prozessmodellkollektion evaluiert. Die Ergebnisse demonstrieren die Effektivität der Ansätze und ihre Robustheit gegenüber nicht-konformem Prozessverhalten. KW - process mining KW - conformance analysis KW - event abstraction KW - Process Mining KW - Übereinstimmungsanalyse KW - Ereignisabstraktion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84548 ER - TY - THES A1 - Bettenbühl, Mario T1 - Microsaccades T1 - Mikrosakkaden BT - Symbols in fixational eye movements BT - Symbole in den Fixationsbewegungen der Augen N2 - The first thing we do upon waking is open our eyes. Rotating them in our eye sockets, we scan our surroundings and collect the information into a picture in our head. Eye movements can be split into saccades and fixational eye movements, which occur when we attempt to fixate our gaze. The latter consists of microsaccades, drift and tremor. Before we even lift our eye lids, eye movements – such as saccades and microsaccades that let the eyes jump from one to another position – have partially been prepared in the brain stem. Saccades and microsaccades are often assumed to be generated by the same mechanisms. But how saccades and microsaccades can be classified according to shape has not yet been reported in a statistical manner. Research has put more effort into the investigations of microsaccades’ properties and generation only since the last decade. Consequently, we are only beginning to understand the dynamic processes governing microsaccadic eye movements. Within this thesis, the dynamics governing the generation of microsaccades is assessed and the development of a model for the underlying processes. Eye movement trajectories from different experiments are used, recorded with a video-based eye tracking technique, and a novel method is proposed for the scale-invariant detection of saccades (events of large amplitude) and microsaccades (events of small amplitude). Using a time-frequency approach, the method is examined with different experiments and validated against simulated data. A shape model is suggested that allows for a simple estimation of saccade- and microsaccade related properties. For sequences of microsaccades, in this thesis a time-dynamic Markov model is proposed, with a memory horizon that changes over time and which can best describe sequences of microsaccades. N2 - Beim Aufwachen jeden Morgen, ist es das erste, was wir tun: wir öffnen unsere Augen. Wir lassen die Augen rotieren und suchen unsere Umgebung ab. Gleichzeitig wird die gesammelte Information in unserem Gehirn zu einem Bild vereint. Augenbewegungen können getrennt werden in Sakkaden, welche sprunghafte Augenbewegungen darstellen, und Fixationsbewegungen der Augen, letztere bestehend aus Mikrosakkaden, Tremor und Drift. Bevor wir unsere Augen aufschlagen, wurden die Bewegungen bereits teilweise im Hirnstamm vorprogrammiert. So ist dieser Teil unseres Gehirns verantwortlich für die Auslösung einer Sakkade oder Mikrosakkade, worin man versuchen kann auch gleichzeitig einen Zusammenhang für die Generierung dieser Bewegung herzustellen. Es wird vermutet, dass Mikrosakkaden auch als kleinskaligere Sakkade verstanden werden können, welche auftreten, wenn wir versuchen unsere Augen still auf einen Punkt zu fixieren. Bisher gibt es keine statistische Untersuchung bezüglich einer Klassifizierung von Sakkaden und Mikrosakkaden aufgrund ihrer Form, d.h. ihrer räumlichen Entwicklung über die Zeit. Seit Beginn des neuen Milleniums verstärkte sich die Forschung wieder auf die Eigenschaften und Entstehung von Mikrosakkaden. Demnach stehen wir immer noch am Anfang diese Phänomene mit dynamischen Prozessen beschreiben zu können. Der Fokus dieser Arbeit konzentriert sich auf das Verstehen der generierenden Dynamik von Mikrosakkaden. Es wird ein Model für den unterliegenden Prozess entwickelt und getestet. Es wurden Aufzeichnungen von Augenbewegungen aus verschiedenen Experimenten genutzt, jeweils aufgenommen mit einem videobasiertem System. Es wird eine neue Methode zur amplitudenunabhängigen Detektion von Sakkaden eingeführt, um die Zeitpunkte des Auftretens von Mikrosakkaden und Sakkaden zu bestimmen. Dabei werden für Daten verschiedener Experimente Methoden der Zeit-Frequenz-Analyse genutzt und anschließend die Methode validiert mit simulierten Daten. Außerdem wird ein Modell vorgestellt für die formabhängigen Ausprägungen von Sakkaden und Mikrosakkaden, um die Schätzung ihrer beiden physikalisch relevanten Eigenschaften zu erleichtern. Zum Ende der Arbeit wird ein zeitdynamisches Modell für Sequenzen von Mikrosakkadensymbolen aufgezeigt. Mithilfe der Beschreibung der in Symbolsequenzen übersetzten Mikrosakkadensequenzen als Markovketten, wird diese Form der Augenbewegung durch einen stochastischen Prozess beschrieben. Hierbei bestehen zeitliche und räumliche Abhängigkeiten zwischen den aufeinanderfolgenden zeitdiskreten Symbolen und erlauben somit, ein Referenzmodell für einen Teil der Fixationsbewegungen der Augen zu haben. T3 - Potsdam Cognitive Science Series - 5 KW - Mikrosakkaden KW - Fixationsbewegungen der Augen KW - Sakkadendetektion KW - Mikrosakkadensequenzen KW - Waveletanalyse KW - microsaccades KW - fixational eye movements KW - saccade detection KW - sequences of microsaccades KW - wavelet analysis Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72622 SN - 978-3-86956-122-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bittermann, Klaus T1 - Semi-empirical sea-level modelling T1 - Semiempirische Meeresspiegelmodellierung N2 - Semi-empirical sea-level models (SEMs) exploit physically motivated empirical relationships between global sea level and certain drivers, in the following global mean temperature. This model class evolved as a supplement to process-based models (Rahmstorf (2007)) which were unable to fully represent all relevant processes. They thus failed to capture past sea-level change (Rahmstorf et al. (2012)) and were thought likely to underestimate future sea-level rise. Semi-empirical models were found to be a fast and useful tool for exploring the uncertainties in future sea-level rise, consistently giving significantly higher projections than process-based models. In the following different aspects of semi-empirical sea-level modelling have been studied. Models were first validated using various data sets of global sea level and temperature. SEMs were then used on the glacier contribution to sea level, and to infer past global temperature from sea-level data via inverse modelling. Periods studied encompass the instrumental period, covered by tide gauges (starting 1700 CE (Common Era) in Amsterdam) and satellites (first launched in 1992 CE), the era from 1000 BCE (before CE) to present, and the full length of the Holocene (using proxy data). Accordingly different data, model formulations and implementations have been used. It could be shown in Bittermann et al. (2013) that SEMs correctly predict 20th century sea-level when calibrated with data until 1900 CE. SEMs also turned out to give better predictions than the Intergovernmental Panel on Climate Change (IPCC) 4th assessment report (AR4, IPCC (2007)) models, for the period from 1961–2003 CE. With the first multi-proxy reconstruction of global sea-level as input, estimate of the human-induced component of modern sea-level change and projections of future sea-level rise were calculated (Kopp et al. (2016)). It turned out with 90% confidence that more than 40 % of the observed 20th century sea-level rise is indeed anthropogenic. With the new semi-empirical and IPCC (2013) 5th assessment report (AR5) projections the gap between SEM and process-based model projections closes, giving higher credibility to both. Combining all scenarios, from strong mitigation to business as usual, a global sea-level rise of 28–131 cm relative to 2000 CE, is projected with 90% confidence. The decision for a low carbon pathway could halve the expected global sea-level rise by 2100 CE. Present day temperature and thus sea level are driven by the globally acting greenhouse-gas forcing. Unlike that, the Milankovich forcing, acting on Holocene timescales, results mainly in a northern-hemisphere temperature change. Therefore a semi-empirical model can be driven with northernhemisphere temperatures, which makes it possible to model the main subcomponent of sea-level change over this period. It showed that an additional positive constant rate of the order of the estimated Antarctic sea-level contribution is then required to explain the sea-level evolution over the Holocene. Thus the global sea level, following the climatic optimum, can be interpreted as the sum of a temperature induced sea-level drop and a positive long-term contribution, likely an ongoing response to deglaciation coming from Antarctica. N2 - Semiempirische Meeresspiegelmodelle (SEMe) nutzen die physikalisch motivierte, empirische Beziehung des globalen Meeresspiegels zu einem bestimmten Antrieb. Im Folgenden ist das die mittlere globale Temperatur. Diese Modellklasse entstand als Ergänzung zu prozeßbasierten Modellen, die nicht alle relevanten Prozesse abbilden konnten (Rahmstorf (2007)) und die deshalb weder den beobachteten Meeresspiegel erklären konnten (Rahmstorf et al. (2012)) noch vertrauenswürdige Zukunftsprojektionen lieferten. Semiempirische Modelle sind eine gute und schnelle Option, die Unsicherheit im zukünftigen Meeresspiegelanstieg auszuloten, wobei sie konsistent höhere Zukunftsprojektionen lieferten als prozeßbasierte Modelle. Im Folgenden wurden verschiedene Aspekte der semiempirischen Meeresspiegelmodellierung untersucht. Modelle wurden erst mit verschiedenen globalen Temperatur- und Meeresspiegeldatensätzen validiert. SEMe wurden dann auf den Meeresspiegelbeitrag von Gletschern angewandt und genutzt, um die globale Temperatur aus Meeresspiegeldaten abzuleiten. Die untersuchten Zeiträume variieren zwischen dem instrumentellen Abschnitt mit Pegelstandsmessungen (seit dem Jahr 1700 in Amsterdam) und Satellitendaten (seit 1992), dem Zeitraum seit 1000 vor Christus und dem gesamten Holozän (mittels Proxydaten). Entsprechend wurden verschiedene Daten, Modellformulierungen und -implementationen benutzt. Es konnte in Bittermann et al. (2013) gezeigt werden, dass SEMe den beobachteten Meeresspiegel des 20sten Jahrhunderts korrekt vorhersagen können, wenn sie bis zum Jahr 1900 kalibriert wurden. Auch für den Zeitraum 1961 bis 2003 lieferten SEMe bessere Vorhersagen als der vierte Sachstandsbericht des Intergovernmental Panel on Climate Change (AR4, IPCC (2007)). Mit der ersten globalen multi-proxy Rekonstruktion des globalen Meeresspiegels als Input konnten sowohl der anthropogene Anteil des modernen Meeresspiegelanstiegs als auch Zukunftsprojektionen berechnet werden (Kopp et al. (2016)). Es zeigt sich mit 90% Sicherheit, dass mehr als 40 % des beobachteten Meeresspiegelanstiegs im 20sten Jahrhundert anthropogenen Ursprungs sind. Mit den neuen semiempirischen Zukunftsprojektionen und denen des fünften Sachstandsberichtes (AR5) des IPCC (2013) läßt sich die Kluft zwischen SEMen und prozeßbasierten Modellen schließen, was beide vertrauenswürdiger macht. Über alle Szenarien hinweg, von starker Treibhausgaseinsparung bis zum ungebremsten Ausstoß, ergibt sich, mit 90% Sicherheit, zwischen 2000 und 2100 ein Meeresspiegelanstieg von 28 bis 131 cm. Die Entscheidung starker Treibhausgaseinsparungen kann den erwarteten globalen Meeresspiegelanstieg im Jahr 2100 halbieren. Die gegenwärtige globale Temperatur, und damit der globale Meeresspiegel, werden von dem global wirkenden Treibhausgasforcing bestimmt. Im Gegensatz dazu wirkt das orbitale Forcing, welches über Holozän-Zeitskalen dominiert, hauptsächlich auf die Nordhemisphäre. Deshalb kann man ein SEM mit Nordhemisphärentemperaturen antreiben und dadurch die Hauptkomponente der Meeresspiegeländerung über das Holozän simulieren. Es stellte sich heraus, dass eine zusätzliche konstante Rate, von der Größenordnung des antarktischen Beitrags zum Meeresspiegel, nötig ist, um den Meeresspiegelverlauf des Holozäns zu erklären. Der Meeresspiegel seit dem Holozän-Klimaoptimum kann also als eine Summe von temperaturbedingtem Fallen und einem langfristigen positiven Beitrag, wahrscheinlich einer andauernden Reaktion auf die Deglaziation der Antarktis, interpretiert werden. KW - sea level KW - Meeresspiegel KW - climate change KW - Klimawandel KW - projections KW - Projektionen KW - anthropogenic sea level KW - anthropogener Meeresspiegel KW - Holocene KW - Holozän KW - semi-empirical models KW - semiempirische Modelle Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93881 ER - TY - THES A1 - Bojahr, Juliane T1 - Aktivierung des humanen Süßgeschmacksrezeptors im zellbasierten Testsystem T1 - Human sweet taste receptor activation in cell based assay N2 - Zellbasierte heterologe Expressionssysteme bieten ein einfaches und schnelles Verfahren, um neue Süßstoffe oder Süßverstärker zu finden. Unter Verwendung eines solchen Testsystems, konnte ich in Zusammenarbeit mit der Symrise AG, Holzminden und dem Institut für Pflanzenbiochemie in Halle/Saale die vietnamesische Pflanze Mycetia balansae als Quelle eines neuen Süßstoffs identifizieren. Deren Hauptkomponenten, genannt Balansine, aktivieren spezifisch den humanen Süßrezeptor. Chimäre Rezeptoren zeigten, dass die amino-terminalen Domänen der Süßrezeptoruntereinheiten, welche ein Großteil der Liganden des Süßrezeptors binden, für dessen Aktivierung durch Balansin A nicht notwendig sind. Voraussetzung für die Anwendung zellbasierter Testsysteme zum Auffinden neuer Süßstoffe ist jedoch, dass süße Substanzen gesichert identifiziert werden, während nicht süße Substanzen zuverlässig keine Rezeptoraktivierung aufweisen. Während in HEK293 TAS1R2 TAS1R3To Galpha15i3-Zellen Süßrezeptoraktivierung gegenüber nicht süß schmeckenden Substanzen beobachtet wurde, konnte mit den HEK293PEAKrapid Galpha15-Zellen ein zuverlässiges Testsystem identifiziert, welches den Süßgeschmack der untersuchten Substanzen widerspiegelte. Es fanden sich keine Hinweise, dass akzessorische Proteine oder verwandte Rezeptoren des Süßrezeptors das unterschiedliche Verhalten der Zellen verursachen. Es konnte gezeigt werden, dass die Verwendung unterschiedlicher G-Proteine die Signalamplituden des Süßrezeptors beeinflusst, die Unterschiede zwischen den Zellsystemen jedoch nicht vollständig erklärt. Keine der untersuchten Galpha-Proteinchimären spiegelte die intrinsische Süße der Substanzen wider. Wenn auch nicht ursächlich für die Diskrepanz zwischen Süßrezeptoraktivierung in vitro und Süßgeschmack in vivo, so weisen die Ergebnisse dieser Arbeit auf eine Interaktion der Süßrezeptoruntereinheiten mit dem humanen Calcium-sensing Rezeptor hin. Vanillin und Ethylvanillin konnten als neue Agonisten des Calcium-sensing Rezeptors identifiziert werden. Wie die vorliegende Arbeit zeigt, können sich kleine Unterschiede im Zellhintergrund deutlich auf die Funktionsweise heterolog exprimierter Rezeptoren auswirken. Dies zeigt wie wichtig die Wahl der Zellen für solche Screeningsysteme ist. N2 - Screening for new sweeteners or sweet taste modulators by the use of heterologous expression systems is an easy and fast way without time- and cost-intensive sensory studies. Using such cell based expression systems we could show that the main components of the so far undescribed Vietnamese plant Mycetia balansae activate specifically the human sweet taste receptor TAS1R2-TAS1R3. Analysis of chimeric receptors revealed that the TAS1R2-TAS1R3 amino-terminal domain is not involved in the sweet taste receptor activation by balansin A, one of the main components of Mycetia balansae. The usage of such heterologous expression systems strongly depends on their predictive value, e.g. neither false-positives nor false-negatives shall occur when screening for new sweeteners. However, HEK293 TAS1R2 TAS1R3To Galpha15i3 cells showed sweet taste receptor activation for substances that were not perceived as sweet by a sensory panel. The analysis of further cell based systems revealed the HEK293PEAKrapid Galpha15 cell line as a reliable test system that reflected the sweet taste of the analyzed test compounds. These cell systems differ in their heterologously expressed G protein. Nevertheless, this does not explain the different responses of the cell systems. Although the G protein influences their signal amplitudes, none of the analyzed G protein chimeras showed an activation pattern that reflected the sweet taste of the test compounds. No indication was found that accessory proteins or related receptors like the calcium sensing receptor or the GPRC6A are responsible for the different behavior of these cell systems. First hints for an interaction of the human calcium sensing receptor and the sweet taste receptor subunits were observed. Vanillin and Ethylvanillin were identified as new calcium sensing receptor agonists. It appears as small differences in cellular background can strongly influence on the function of heterologously expressed receptors. KW - Süßrezeptor KW - Süßgeschmack KW - Süßstoff KW - Rezeptorscreening KW - sweet taste KW - sweet taste receptor KW - sweetener KW - taste receptor screening KW - HEK293 Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93331 ER - TY - THES A1 - Bora, Sanjay Singh T1 - Regionally adaptable ground-motion Prediction Equations (GMPEs) for seismic hazard analysis T1 - Regional anpassungsfähige Bodenbewegungsmodelle (engl. ground motion prediction equations, GMPEs) für Erdbebengefährdungsabschätzungen N2 - Adjustment of empirically derived ground motion prediction equations (GMPEs), from a data- rich region/site where they have been derived to a data-poor region/site, is one of the major challenges associated with the current practice of seismic hazard analysis. Due to the fre- quent use in engineering design practices the GMPEs are often derived for response spectral ordinates (e.g., spectral acceleration) of a single degree of freedom (SDOF) oscillator. The functional forms of such GMPEs are based upon the concepts borrowed from the Fourier spectral representation of ground motion. This assumption regarding the validity of Fourier spectral concepts in the response spectral domain can lead to consequences which cannot be explained physically. In this thesis, firstly results from an investigation that explores the relationship between Fourier and response spectra, and implications of this relationship on the adjustment issues of GMPEs, are presented. The relationship between the Fourier and response spectra is explored by using random vibration theory (RVT), a framework that has been extensively used in earthquake engineering, for instance within the stochastic simulation framework and in the site response analysis. For a 5% damped SDOF oscillator the RVT perspective of response spectra reveals that no one-to-one correspondence exists between Fourier and response spectral ordinates except in a limited range (i.e., below the peak of the response spectra) of oscillator frequencies. The high oscillator frequency response spectral ordinates are dominated by the contributions from the Fourier spectral ordinates that correspond to the frequencies well below a selected oscillator frequency. The peak ground acceleration (PGA) is found to be related with the integral over the entire Fourier spectrum of ground motion which is in contrast to the popularly held perception that PGA is a high-frequency phenomenon of ground motion. This thesis presents a new perspective for developing a response spectral GMPE that takes the relationship between Fourier and response spectra into account. Essentially, this frame- work involves a two-step method for deriving a response spectral GMPE: in the first step two empirical models for the FAS and for a predetermined estimate of duration of ground motion are derived, in the next step, predictions from the two models are combined within the same RVT framework to obtain the response spectral ordinates. In addition to that, a stochastic model based scheme for extrapolating the individual acceleration spectra beyond the useable frequency limits is also presented. To that end, recorded acceleration traces were inverted to obtain the stochastic model parameters that allow making consistent extrapola- tion in individual (acceleration) Fourier spectra. Moreover an empirical model, for a dura- tion measure that is consistent within the RVT framework, is derived. As a next step, an oscillator-frequency-dependent empirical duration model is derived that allows obtaining the most reliable estimates of response spectral ordinates. The framework of deriving the response spectral GMPE presented herein becomes a self-adjusting model with the inclusion of stress parameter (∆σ) and kappa (κ0) as the predictor variables in the two empirical models. The entire analysis of developing the response spectral GMPE is performed on recently compiled RESORCE-2012 database that contains recordings made from Europe, the Mediterranean and the Middle East. The presented GMPE for response spectral ordinates should be considered valid in the magnitude range of 4 ≤ MW ≤ 7.6 at distances ≤ 200 km. N2 - Die Anpassung von empirisch gewonnenen Bodenbewegungsmodellen (engl. ground motion prediction equations, GMPEs) einer Region an andere Zielregionen bzw. -standorte, für die es nur eine schlechte oder ungenügende Datengrundlage gibt, ist eine der großen Herausforderungen in der seismischen Gefährdungsanalyse. Die abgeleiteten GMPEs werden oft zur Vorhersage von sogenannten Antwortspektren (AS) erstellt. Diese Zielgröße ist von besonderem Interesse für ingenieurtechnische Berechnungen zur erdbebensicheren Auslegung von Gebäuden. Die gewählten funktionalen Formen von GMPEs sind oft der physikalisch basierten Darstellung von seismischer Bodenbewegung als Fourier-Amplituden-Spektren (FAS) entlehnt. Die Annahme der Gültigkeit dieser Konzepte für die Modellierung von Antwortspektren kann jedoch zu Phänomenen führen, die physikalisch nicht erklärbar sind. Im ersten Teil der vorliegenden Doktorarbeit wird deshalb die Beziehung zwischen FAS und AS unter dem Aspekt möglicher Implikationen für die Anpassung von GMPEs an Zielstand-orte näher erforscht und die gefundenen Ergebnisse präsentiert. Die Beziehung zwischen FAS und AS wurde mit Hilfe der `random-vibration-theory' (RVT) untersucht. RVT ist ein Modellierungansatz, der extensiv im Erbebeningenieurwesen benutzt wird, wie zum Beispiel bei der Stochastischen Methode zur Simulation von Bodenbewegungen oder bei standortspezifischen Analysen zur Reaktion von Gebäuden auf seismische Bodenerschütterungen. Die RVT basierten Analysen für das Antwortverhalten eines 5 % gedämpften Einmassenschwingers auf Bodenunruhe zeigen, dass es keine eins zu eins Übertragbarkeit zwischen FAS und AS gibt, abgesehen von einem eingeschränkten Bereich von Eigenfrequenzen des Massenschwingers, deren Antwortspektralwerte unterhalb des charakteristischen Maximums des AS liegen. Für hohe Eigenfrequenzen werden die Werte des AS von Beiträgen des FAS dominiert, deren Frequenzbereich weit tiefer liegt als die betrachtete Eigenfrequenz im AS. Es konnte beobachtet werden, dass die maximale Bodenbeschleunigung (engl. Peak Ground Acceleration, PGA) mit dem Integral über das gesamte, die Bodenunruhe beschreibende FAS in Verbindung steht. Dies steht im Kontrast zur weit verbreiteten Auffassung, PGA sei ein Hochfrequenzphänomen. In dieser Doktorarbeit wird eine neue Perspektive für die Erstellung von GMPEs für die Vorhersage von Antwortspektren (AS-GMPEs) vorgestellt, die die Beziehung zwischen FAS und AS mit einbezieht. Dieser Ansatz beinhaltet eine Zweischrittmethode, um ein AS-GMPE zu erstellen: Im ersten Schritt werden zwei empirische Modelle abgeleitet, welche der Vorhersage des FAS und der Dauer der seismischen Bodenbewegung dienen; im zweiten Schritt werden diese Vorhersagen der beiden empirischen Modelle (FAS, Dauer der Bodenbewegung) unter Benutzung der RVT miteinander kombiniert, um Antwortspektralwerte abzuleiten. Darüber hinaus wird ein Verfahren vorgestellt, das es ermöglicht, erhobene FAS Daten (individuelle Beschleunigungsspektren) über den nutzbaren Frequenzbereich der Daten hinaus zu extrapolieren. Das Verfahren basiert auf der Stochasitischen Methode zur Simulation von Bodenbewegungen. Zu diesem Zweck wurden gemessene Zeitreihen von Erdbeben induzierter Bodenbeschleunigung invertiert, um die Modellparameter der Stochastischen Methode zu bestimmen, was eine konsistente Extrapolation des jeweiligen individuellen (Beschleunigungs-) FAS erlaubt. Ferner wurde ein empirisches Modell für ein Maß der Dauer von seismischer Bodenbewegung entwickelt, das konsistent innerhalb des Ansatzes der RVT ist. In einem nächsten Schritt wurde ein empirisches Modell für die Dauer von seismischer Bodenunruhe entwickelt, das von der Eigenfrequenz des Einmassenschwingers abhängig ist. Dies erlaubt eine möglichst zuverlässige Vorhersage von Antwortspektralwerten. Das hier präsentierte Verfahren zur Ableitung von AS-GMPEs ermöglicht eine einfache Anpassung des AS-GMPE an einen Zielstandort, da es den Stressparameter (∆σ) und den Parameter Kappa (κ0) als Prädiktoren in den beiden empirischen Modellen mit einschließt. Die gesamte Analyse und Ableitung des AS-GMPE basiert auf erhobenen Daten der RESORCE-2012 Datenbank, die Messungen aus Europa, dem Mittelmeerraum und dem Mittleren Osten enthält. Das präsentierte AS-GMPE ist für den Magnituenbereich 4 ≤ MW ≤ 7.6 und für Distanzen ≤ 200 km gültig. KW - seismic hazard KW - response spectra KW - Ground Motion Prediction Equation (GMPE) KW - Fourier spectra KW - duration KW - Erdbebengefährdungsabschätzungen KW - Bodenbewegungsmodelle KW - Antwortspektren KW - Fourier-Spektren KW - Dauer der Bodenbewegung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88806 ER - TY - THES A1 - Borschewski, Aljona T1 - Bedeutung der Interaktion von Calcineurin und SORLA für die Regulation des Na⁺,K⁺,2Cl⁻-Kotransporters (NKCC2) in der Niere T1 - Importance of the interaction between calcineurin and SORLA for the regulation of the renal Na⁺-K⁺-2Cl⁻−cotransporter (NKCC2) N2 - Der Na⁺-K⁺-2Cl⁻-Kotransporter (NKCC2) wird im distalen Nephron der Niere exprimiert. Seine Verteilung umfasst die Epithelien der medullären und kortikalen Teile der dicken aufsteigenden Henle-Schleife (Thick ascending limb, TAL) und die Macula densa. Resorptiver NaCl-Transport über den NKCC2 dient dem renalen Konzentrierungsmechanismus und reguliert systemisch auch Volumenstatus und Blutdruck. Die Aktivität des NKCC2 ist mit der Phosphorylierung seiner N-terminalen Aminosäurereste Serin 126 und Threonin 96/101 verbunden. Vermittelt wird diese durch die homologen Kinasen SPAK (SPS-related proline/alanine-rich kinase) und OSR1 (Oxidative stress responsive kinase 1), die hierzu ihrerseits phosphoryliert werden müssen. Der regulatorische Kontext dieser Kinasen ist mittlerweile gut charakterisiert. Über Mechanismen und Produkte, die den NKCC2 deaktivieren, war hingegen weniger bekannt. Ziel der Arbeit war daher zu untersuchen, welche Wege zur Deaktivierung des Transporters führen. Der intrazelluläre Sortierungsrezeptor SORLA (Sorting-protein-related receptor with A-type repeats) war zuvor in seiner Bedeutung für das Nephron charakterisiert worden. Ein SORLA-defizientes Mausmodell weist unter anderem eine stark verringerte NKCC2-Phosphorylierung auf. Unter osmotischem Stress können SORLA-defiziente Mäuse ihren Urin weniger effizient konzentrieren. Meine Resultate zeigen mit hochauflösender Technik, dass SORLA apikal im TAL lokalisiert ist und dass mit NKCC2 eine anteilige Kolokalisation besteht. Unter SORLA Defizienz war die für die NKCC2 Aktivität maßgebliche SPAK/OSR1-Phosphorylierung gegenüber dem Wildtyp nicht verändert. Jedoch war die ebenfalls im TAL exprimierte Phosphatase Calcineurin Aβ (CnAβ) per Western blot um das zweifache gesteigert. Parallel hierzu wurde immunhistochemisch die Kolokalisation von verstärktem CnAβ-Signal und NKCC2 bestätigt. Beide Befunde geben zusammen den Hinweis auf einen Bezug zwischen der reduzierten NKCC2-Phosphorylierung und der gesteigerten Präsenz von CnAβ bei SORLA Defizienz. Die parallel induzierte Überexpression von SORLA in HEK-Zellen zeigte entsprechend eine Halbierung der CnAβ Proteinmenge. SORLA steuert demzufolge sowohl die Abundanz als auch die zelluläre Verteilung der Phosphatase. Weiterhin ließ sich die Interaktion zwischen CnAβ und SORLA (intrazelluläre Domäne) mittels Co-Immunpräzipitation bzw. GST-pulldown assay nachweisen. Auch die Interaktion zwischen CnAβ und NKCC2 wurde auf diesem Weg belegt. Da allerdings weder SORLA noch NKCC2 ein spezifisches Bindungsmuster für CnAβ aufweisen, sind vermutlich intermediäre Adapterproteine bei ihrer Bindung involviert. Die pharmakologische Inhibition von CnAβ mittels Cyclosporin A (CsA; 1 h) führte bei SORLA Defizienz zur Normalisierung der NKCC2-Phosphorylierung. Entsprechend führte in vitro die Gabe von CsA bei TAL Zellen zu einer 7-fach gesteigerten NKCC2-Phosphorylierung. Zusammenfassend zeigen die Ergebnisse, dass die Phosphatase CnAβ über ihre Assoziation mit NKCC2 diesen im adluminalen Zellkompartiment deaktivieren kann. Gesteuert wird dieser Vorgang durch die Eigenschaft von SORLA, CnAβ apikal zu reduzieren und damit die adluminale Phosphorylierung und Aktivität von NKCC2 zu unterstützen. Da Calcineurin-Inhibitoren derzeit die Grundlage der immunsupprimierenden Therapie darstellen, haben die Ergebnisse eine klinische Relevanz. Angesichts der Co-Expression von SORLA und CnAβ in verschiedenen anderen Organen können die Ergebnisse auch über die Niere hinaus Bedeutung erlangen. N2 - The Na⁺-K⁺-2Cl⁻-cotransporter (NKCC2) of the thick ascending limb (TAL) is critical for renal salt handling. Activity of the cotransporter is facilitated by its phosphorylation at conserved N-terminal threonine and serine residues provided by homologous SPAK (SPS-related proline/alanine-rich kinase) and OSR1 (oxidative stress responsive kinase 1) kinases. The identification of factors which modulate the phosphorylation and hence, the activity of NKCC2 has received recent interest. SORLA (sorting-protein-related receptor with A-type repeats) is co-expressed with NKCC2 in TAL epithelium. Genetically engineered mice lacking SORLA show near-complete absence of NKCC2 phosphorylation at the SPAK/OSR1-dependent phosphoacceptors, indicating that SORLA acts as a mediator between these reaction partners, possibly by a cellular trafficking step involving additional molecules. The present study addresses molecular pathways modulating NKCC2 activity by phosphorylation or dephosphorylation reactions with a special focus on SORLA. Comparative evaluation of SORLA-deficient and wild-type mouse kidneys revealed similar levels of phosphorylated, catalytically active SPAK and OSR1 kinases, whereas abundance of the phosphatase calcineurin Aβ (CnAβ) was increased by approximately two-fold in the renal medulla of SORLA-deficient mice likely reflecting changes in TAL. In line with this, confocal microscopy revealed accumulation of CnAβ in the apical compartment of TAL in SORLA-deficient kidneys. In contrast, overexpression of SORLA in HEK cells resulted in approximately two-fold decreased CnAβ levels suggesting that SORLA modulates both the cellular abundance and distribution of the phosphatase. This data was further corroborated by co-immunoprecipitation and GST pull down assays which showed an interaction between the cytoplasmic tail of SORLA and CnAβ. Acute administration of the calcineurin inhibitor, cyclosporin A (CsA), for 1 h rapidly normalized NKCC2 phosphorylation in SORLA-deficient mice which demonstrates that the decrease in phospho-NKCC2 was functionally related with CnAβ. In sum, our data elucidate the role of calcineurin in the regulation of NKCC2 and establish SORLA as an endogenous regulator of the phosphatase. KW - Salztransport KW - Niere KW - Henlesche Schleife KW - Calcineurin KW - Phosphatase KW - SORLA KW - Calcineurin-Inhibitoren KW - Transporteraktivierung KW - Phosphorylierung KW - kidney KW - phosphorylation KW - thick ascending limb KW - epithelial salt transport KW - calcineurin inhibitors KW - cell signaling Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89205 ER - TY - THES A1 - Brachs, Maria T1 - Genome wide expression analysis and metabolic mechanisms predicting body weight maintenance T1 - Genomweite Expressions-Analyse und metabolische Mechanismen bestimmen den Körpergewichtserhalt N2 - Obesity is a major health problem for many developing and industrial countries. Increasing rates reach almost 50 % of the population in some countries and related metabolic diseases including cardiovascular events and T2DM are challenging the health systems. Adiposity, an increase in body fat mass, is a major hallmark of obesity. Adipose tissue is long known not only to store lipids but also to influence whole-body metabolism including food intake, energy expenditure and insulin sensitivity. Adipocytes can store lipids and thereby protect other tissue from lipotoxic damage. However, if the energy intake is higher than the energy expenditure over a sustained time period, adipose tissue will expand. This can lead to an impaired adipose tissue function resulting in higher levels of plasma lipids, which can affect other tissue like skeletal muscle, finally leading to metabolic complications. Several studies showed beneficial metabolic effects of weight reduction in obese subjects immediately after weight loss. However, weight regain is frequently observed along with potential negative effects on cardiovascular risk factors and a high intra-individual response. We performed a body weight maintenance study investigating the mechanisms of weight maintenance after intended WR. Therefore we used a low caloric diet followed by a 12-month life-style intervention. Comprehensive phenotyping including fat and muscle biopsies was conducted to investigate hormonal as well as metabolic influences on body weight regulation. In this study, we showed that weight reduction has numerous potentially beneficial effects on metabolic parameters. After 3-month WR subjects showed significant weight and fat mass reduction, lower TG levels as well as higher insulin sensitivity. Using RNA-Seq to analyse whole fat and muscle transcriptome a strong impact of weight reduction on adipose tissue gene expression was observed. Gene expression alterations over weight reduction included several cellular metabolic genes involved in lipid and glucose metabolism as well as insulin signalling and regulatory pathways. These changes were also associated with anthropometric parameters assigning body composition. Our data indicated that weight reduction leads to a decreased expression of several lipid catabolic as well as anabolic genes. Long-term body weight maintenance might be influenced by several parameters including hormones, metabolic intermediates as well as the transcriptional landscape of metabolic active tissues. Our data showed that genes involved in biosynthesis of unsaturated fatty acids might influence the BMI 18-month after a weight reduction phase. This was further supported by analysing metabolic parameters including RQ and FFA levels. We could show that subjects maintaining their lost body weight had a higher RQ and lower FFA levels, indicating increased metabolic flexibility in subjects. Using this transcriptomic approach we hypothesize that low expression levels of lipid synthetic genes in adipose tissue together with a higher mitochondrial activity in skeletal muscle tissue might be beneficial in terms of body weight maintenance. N2 - Die Adipositas hat sich in den letzten Jahren zu einem deutlichen Gesundheitsproblem in Industrie- und Entwicklungsländern entwickelt. So sind in einigen Länder bis zu 50 % der Bevölkerung übergewichtig und Begleiterkrankungen wie Herzkreislauferkrankungen und Typ 2 Diabetes belasten das Gesundheitssystem. Ein Anstieg der Körperfettmasse spielt bei der Adipositas eine große Rolle. Mittlerweile ist bekannt, dass Fettgewebe nicht nur Lipide speichert, sondern auch den Gesamtmetabolismus wie Nahrungsaufnahme, Energieumsatz und Insulinsensitivität beeinflusst. Lipide werden in Adipozyten gespeichert und verhindern so eine vermehrte Fetteinlagerung in andere Gewebe. Somit stellt das Fettgewebe ein wichtiges Organ dar, das andere periphere Gewebe vor dem toxischen Effekt erhöhter Lipidspiegel schütz. Ist über einen längeren Zeitraum die Energiezufuhr höher als der Energieverbrauch, kommt es zu einer Expansion des Fettgewebes. Dies kann im weiteren Verlauf zu einer Dysfunktion der Adipozyten und des Fettgewebes führen. Erhöhte Lipidspiegel können dann nicht mehr im Fettgewebe gespeichert werden und es kommt zu einer Anreicherung in der Peripherie. Vor allem das Muskelgewebe und die Leber sind hiervon betroffen, was zu weiteren metabolischen Komplikationen führt. Eine Gewichtsreduktion führt in adipösen Personen zu einer Verbesserung zahlreicher metabolischer Parameter. Diverse Studien zeigten jedoch, dass nur ein geringer Anteil dieser Personen in der Lage waren, das reduzierte Körpergewicht zu erhalten. Diese Wiederzunahme des Körpergewichts führt unter anderem zu einer Erhöhung des kardiovaskulären Risikos. Im Allgemeinen ist eine hohe Variabilität bei der Gewichtsreduktion und der Wiederzunahme zu beobachten. Diese Arbeit basiert auf Daten einer Studie, die Effekte einer Gewichtsreduktion auf den Gewichtserhalt untersucht. Nach einer 3-monatigen Gewichtsreduktion mittels einer niederkalorischen Diät wurden die Probanden in Kontroll- und Interventionsgruppe eingeteilt. Anthropometrische sowie metabolische Parameter inklusive Muskel- und Fettgewebsbiopsien wurden erfasst. In dieser Studie konnte gezeigt werden, dass eine Gewichtsreduktion verschiedenste positive Auswirkungen auf den Metabolismus der Teilnehmer hat. Die Probanden zeigten nach 3-monatiger Gewichtsreduktion eine signifikante Reduktion des Körpergewichts und der Fettmasse, erniedrigte Triglyzerid Spiegel und eine verbesserte Insulinsensitivität. Mittels RNA-Seq konnten wir zusätzlich zeigen, dass eine Gewichtsreduktion deutliche Auswirkungen auf das Transkriptom des Fettgewebes besitzt. Unter anderem wurden Genexpressionsveränderungen im Bereich zell-metabolischer Gene wie Lipid- und Glukosestoffwechsel als auch im Bereich des Insulinsignalweges und regulatorischer Gene ermittelt. Diese Expressionsveränderungen zeigten auch einen Zusammenhang mit dem BMI. Unsere Daten weisen darauf hin, dass eine Gewichtsreduktion zu einer Erniedrigung der Expression von Genen im Fettstoffwechsel führt. Ein langfristiger Gewichtserhalt wird durch zahlreiche Parameter wie Hormone, Stoffwechselintermediate und vermutlich auch den transkriptionellen Zustand im metabolisch aktiven Gewebe beeinflusst. Die hier gezeigten Daten deuten darauf hin, dass Gene beteiligt in der Biosynthese von ungesättigten Fettsäuren den BMI 18 Monate nach einer Gewichtsreduktion beeinflussen. Weitere Analysen in Bezug auf den RQ und die FFA Spiegel bestätigen diese Daten. Wir konnten zeigen, dass der Gewichtserhalt mit einem erhöhten RQ und niedrigen FFA Spiegel korrelierten. Dies könnte auf eine erhöhte metabolische Flexibilität in Personen mit Gewichtserhalt hinweisen. Aufgrund dieser Daten spekulieren wir, dass eine niedrige Expression von Lipidsynthese-Genen im Fettgewebe zusammen mit einer erhöhten mitochondrialen Aktivität im Skeletmuskel einen positiven Einfluss auf einen langfristigen Gewichtserhalt besitzt. KW - obesity KW - body weight loss KW - RNA Sequencing KW - body weight maintenance KW - Adipositas KW - Körpergewichtsverlust KW - RNA Sequenzierung KW - Körpergewichsterhalt Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100767 ER - TY - THES A1 - Brosinsky, Arlena T1 - Spectral fingerprinting T1 - Spektrales Fingerprinting BT - the potential of VNIR-SWIR spectral characteristics for tracing suspended sediment sources BT - das Potential spektraler Charakteristika im visuellen bis zum kurzwelligen Infrarotbereich zur Rückverfolgung von Sedimentquellgebieten N2 - Current research on runoff and erosion processes, as well as an increasing demand for sustainable watershed management emphasize the need for an improved understanding of sediment dynamics. This involves the accurate assessment of erosion rates and sediment transfer, yield and origin. A variety of methods exist to capture these processes at the catchment scale. Among these, sediment fingerprinting, a technique to trace back the origin of sediment, has attracted increasing attention by the scientific community in recent years. It is a two-step procedure, based on the fundamental assumptions that potential sources of sediment can be reliably discriminated based on a set of characteristic ‘fingerprint’ properties, and that a comparison of source and sediment fingerprints allows to quantify the relative contribution of each source. This thesis aims at further assessing the potential of spectroscopy to assist and improve the sediment fingerprinting technique. Specifically, this work focuses on (1) whether potential sediment sources can be reliably identified based on spectral features (‘fingerprints’), whether (2) these spectral fingerprints permit the quantification of relative source contribution, and whether (3) in situ derived source information is sufficient for this purpose. Furthermore, sediment fingerprinting using spectral information is applied in a study catchment to (4) identify major sources and observe how relative source contributions change between and within individual flood events. And finally, (5) spectral fingerprinting results are compared and combined with simultaneous sediment flux measurements to study sediment origin, transport and storage behaviour. For the sediment fingerprinting approach, soil samples were collected from potential sediment sources within the Isábena catchment, a meso-scale basin in the central Spanish Pyrenees. Undisturbed samples of the upper soil layer were measured in situ using an ASD spectroradiometer and subsequently sampled for measurements in the laboratory. Suspended sediment was sampled automatically by means of ISCO samplers at the catchment as well as at the five major subcatchment outlets during flood events, and stored fine sediment from the channel bed was collected from 14 cross-sections along the main river. Artificial mixtures of known contributions were produced from source soil samples. Then, all source, sediment and mixture samples were dried and spectrally measured in the laboratory. Subsequently, colour coefficients and physically based features with relation to organic carbon, iron oxide, clay content and carbonate, were calculated from all in situ and laboratory spectra. Spectral parameters passing a number of prerequisite tests were submitted to principal component analyses to study natural clustering of samples, discriminant function analyses to observe source differentiation accuracy, and a mixing model for source contribution assessment. In addition, annual as well as flood event based suspended sediment fluxes from the catchment and its subcatchments were calculated from rainfall, water discharge and suspended sediment concentration measurements using rating curves and Quantile Regression Forests. Results of sediment flux monitoring were interpreted individually with respect to storage behaviour, compared to fingerprinting source ascriptions and combined with fingerprinting to assess their joint explanatory potential. In response to the key questions of this work, (1) three source types (land use) and five spatial sources (subcatchments) could be reliably discriminated based on spectral fingerprints. The artificial mixture experiment revealed that while (2) laboratory parameters permitted source contribution assessment, (3) the use of in situ derived information was insufficient. Apparently, high discrimination accuracy does not necessarily imply good quantification results. When applied to suspended sediment samples of the catchment outlet, the spectral fingerprinting approach was able to (4) quantify the major sediment sources: badlands and the Villacarli subcatchment, respectively, were identified as main contributors, which is consistent with field observations and previous studies. Thereby, source contribution was found to vary both, within and between individual flood events. Also sediment flux was found to vary considerably, annually as well as seasonally and on flood event base. Storage was confirmed to play an important role in the sediment dynamics of the studied catchment, whereas floods with lower total sediment yield tend to deposit and floods with higher yield rather remove material from the channel bed. Finally, a comparison of flux measurements with fingerprinting results highlighted the fact that (5) immediate transport from sources to the catchment outlet cannot be assumed. A combination of the two methods revealed different aspects of sediment dynamics that none of the techniques could have uncovered individually. In summary, spectral properties provide a fast, non-destructive, and cost-efficient means to discriminate and quantify sediment sources, whereas, unfortunately, straight-forward in situ collected source information is insufficient for the approach. Mixture modelling using artificial mixtures permits valuable insights into the capabilities and limitations of the method and similar experiments are strongly recommended to be performed in the future. Furthermore, a combination of techniques such as e.g. (spectral) sediment fingerprinting and sediment flux monitoring can provide comprehensive understanding of sediment dynamics. N2 - Aktuelle Forschung zu Abfluss- und Erosionsprozessen und die steigende Nachfrage nach nachhaltiger Wasserbewirtschaftung unterstreichen die Notwendigkeit für ein verbessertes Verständnis von Sedimentdynamik. Dazu gehören die genaue Bewertung von Erosionsraten sowie die Abschätzung von Sedimenttransfer, -ertrag und -herkunft. Es existiert eine Vielzahl von Verfahren, um diese Prozesse auf Einzugsgebietsskala zu erfassen. Unter diesen hat das Sediment-Fingerprinting, eine Technik zur Bestimmung der Sedimentherkunft, in den letzten Jahren zunehmend die Aufmerksamkeit der wissenschaftlichen Gemeinschaft auf sich gezogen. Es ist ein zweiteiliges Verfahren auf Grundlage der Annahmen, dass mögliche Sedimentquellen unter Verwendung charakteristischer "Fingerabdrücke" zuverlässig unterschieden und dass ein Vergleich der Quell- und Sedimentfingerabdrücke es ermöglicht, den relativen Beitrag jeder Quelle zu quantifizieren. Die vorliegende Arbeit untersucht die Möglichkeit, Spektroskopie zur Unterstützung und Verbesserung der Sediment-Fingerprinting Technik einzusetzen. Der Schwerpunkt liegt dabei auf den Fragen, ob (1) potenzielle Sedimentquellen basierend auf spektralen Merkmalen ("Fingerabdrücken") zuverlässig unterschieden werden können, ob (2) diese spektralen Fingerabdrücke die relative Quantifizierung von Quellbeiträgen erlauben und ob (3) in situ gemessene Quellinformationen für diesen Zweck ausreichend sind. Darüber hinaus wird spektrales Sediment-Fingerprinting in einem Untersuchungsgebiet angewandt, um (4) die wichtigsten Quellen zu identifizieren und um zu beobachten, wie sich relative Beiträge zwischen und innerhalb einzelner Hochwasserereignisse verändern. Außerdem werden (5) spektrale Sediment-Fingerprinting Ergebnisse mit gleichzeitig erhobenen Abfluss- und Sedimentflussdaten verglichen und kombiniert um Sedimentherkunft, -transport und -ablagerung zu untersuchen. Für den Sediment-Fingerprinting Ansatz wurden Bodenproben potenzieller Sedimentquellen im Isábenabecken, einem mesoskaligen Einzugsgebiet in den zentralen spanischen Pyrenäen, gesammelt. Ungestörte Proben der Bodenoberfläche wurden in situ unter Verwendung eines ASD Spektroradiometers gemessen und anschließend für Labormessungen beprobt. Sedimentpartikel (Schwebfracht) wurden während Hochwasserereignissen automatisch mit Hilfe von ISCO Samplern am Gebietsauslass sowie an den fünf wichtigsten Teileinzugsbietsauslässen beprobt. Zusätzlich wurde im Flussbett abgelagertes Feinsediment an 14 Querschnitten entlang des Hauptflusses gesammelt. Aus den Bodenproben wurden zusätzlich künstliche Mischungen bekannter Zusammensetzung hergestellt. Alle Boden-, Sediment- und Gemischproben wurden getrocknet und im Labor spektral gemessen. Anschließend wurden aus allen Spektren (in situ und Labor) Farbkoeffizienten und physikalisch basierte features mit Bezug zu organischem Kohlenstoff, Eisenoxid, Tongehalt und Carbonat berechnet. Die spektralen Parameter wurden auf eine Reihe von Voraussetzungen getested. Auf Grundlage von Parametern, die die vorgegebenen Voraussetungen erfüllten, wurden die Proben anschließend mittels Hauptkomponenten-analyse auf natürliche Gruppierung getested. Die Differenzierungsgenauigkeit einzelner Parameter bzw. von Parameterkombinationen wurde mittels Diskriminanzfunktionsanalyse beurteilt und zur Quantifizierung der Beiträge verschiedener Quellen wurde ein Mischungs-modell entwickelt. Darüber hinaus wurden mittels Eichkurven und Quantile Regression Forests aus Niederschlags-, Abfluss- und Sedimentkonzentrationsmessungen jährliche sowie hochwasserbasierte Sedimentflüsse aus dem Einzugsgebiet und seinen Teileinzugsgebieten berechnet. Ergebnisse des Sedimentfluss Monitorings wurden einzeln in Bezug auf Speicherverhalten interpretiert, mit Quellquantifizierungen aus dem Sediment-Fingerprinting verglichen und mit dem Fingerprinting kombiniert, um das gemeinsame Erklärungspotential der beiden Methoden zu bewerten. Als Antwort auf die Schlüsselfragen dieser Arbeit konnten (1) drei Quelltypen (Landnutzung) bzw. fünf räumliche Quellen (Teileinzugsgebiete) basierend auf spektralen Fingerabdrücken zuverlässig unterschieden werden. Das Experiment mit den künstlichen Mischungen ergab, dass während (2) Laborparameter die Beitragsabschätzung erlauben, (3) die Verwendung von in situ abgeleiteten Informationen nicht ausreicht. Offenbar bedeutet eine hohe Diskriminierungsgenauigkeit nicht unbedingt gute Quantifizierungs-ergebnisse. Auf Sedimentproben des Gebietsauslasses angewandt war der spektrale Sediment-Fingerprinting Ansatz in der Lage, (4) die Hauptsedimentquellen zu quantifizieren: Badlands und das Villacarli Teileinzugsgebiet wurden jeweils als Hauptquellen identifiziert. Dies ist im Einklang mit Beobachtungen früherer Studien. Dabei wurde festgestellt, dass Quellbeiträge sowohl innerhalb als auch zwischen den einzelnen Hochwasserereignissen variieren. Außerdem wurden starke Schwankungen der Sedimentflüsse, auf jährlicher sowie saisonaler- und Hochwasserereignis-Basis gefunden. Die wichtige Rolle des Flusses als Speicher in der Sedimentdynamik des untersuchten Einzugsgebietes wurde bestätigt, wobei Hochwasser mit niedrigerer Gesamtsedimentausbeute in der Regel Material ablagern und Hochwasser mit höherer Ausbeute eher Material aus dem Flussbett entfernen. Schließlich zeigte ein Vergleich der Sedimentflussmessungen mit Sediment-Fingerprinting Ergebnissen, dass (5) nicht von unmittelbarem Materialtransport von den Quellen zum Gebietsauslass ausgegangen werden kann. Die Kombination der zwei Verfahren offenbarte verschiedene Aspekte der Sedimentdynamik, die keine der beiden Techniken einzeln hätte aufdecken können. Zusammenfassend lässt sich festhalten, dass spektrale Messungen ein schnelles, zerstörungsfreies und kosteneffizientes Mittel zur Unterscheidung und Quantifizierung von Sedimentquellen bieten, wobei in situ gesammelte Quellinformationen leider nicht ausreichend für die Vorgehensweise sind. Experimente mit künstlichen Mischungen ermöglichten wertvolle Einblicke in die Möglichkeiten und Grenzen der Methode und ähnliche Versuche werden dringend für zukünftige Studien empfohlen. Eine Kombination von Techniken, wie z. B. (spektralem) Sediment-Fingerprinting und Sedimentfluss Monitoring können das Verständnis der Sedimentdynamik verbessern und vertiefen. KW - spectroscopy KW - sediment fingerprinting KW - artificial mixtures KW - Isábena catchment KW - suspended sediment KW - Spektroskopie KW - Sediment Fingerprinting KW - Isábena Einzugsgebiet Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-83369 ER - TY - THES A1 - Busch, Jan Philip T1 - Investigations on mobility of carbon colloid supported nanoscale zero-valent iron (nZVI) for groundwater remediation T1 - Untersuchungen zur Mobilität künstlicher Kohlenstoff-Eisen-Komposite zum Einsatz in der Altlastensanierung N2 - Injection of nanoscale zero-valent iron (nZVI) is an innovative technology for in situ installation of a permeable reactive barrier in the subsurface. Zerovalent iron (ZVI) is highly reactive with chlorinated hydrocarbons (CHCs) and renders them into less harmful substances. Application of nZVI instead of granular ZVI can increase rates of dechlorination of CHCs by orders of magnitude, due to its higher surface area. This approach is still difficult to apply due to fast agglomeration and sedimentation of colloidal suspensions of nZVI, which leads to very short transport distances. To overcome this issue of limited mobility, polyanionic stabilisers are added to increase surface charge and stability of suspensions. In field experiments maximum transport distances of a few metres were achieved. A new approach, which is investigated in this thesis, is enhanced mobility of nZVI by a more mobile carrier colloid. The investigated composite material consists of activated carbon, which is loaded with nZVI. In this cumulative thesis, transport characteristics of carbon-colloid supported nZVI (c-nZVI) are investigated. Investigations started with column experiments in 40 cm columns filled with various porous media to investigate on physicochemical influences on transport characteristics. The experimental setup was enlarged to a transport experiment in a 1.2-m-sized two-dimensional aquifer tank experiment, which was filled with granular porous media. Further, a field experiment was performed in a natural aquifer system with a targeted transport distance of 5.3 m. Parallel to these investigations, alternative methods for transport observations were investigated by using noninvasive tomographic methods. Experiments using synchrotron radiation and magnetic resonance (MRI) were performed to investigate in situ transport characteristics in a non-destructive way. Results from column experiments show potentially high mobility under environmental relevant conditions. Addition of mono-and bivalent salts, e.g. more than 0.5 mM/L CaCl2, might decrease mobility. Changes in pH to values below 6 can inhibit mobility at all. Measurements of colloid size show changes in the mean particle size by a factor of ten. Measurements of zeta potential revealed an increase of –62 mV to –82 mV. Results from the 2D-aquifer test system suggest strong particle deposition in the first centimetres and only weak straining in the further travel path and no gravitational influence on particle transport. Straining at the beginning of the travel path in the porous medium was observed with tomographic investigations of transport. MRI experiments revealed similar results to the previous experiments, and observations using synchrotron radiation suggest straining of colloids at pore throats. The potential for high transport distances, which was suggested from laboratory experiments, was confirmed in the field experiment, where the transport distance of 5.3 m was reached by at least 10% of injected nZVI. Altogether, transport distances of the investigated carbon-colloid supported nZVI are higher than published results of traditional nZVI. N2 - Die Injektion nanoskaligen nullwertigen Eisens ist eine innovative Technik zur In-situ-Sanierung chlororganisch belasteter Standorte. Hierbei wird das nullwertige Eisen in den Untergrund injiziert und soll dort eine permeable reaktive Barriere aufbauen, in der chlororganische Schadstoffe zu weniger schädlichen Substanzen abgebaut werden sollen. Die Einbringung nanoskaliger Kolloide birgt gegenüber klassischen eisengefüllten permeablen reaktiven Barrieren den Vorteil einer durch die wesentlich größere Oberfläche vielfach schnelleren Reaktion und dadurch einer möglicherweise kürzeren Sanierungszeit. Noch ist die praktische Anwendung dieses Ansatzes durch schnelle Agglomeration und Sedimentation der Nanokolloide begrenzt. Durch Hinzufügen von polyanionischen Zusatzstoffen, welche die Oberflächenladung erhöhen und damit die Agglomeration und Sedimentation der Partikel verlangsamen, konnten bereits Transportreichweiten von wenigen Metern beobachtet werden. Ein weiterer Ansatz ist das Aufbringen von Nanoeisen auf ein mobiles Trägerkolloid. In dieser kumulativen Dissertation werden die Transporteigenschaften von kohlenstoffkolloidunterstütztem Nanoeisen untersucht. Die Untersuchungen beginnen mit Versuchen in Laborsäulen, die mit verschiedenen porösen Medien gefüllt wurden. Hier wurde der Einfluss verschiedener physikochemischer Parameter (u.a. Salinität und pH-Wert) auf das Transportverhalten untersucht. Anschließend wurde der Versuchsaufbau auf einen 1,2 m langen 2D-Laboraquifer, der ebenfalls mit einem porösen Medium gefüllt wurde, vergrößert. Außerdem wurde ein Feldversuch in einem natürlichen Aquifer ein gerichtetes Fließfeld eingerichtet und darin der Transport über eine Distanz von 5,3 m untersucht. Parallel dazu wurde das Transportverhalten mit nichtinvasiven Methoden, hier Magnetresonanztomographie (MRT) und Synchrotronstrahlung, in laborskaliger Größe untersucht. Die Ergebnisse der Säulenversuche deuten auf eine hohe Anwendbarkeit unter umweltrelevanten Bedingungen hin. Ein sehr niedriger pH-Wert oder eine hohe Salinität (z. B. mehr als 5 mM/L CaCl2) können die Anwendbarkeit jedoch einschränken. Zusätzlich wurde eine Änderung der durchschnittlichen Kolloidgröße um den Faktor einer Größenordnung und eine Änderung des Zetapotentials von –62 auf –80 mV beobachtet. Die Ergebnisse des Transportexperiments im 2D-Laboraquifer deuten auf eine Deposition der Kolloide auf den ersten Zentimetern der Fließstrecke hin, aber geringe Deposition im weiteren Verlauf des Transports. Dabei konnte kein direkter Einfluss der Gravitation festgestellt werden. Die Ergebnisse konnten mithilfe von MRT-Untersuchungen bestätigt werden. Die Beobachtung mittels Synchrotrontomographie deutet auf eine Deposition an Porenhälsen hin. Die vielversprechenden Ergebnisse der Laboruntersuchungen konnten in dem Feldversuch bestätigt werden, da hier mehr als 10% der zugegebenen nZVI eine Stecke von 5,3 m oder mehr im Aquifer passiert haben. In der Gesamtbetrachtung scheint der Einsatz dieses kolloidunterstützten nanoskaligem nullwertigen Eisens den gängigen Methoden der Eiseninjektion im Hinblick auf die erzielbare Transportreichweite überlegen zu sein. KW - nanoscale zero-valent iron (nZVI) KW - Carbo-Iron® KW - colloid transport KW - in-situ remediation KW - Nanoeisen KW - Carbo-Iron KW - Kolloidtransport KW - Sanierung KW - Altlasten Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76873 ER - TY - THES A1 - Buß, Claudia T1 - Instrumente der Bürgerbeteiligung in Städten T1 - Instruments of civic participation in cities BT - ein Vergleich zwischen Deutschland und Frankreich BT - a comparison between France and Germany N2 - Die vergleichende Arbeit beschäftigt sich mit der Bürgerbeteiligung in Städten in Deutschland und Frankreich. In den letzten 20 Jahren haben sich die Formen lokaler Demokratie immer wieder verändert und sich den örtlichen Gegebenheiten angepasst. Das Interesse der Bürger, Verwaltung und politisch gewählten Vertreter an Partizipation wächst stetig . Das heißt aber auch, dass sich diese 3 Akteure den neuen Strukturen anpassen und eigene Strategien entwickeln müssen. Die demokratischen Formen der kooperativen bzw. partizipativen Demokratie werden immer häufiger angewandt. Diese Arbeit evaluiert die verschiedenen Bürgerbeteiligungsinstrumente in Frankreich und Deutschland in dem zwischen Input, Output und Outcome unterschieden wird. Insbesondere die Bürgerhaushalte, Beiräte und Quartiersräte werden genauer betrachtet. Die Ergebnisse zeigen erste Hinweise in welche demokratische Richtung sich die deutschen Städte künftig entwickeln. N2 - This thesis work compares civic participation in French and German urban communities. Over the last 20 years, democracy in these communities has taken different forms, continually adapting to local conditions. Citizens, administration, and elected politicians gain interest in participation. However, this requires the three players to adapt to the new structures and develop independent strategies. Participatory and cooperative democracy become more common. This thesis evaluates different instruments of civic participation in France and Germany by distinguishing between Input, Output, and Outcome. In particular, I focus on participatory budgets, advisory boards and participatory neighborhood councils/'District Committee's. The results provide insights into the future development of democracy in German cities. KW - Bürgerbeteiligung KW - Stadt KW - Reformen KW - Bürgerhaushalt KW - Quartiersrat KW - Demokratie KW - Beirat KW - Frankreich KW - Kräftedreieck KW - civic participation KW - France KW - Germany KW - participatory budget KW - local affairs KW - modernization KW - administration Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88888 ER - TY - THES A1 - Bärstecher, Felix Emanuel T1 - Was machen Schulleiter tatsächlich und welche Faktoren beeinflussen diese ausgeführten Tätigkeiten? T1 - What do school principals really do and which factors do influence these tasks? N2 - Während die theoretische Arbeitsbeschreibung und das Rollenbild von Schulleitern vielfach in der Forschung aufgegriffen wurde, gibt es – wie übrigens im gesamten Bereich Public Management – nur wenige empirische Untersuchungen, die aus einer betriebswirtschaftlichen Managementbetrachtung heraus untersuchen, was Schulleiter wirklich machen, d.h. welchen Tätigkeiten und Aufgaben die genannten Personen nachgehen und welche Unterschiede sich feststellen lassen. Besondere Relevanz erhält die Thematik durch das sich wandelnde Aufgabenbild des Schulleiters, getrieben insbesondere durch die zusätzliche Autonomie der Einzelschule, aber auch durch die Fokussierung auf die Performance und Wirksamkeit der Einzelschule und verbunden damit, die Abhängigkeit dieser von der Arbeit des Schulleiters. Hier bildet das Verständnis der Aufgaben und Tätigkeiten eine wichtige Grundlage, die jedoch unzureichend erforscht ist. Mit Hilfe einer explorativen Beobachtung von 15 Schulleiterinnen und Schulleitern und damit einer empirischen Untersuchung von insgesamt 7591 Arbeitsminuten und 774 Aktivitäten in Kombination mit ausführlichen qualitativen, halboffenen Interviews wird durch diese Arbeit eine detaillierte Betrachtung des tatsächlichen Schulleitungsmanagementhandelns möglich. So wird sichtbar, dass sich die Aufgaben und Tätigkeiten der Schulleiter in zentralen Bereichen unterscheiden und eine Typologisierung entlang von Rollenbeschreibungen und Leadership Behavior zu kurz greift. Es konnte zum ersten Mal in dieser Ausführlichkeit innerhalb des deutschen Schulsystems gezeigt werden, dass Schulleiter Kommunikationsmanager sind. Darüber hinaus entwickelt das hier dokumentierte Forschungsvorhaben Hypothesen zu den Faktoren, die einen Einfluss auf die Aufgaben und Tätigkeiten haben und beschreibt dezidiert Implikationen, die diese Erkenntnisse auf die Tätigkeit des Schulleiters, die weitere Forschung aber auch die politische Rahmengestaltung und, damit verbunden, die Weiterentwicklung des Schulsystems haben. N2 - Whereas the theoretical job description and the role of school principals has been taken up quite often in scholarly research, there are only a few studies that focus on the tasks of principals from a managerial perspective and examine the differences among principals. This lack of research is quite common in the world of public management research. Special relevance and importance should be attributed to the topic as the role and the bundle of tasks of a principal are changing especially caused by the growing autonomy endowed on schools. Another reason is the focus on school effectiveness and the principal`s influence on this effectiveness. Here is where the understanding of the tasks of a principal lays the basic foundation for any further reserach. However, this foundation has not been studied adequately yet. Using the technique of explorative observation (or shadowing) 15 principals were observed and therefore the empirically obtained data base of 7591 work minutes and 774 activities in combination with half-structured, qualitative interviews allows this paper a detailed examination of the real tasks and activities of school management. It becomes obvious that the tasks and activities of principals differ in pivotal areas. Therefore a typology based on mere role descriptions or leadership behavior segmentation cannot be sufficient. This paper is first to elaborately demonstrate for the German school system that principals are in fact communication managers. This result contrasts with some of the hitherto generated research results and existing hypotheses. Moreover, the research project described in this paper develops hypotheses explaining the effect of certain factors on the tasks of principals and describes in detail implications of these insights for school management, further research as well as for the political agenda and the development of the school system itself. KW - Public Management KW - Schulleitung KW - Schulleiter KW - Tätigkeiten KW - Schulleiterwirksamkeit KW - public management KW - school management KW - principal KW - headmaster KW - tasks KW - school effectiveness Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80109 ER - TY - THES A1 - Bösche, Nina Kristine T1 - Detection of rare earth elements and rare earth oxides with hyperspectral spectroscopy T1 - Die Erkennung von Seltenerdelementen und Seltenerdoxiden mittels hyperspektraler Spektroskopie BT - near-field and spaceborne investigations in preparation of the EnMAP mission BT - Nahfeld und satellitengestützte Bildanalyse in Vorbereitung der EnMAP Mission N2 - The continuously increasing demand for rare earth elements in technical components of modern technologies, brings the detection of new deposits closer into the focus of global exploration. One promising method to globally map important deposits might be remote sensing, since it has been used for a wide range of mineral mapping in the past. This doctoral thesis investigates the capacity of hyperspectral remote sensing for the detection of rare earth element deposits. The definition and the realization of a fundamental database on the spectral characteristics of rare earth oxides, rare earth metals and rare earth element bearing materials formed the basis of this thesis. To investigate these characteristics in the field, hyperspectral images of four outcrops in Fen Complex, Norway, were collected in the near-field. A new methodology (named REEMAP) was developed to delineate rare earth element enriched zones. The main steps of REEMAP are: 1) multitemporal weighted averaging of multiple images covering the sample area; 2) sharpening the rare earth related signals using a Gaussian high pass deconvolution technique that is calibrated on the standard deviation of a Gaussian-bell shaped curve that represents by the full width of half maxima of the target absorption band; 3) mathematical modeling of the target absorption band and highlighting of rare earth elements. REEMAP was further adapted to different hyperspectral sensors (EO-1 Hyperion and EnMAP) and a new test site (Lofdal, Namibia). Additionally, the hyperspectral signatures of associated minerals were investigated to serve as proxy for the host rocks. Finally, the capacity and limitations of spectroscopic rare earth element detection approaches in general and of the REEMAP approach specifically were investigated and discussed. One result of this doctoral thesis is that eight rare earth oxides show robust absorption bands and, therefore, can be used for hyperspectral detection methods. Additionally, the spectral signatures of iron oxides, iron-bearing sulfates, calcite and kaolinite can be used to detect metasomatic alteration zones and highlight the ore zone. One of the key results of this doctoral work is the developed REEMAP approach, which can be applied from near-field to space. The REEMAP approach enables rare earth element mapping especially for noisy images. Limiting factors are a low signal to noise ratio, a reduced spectral resolution, overlaying materials, atmospheric absorption residuals and non-optimal illumination conditions. Another key result of this doctoral thesis is the finding that the future hyperspectral EnMAP satellite (with its currently published specifications, June 2015) will be theoretically capable to detect absorption bands of erbium, dysprosium, holmium, neodymium and europium, thulium and samarium. This thesis presents a new methodology REEMAP that enables a spatially wide and rapid hyperspectral detection of rare earth elements in order to meet the demand for fast, extensive and efficient rare earth exploration (from near-field to space). N2 - Die weltweit steigende Nachfrage nach seltenen Erden für technische Komponenten in modernen Technologien, rückt die Erkundung neuer Lagerstätten näher in den Fokus der globalen Exploration. Die Erkundung und Beschreibung neuer Lagerstätten mittels hyperspektraler Fernerkundung findet basierend auf Mineralkartierung bereits eine breite Anwendung. Diese Doktorarbeit befasst sich mit der Machbarkeit hyperspektraler Fernerkundung zur Detektion von Seltenerdelement-Vorkommen. Um dieser Fragestellung nachzukommen, wird eine grundlegende Datenbank der spektralen Eigenschaften von Seltenerdoxiden, Seltenerdmetallen und Seltenerdelement-haltigen Materialien hergestellt. Diese Eigenschaften wurden an vier Aufschlüssen des Fen Complexes in Norwegen hyperspektral analysiert. Auf dieser Grundlage wurde eine neue Methodik (REEMAP) entwickelt, die Seltenerdelement angereicherte Zonen im Aufschluss auffindet und kartiert. Die wichtigsten Schritte dieser Methode sind wie folgt: 1) multi-temporal gewichtete Mittelung mehrerer hyperspektraler Bilder des gleichen Ausschnittes; 2) Verstärkung des charakteristischen spektralen Merkmals unter Verwendung eines Hochpassfilterverfahrens, das auf der Standardabweichung einer Gaußkurve basiert die der gesuchten Absorptionsbande entspricht; 3) die mathematische Modellierung der gesuchten Absorptionsbande und thematische Klassifikation der Bildpixel. REEMAP wurde auf verschiedene Sensoren (EO-1 Hyperion und EnMAP) und ein neues Testgebiet (Lofdal, Namibia) re-kalibriert. Weiterhin wurde untersucht, inwiefern hyperspektrale Methoden zum Detektieren von Proxymineralen verwendet werden können. Die Limitationen der Seltenerd-Detektion mittels Spektroskopie im Allgemeinen und der Detektion unter Anwendung von REEMAP wurden erforscht und diskutiert. Ein Ergebnis dieser Arbeit ist, dass acht Seltenerdoxid Spektren eindeutig detektierbare Absorptionsbanden zeigen, die für eine Seltenerddetektion verwendet werden können. Zusätzlich können die spektralen Merkmale von Eisenoxiden, eisenhaltigen Sulfaten, Kalzit und Kaolinit verwendet werden, um metasomatische Alterationszonen und die Erzgänge zu erkennen. Eines der wichtigsten Ergebnisse dieser Doktorarbeit ist die Entwicklung der REEMAP Methode. Vor allem für verrauschte hyperspektrale Bilder zeigten die Ergebnisse unter der Verwendung von REEMAP eine höhere Detektionswahrscheinlichkeit. Neben dem Signal-zu-Rausch-Verhältnis des Bildes, sind die davon abhängige spektrale Auflösung, überdeckende Materialien, atmosphärische Effekte und Aufnahmen unter suboptimalen Lichtverhältnissen als weitere wichtige Limitation der Seltenerd-Detektion zu nennen. Ein weiteres wichtiges Ergebnis dieser Doktorarbeit ist, dass der zukünftige EnMAP Satellit (mit seinem aktuell veröffentlichten Spezifikationen, Juni 2015) theoretisch in der Lage sein wird die Absorptionsbanden von Erbium, Dysprosium, Holmium, Neodym, Europium, Thulium und Samarium zu detektieren. Meine Dissertation stellt eine neue fernerkundliche Methode (REEMAP) vor, die zur weiträumigen und schnellen hyperspektralen Detektion von seltenen Erden verwendet werden kann und somit hilfreich bei der Exploration seltener Erden sein kann. KW - remote sensing KW - rare earth elements KW - hyperspectral KW - EnMAP satellite KW - Fernerkundung KW - Seltenerdelemente KW - seltene Erden KW - Hyperspektral KW - EnMAP Satellit Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85363 ER - TY - THES A1 - Böttle, Markus T1 - Coastal floods in view of sea level rise T1 - Küstenfluten im Hinblick auf steigende Meeresspiegel BT - assessing damage costs and adaptation measures BT - Abschätzung von Schadenskosten und Anpassungsmaßnahmen N2 - The sea level rise induced intensification of coastal floods is a serious threat to many regions in proximity to the ocean. Although severe flood events are rare they can entail enormous damage costs, especially when built-up areas are inundated. Fortunately, the mean sea level advances slowly and there is enough time for society to adapt to the changing environment. Most commonly, this is achieved by the construction or reinforcement of flood defence measures such as dykes or sea walls but also land use and disaster management are widely discussed options. Overall, albeit the projection of sea level rise impacts and the elaboration of adequate response strategies is amongst the most prominent topics in climate impact research, global damage estimates are vague and mostly rely on the same assessment models. The thesis at hand contributes to this issue by presenting a distinctive approach which facilitates large scale assessments as well as the comparability of results across regions. Moreover, we aim to improve the general understanding of the interplay between mean sea level rise, adaptation, and coastal flood damage. Our undertaking is based on two basic building blocks. Firstly, we make use of macroscopic flood-damage functions, i.e. damage functions that provide the total monetary damage within a delineated region (e.g. a city) caused by a flood of certain magnitude. After introducing a systematic methodology for the automatised derivation of such functions, we apply it to a total of 140 European cities and obtain a large set of damage curves utilisable for individual as well as comparative damage assessments. By scrutinising the resulting curves, we are further able to characterise the slope of the damage functions by means of a functional model. The proposed function has in general a sigmoidal shape but exhibits a power law increase for the relevant range of flood levels and we detect an average exponent of 3.4 for the considered cities. This finding represents an essential input for subsequent elaborations on the general interrelations of involved quantities. The second basic element of this work is extreme value theory which is employed to characterise the occurrence of flood events and in conjunction with a damage function provides the probability distribution of the annual damage in the area under study. The resulting approach is highly flexible as it assumes non-stationarity in all relevant parameters and can be easily applied to arbitrary regions, sea level, and adaptation scenarios. For instance, we find a doubling of expected flood damage in the city of Copenhagen for a rise in mean sea levels of only 11 cm. By following more general considerations, we succeed in deducing surprisingly simple functional expressions to describe the damage behaviour in a given region for varying mean sea levels, changing storm intensities, and supposed protection levels. We are thus able to project future flood damage by means of a reduced set of parameters, namely the aforementioned damage function exponent and the extreme value parameters. Similar examinations are carried out to quantify the aleatory uncertainty involved in these projections. In this regard, a decrease of (relative) uncertainty with rising mean sea levels is detected. Beyond that, we demonstrate how potential adaptation measures can be assessed in terms of a Cost-Benefit Analysis. This is exemplified by the Danish case study of Kalundborg, where amortisation times for a planned investment are estimated for several sea level scenarios and discount rates. N2 - Viele Regionen in Küstennähe sehen sich durch den Anstieg des mittleren Meeresspiegels einer erhöhten Hochwassergefahr ausgesetzt und die zunehmende Intensität extremer Flutereignisse stellt eine ernstzunehmende Bedrohung dar. Vor allem bei der Überschwemmung bebauter Gebiete können die resultierenden Schäden ein gewaltiges Ausmaß erreichen. Glücklicherweise steigt der mittlere Meeresspiegel langsam und es bleibt ausreichend Zeit sich an die verändernden Umweltbedingungen anzupassen. Dies geschieht üblicherweise durch den Bau oder die Verstärkung von Hochwasserschutzmaßnahmen wie z. B. Deichen oder Ufermauern aber auch angepasste Raumplanung und Katastrophenschutz sind vieldiskutierte Lösungsansätze. Obwohl die Folgenabschätzung des Meeresspiegelanstieges und die Entwicklung von entsprechenden Antwortstrategien zu den bedeutendsten Themen der Klimafolgenforschung gehören, bleiben globale Schadensschätzungen vage und stützen größtenteils auf den gleichen, wenigen Bewertungsmodellen. Diesem Umstand wollen wir mit der vorliegenden Arbeit Rechnung tragen und präsentieren einen eigenen Ansatz, der sowohl großskalige Abschätzungen als auch überregionale Vergleichbarkeit ermöglicht. Darüber hinaus leisten wir einen Beitrag zum allgemeinen Verständnis des Zusammenspiels zwischen dem mittleren Meeresspiegel, Anpassungsmaßnahmen und Flutschäden. Unser Vorhaben basiert auf zwei Grundbausteinen. Zum einen sind das makroskopische Flutschadensfunktionen, d. h. Schadensfunktionen zur Bestimmung des gesamten monetären Schadens in einem vorgegebenen Gebiet (z. B. einer Stadt) der durch eine Flut gewissen Ausmaßes verursacht wird. Dazu stellen wir einen systematischen Ansatz zur automatisierten Ermittlung solcher Kurven vor und bestimmen damit die Schadensfunktionen für 140 europäische Städte. Diese können sowohl für individuelle Schadensabschätzungen als auch für vergleichende, überregionale Studien herangezogen werden. Darüber hinaus ermöglicht die große Anzahl an Kurven eine grundlegende Charakterisierung des Anstieges der Schadensfunktion mit Hilfe eines funktionalen Modells. Das vorgeschlagene Modell ist im Allgemeinen s-förmig, weist jedoch für die relevanten Fluthöhen einen potenzgesetzartigen Anstieg auf und wir erhalten für die untersuchten Städte einen durchschnittlichen Exponenten von 3,4. Zur späteren Beschreibung der allgemeinen Zusammenhänge aller beteiligten Größen ist dieses Ergebnis von entscheidender Bedeutung. Der zweite grundlegende Baustein dieser Arbeit ist die Extremwerttheorie mittels derer wir das Auftreten von Flutereignissen schätzen und die in Verbindung mit einer Schadensfunktion die Wahrscheinlichkeitsverteilung der auftretenden Schäden im untersuchten Gebiet liefert. Da alle relevanten Parameter als variabel angenommen werden, bietet der beschriebene Ansatz größtmögliche Flexibilität und lässt sich auf beliebige Regionen anwenden. In Kopenhagen, beispielsweise, stellen wir bei einem Anstieg des mittleren Meeresspiegels von lediglich 11 cm bereits eine Verdopplung des jährlichen, zu erwarteten Schadens fest. Des Weiteren gelingt es uns, allgemeingültige funktionale Beziehungen zwischen den erwarteten Flutschäden und dem mittleren Meeresspiegel, sich verändernden Sturmbedingungen, sowie vorhandenen Schutzhöhen abzuleiten. Damit sind wir in der Lage, zukünftige Flutschäden auf Grundlage nur weniger Parameter zu schätzen: dem bereits erwähnten Exponenten der Schadensfuntion sowie den Extremwertparametern. Ähnliche Untersuchungen stellen wir zur Quantifizierung der aleatorischen Unsicherheit dieser Schätzungen an, wobei wir unter anderem einen Rückgang der Unsicherheit mit steigendem Meeresspiegel feststellen. Schlussendlich zeigen wir wie potenzielle Anpassungsmaßnahmen mit Hilfe einer Kosten-Nutzen-Analyse bewertet werden können. Dies wird anhand der dänischen Fallstudie Kalundborg veranschaulicht, für die wir die Amortisierungszeiten einer geplanten Investition für verschiedene Meeresspiegelszenarien und Diskontierungsraten untersuchen. KW - sea-level rise KW - flood damage KW - coastal flooding KW - Küstenfluten KW - Extremereignisse KW - Flutschäden KW - Meeresspiegelanstieg KW - Klimaanpassung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91074 ER - TY - THES A1 - Cattania, Camilla T1 - Improvement of aftershock models based on Coulomb stress changes and rate-and-state dependent friction T1 - Verbesserte Nachbebenmodelle durch Berücksichtigung von Coulombspannungsänderungen und Rate-State abhängiger Reibung N2 - Earthquake clustering has proven the most useful tool to forecast changes in seismicity rates in the short and medium term (hours to months), and efforts are currently being made to extend the scope of such models to operational earthquake forecasting. The overarching goal of the research presented in this thesis is to improve physics-based earthquake forecasts, with a focus on aftershock sequences. Physical models of triggered seismicity are based on the redistribution of stresses in the crust, coupled with the rate-and-state constitutive law proposed by Dieterich to calculate changes in seismicity rate. This type of models are known as Coulomb- rate and-state (CRS) models. In spite of the success of the Coulomb hypothesis, CRS models typically performed poorly in comparison to statistical ones, and they have been underepresented in the operational forecasting context. In this thesis, I address some of these issues, and in particular these questions: (1) How can we realistically model the uncertainties and heterogeneity of the mainshock stress field? (2) What is the effect of time dependent stresses in the postseismic phase on seismicity? I focus on two case studies from different tectonic settings: the Mw 9.0 Tohoku megathrust and the Mw 6.0 Parkfield strike slip earthquake. I study aleatoric uncertainties using a Monte Carlo method. I find that the existence of multiple receiver faults is the most important source of intrinsic stress heterogeneity, and CRS models perform better when this variability is taken into account. Epistemic uncertainties inherited from the slip models also have a significant impact on the forecast, and I find that an ensemble model based on several slip distributions outperforms most individual models. I address the role of postseismic stresses due to aseismic slip on the mainshock fault (afterslip) and to the redistribution of stresses by previous aftershocks (secondary triggering). I find that modeling secondary triggering improves model performance. The effect of afterslip is less clear, and difficult to assess for near-fault aftershocks due to the large uncertainties of the afterslip models. Off-fault events, on the other hand, are less sensitive to the details of the slip distribution: I find that following the Tohoku earthquake, afterslip promotes seismicity in the Fukushima region. To evaluate the performance of the improved CRS models in a pseudo-operational context, I submitted them for independent testing to a collaborative experiment carried out by CSEP for the 2010-2012 Canterbury sequence. Preliminary results indicate that physical models generally perform well compared to statistical ones, suggesting that CRS models may have a role to play in the future of operational forecasting. To facilitate efforts in this direction, and to enable future studies of earthquake triggering by time dependent processes, I have made the code open source. In the final part of this thesis I summarize the capabilities of the program and outline technical aspects regarding performance and parallelization strategies. N2 - Die örtliche und zeitlich Häufung von Erdbeben ist geeignet, um Änderungen in Seismizitätsraten auf kurzen bis mittleren Zeitskalen (Stunden bis Monate) zu prognostizieren. Kürzlich wurden vermehrt Anstrengungen unternommen, den Umfang solcher Modelle auf Operationelle Erdbebenvorhersage auszudehnen, welche die Veröffentlichung von Erdbebenwahrscheinlichkeiten beinhaltet mit dem Ziel, die Bevölkerung besser auf mögliche Erdbeben vorzubereiten. Das vorrangige Ziel dieser Dissertation ist die Verbesserung von kurz- und mittelfristiger Erdbebenprognose basierend auf physikalischen Modellen. Ich konzentriere mich hier auf Nachbebensequenzen. Physikalische Modelle, die getriggerte Seimizität erklären, basieren auf der Umverteilung von Spannungen in der Erdkruste. Berechnung der Coulomb Spannung können kombiniert werden mit dem konstituivem Gesetz von Dieterich, welches die Berechnung von Änderungen in der Seismizitätsrate ermöglicht. Diese Modelle sind als Coulomb-Rate-and-State (CRS) Modelle bekannt. Trotz der erfolgreichen Überprüfung der Coulomb-Hypothese, schneiden CRS-Modelle im Vergleich mit statistischen Modellen schlecht ab, und wurden deshalb bisher kaum im Kontext operationeller Erdbenbenvorhersage genutzt. In dieser Arbeit, gehe ich auf einige der auftretenden Probleme ein. Im Besonderen wende ich mich den folgenden Fragen zu: (1) Wie können wir die Unsicherheiten und die Heterogenität des Spannungsfeldes infolge des Hauptbebens realistisch modellieren? (2)Welche Auswirkungen haben zeitlich variable Spannungsänderungen in der postseismischen Phase? Ich konzentriere mich hierbei auf zwei Beispiele in unterschiedlichen tektonischen Regionen: die Aufschiebung des Mw9.0 Tohoku Erdbeben und die Blattverschiebung des Mw6.0 Parkfield Erdbeben. Ich untersuche aleotorische Unsicherheiten der Coulomb-Spannung durch Variabilität in der Orientierung der betroffenen Bruchflächen und durch Spannungsgradienten innerhalb von Modellzellen. Ich zeige, dass die Existenz der unterschiedlichen Bruchflächen die bedeutenste Quelle für intrinsiche Spannungheterogenität ist und das CRS-Modelle deutlich besser abschneiden, wenn diese Variabilität berücksichtigt wird. Die epistemischen Unsicherheiten aufgrund von unterschiedlichen Ergebnissen von Inversionen von Daten für die Verschiebung entlang der Bruchfläche haben ebenso erhebliche Auswirkungen auf die Vorhersage. Ich gehe dann auf die Rolle von postseismischen Spannung ein, insbesondere auf zwei Prozesse: aseismische Verschiebung entlang der Störungsfläche des Hauptbebens (Afterslip) und die Veränderung von Spannungen durch vorhergehende Nachbeben (sekundäres Triggern). Ich demonstriere, dass das Modellieren von sekundärem Triggern die Modellvorhersage in beiden Fallbeispielen verbessert. Die Einbeziehung von Afterslip verbessert die Qualität der Vorhersage nur für die Nachbebensequenz des Parkfield Erdbebens. Dagegen kann ich nachweisen, dass Afterslip infolge des Tohoku Bebens eine höhere Seismizität auf Abschiebungsflächen im Hangenden begünstigt. Die dargestellten Verbesserungen des CRS-Modells sind sehr vielversprechend im Kontext operationeller Erdbebenvorhersage, verlangen aber nach weiterer Überprüfung. Ich stelle die vorläufigen Ergebnisse eines gemeinschaftlichen Tests für die Erdbebenfolge von Canterbury 2010-2012 vor, welcher von CSEP durchgeführt wurde. Die physikalischen Modelle schneiden hier im Vergleich mit statistischen Modellen gut ab. Daher scheint eine Anwendung von CSR-Modellen, die Unsicherheiten und sekundäres Triggering berücksichtigen, in zukünftigen operationellen Erdbebenvorhersagen empfehlenswert. Um die Bemühungen in dieser Richtung zu unterstützen und weitere Studien zum Triggern von Erdbeben durch zeitabhängige Prozesse zu ermöglichen, habe ich meinen Open Source Code öffentlich zugänglich gemacht. Im letzen Teil dieser Arbeit fasse ich die Leistungsfähigkeit des Programms zusammen und skizziere die technischen Aspekte bezüglich der Effiziens und der Parallelisierung des Programmes. KW - earthquake forecasting KW - earthquake interaction KW - Coulomb stress KW - rate-state friction KW - Erdbebenvorhersage KW - Coulombspannung KW - Erdbebenwechselwirkung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87097 ER - TY - THES A1 - Conforti, Giovanni T1 - Reciprocal classes of continuous time Markov Chains T1 - Reziproke Klassen zeitkontinuierlicher Markov-Ketten N2 - In this thesis we study reciprocal classes of Markov chains. Given a continuous time Markov chain on a countable state space, acting as reference dynamics, the associated reciprocal class is the set of all probability measures on path space that can be written as a mixture of its bridges. These processes possess a conditional independence property that generalizes the Markov property, and evolved from an idea of Schrödinger, who wanted to obtain a probabilistic interpretation of quantum mechanics. Associated to a reciprocal class is a set of reciprocal characteristics, which are space-time functions that determine the reciprocal class. We compute explicitly these characteristics, and divide them into two main families: arc characteristics and cycle characteristics. As a byproduct, we obtain an explicit criterion to check when two different Markov chains share their bridges. Starting from the characteristics we offer two different descriptions of the reciprocal class, including its non-Markov probabilities. The first one is based on a pathwise approach and the second one on short time asymptotic. With the first approach one produces a family of functional equations whose only solutions are precisely the elements of the reciprocal class. These equations are integration by parts on path space associated with derivative operators which perturb the paths by mean of the addition of random loops. Several geometrical tools are employed to construct such formulas. The problem of obtaining sharp characterizations is also considered, showing some interesting connections with discrete geometry. Examples of such formulas are given in the framework of counting processes and random walks on Abelian groups, where the set of loops has a group structure. In addition to this global description, we propose a second approach by looking at the short time behavior of a reciprocal process. In the same way as the Markov property and short time expansions of transition probabilities characterize Markov chains, we show that a reciprocal class is characterized by imposing the reciprocal property and two families of short time expansions for the bridges. Such local approach is suitable to study reciprocal processes on general countable graphs. As application of our characterization, we considered several interesting graphs, such as lattices, planar graphs, the complete graph, and the hypercube. Finally, we obtain some first results about concentration of measure implied by lower bounds on the reciprocal characteristics. N2 - Diese Dissertation behandelt die reziproke zufällige Prozesse mit Sprüngen. Gegeben eine zeitkontinuierliche Markovkette als Referenzdynamik, ist die assoziierte reziproke Klasse die Menge aller Wahrscheinlichkeiten auf dem Pfadraum, die als eine Mischung ihrer Brücken geschrieben werden kann. Reziproke Prozesse zeichnen sich durch eine Form der bedingten Unabhängigkeit aus, die die Markoveigenschaft verallgemeinert. Ursprünglich ist diese Idee auf Schrödinger zurückzuführen, der nach einer probabilistischen Interpretation für die Quantenmechanik suchte. Einer reziproken Klasse wird eine Familie reziproker Charakteristiken assoziiert. Dies sind Raum-Zeit Abbildungen, die die reziproke Klasse eindeutig definieren. Wir berechnen diese Charakteristiken explizit und unterteilen sie in zwei Typen: Bogen-Charakteristiken und Kreis-Charakteristiken. Zusätzlich erhalten wir ein klares Kriterium zur Prüfung wann die Brücken von zwei verschiedenen Markovketten übereinstimmen. Wir beschreiben auf zwei verschiedene Arten reziproken Klasse und berücksichtigen auch ihre nicht-Markov Elemente. Die erste Charakterisierung basiert auf einem pfadweisen Ansatz, während die zweite kurzzeit Asymptotik benutzt. Der erste Ansatz liefert eine Familie funktionaler Gleichungen deren einzige Lösungen die Elemente der reziproken Klasse sind. Die Gleichungen können als partielle Integration auf dem Pfadraum mit einem Ableitungsoperator, der eine St¨orung der Pfade durch zusätzliche zufällige Kreise hervorruft, interpretiert werden. Die Konstruktion dieser Gleichungen benötigt eine geometrische Analyse des Problems. Wir behandeln außerdem die Fragestellung einer scharfen Charakterisierung und zeigen interessante Verbindungen zur diskreten Geometrie. Beispiele, für die wir eine solche Formel finden konnten, sind für Zählprozesse und für Irrfahrte auf abelschen Gruppen, in denen die Menge der Kreise eine Gruppenstruktur erweist. Zusätzlich zu diesem globalen Zugang, erforschen wir eine lokale Beschreibung durch die Analyse des kurzfristigen Verhaltens eines reziproken Prozesses. Analog zur Markoveigenschaft und kurzzeit Entwicklung ihrer Übergangswahrscheinlichkeit Markovketten charakterisieren, zeigen wir, dass eine reziproke Klasse charakterisiert werden kann indem wir ihre reziproke Eigenschaft und zwei Familien von Kurzzeit Entwicklungen der Brücken voraussetzen. Solche lokalen Ansatz ist geeignet, um Sprungprozesse auf allgemeine zählbaren Graphen zu studieren. Als Beispiele unserer Charakterisierung, betrachten wir Gitter, planare Graphen, komplette Graphen und die Hyperwürfel. Zusätzlich präsentieren wir erste Ergebnisse über Maßenkonzentration eines reziproken Prozesses, als Konsequenz unterer Schranken seiner Charakteristiken. N2 - In questa tesi si studiano le classi reciproche delle catene di Markov. Data una catena di Markov a tempo continuo su uno spazio numerabile, che svolge il ruolo di dinamica di riferimento, la sua classe reciproca é costituita da tutte le leggi sullo spazio dei cammini che si possono scrivere come un miscuglio dei ponti della legge di riferimento. Questi processi stocastici godono di una propriet`a di independenza condizionale che generalizza la proprietá di Markov ed é ispirata ad un’idea avuta da Schrödinger nel tentativo di derivare un’interpretazione stocastica della meccanica quantistica. A ciascuna classe reciproca é associato un insieme di caratteristiche reciproche. Una caratteristica reciproca é una proprietá della dinamica di riferimento che viene trasmessa a tutti gli elementi della classe, e viene espressa matematicamente da un opportuna combinazione di funzionali del generatore della catena di riferimento. Nella tesi, le caratteristiche vengono calcolate esplicitamente e suddivise in due famiglie principali: le caratteristiche di arco e le caratteristice di ciclo. Come sottoprodotto, otteniamo un criterio esplicito per decidere quando due catene di Markov hanno gli stessi ponti. A partire dalle caratteristiche reciproche, vengono proposte due caratterizzazioni della classe reciproca, compresi i suoi elementi non Markoviani. La prima é basata su un approccio traiettoriale, mentre la seconda si basa sul comportamento asintotico locale dei processi reciproci. Utilizzando il primo approccio, si ottiene una famiglia di equazioni funzionali che ammette come soluzioni tutti e soli gli elementi della classe reciproca. Queste equazioni sono integrazioni per parti sullo spazio dei cammini associate ad operatori differenziali che perturbano le traiettorie del processo canonico con l’aggiunta di loops casuali. Nella costruzione di queste equazioni si impiegano tecniche di geometria discreta, stabilendo un interessante collegamento con risultati recenti in questo campo. Le caratterizzazioni ottenute sono ottimali, in quanto impiegano un numero minimo di equazioni per descrivere la classe. Con questo metodo vengono studiate le classi reciproche di processi di conteggio, di camminate aleatorie su gruppi Abeliani, dove l’insieme dei cicli gode anch’esso di una struttura di gruppo. Il secondo approccio, di natura locale, si basa su stime asintotiche in tempo corto. É ben noto come una catena di Markov sia caratterizzata dal fatto di possedere la propriet`a di Markov e dal comportamento in tempo corto delle probabilitá di transizione. In questa tesi mostriamo che una classe reciproca é caratterizzata dalla propriet`a reciproca, e da due famiglie di stime asintotiche per i ponti del processo. Questo approccio locale permette di analizzare le classi reciproche di passeggiate aleatorie su grafi generali. Come applicazione dei risultati teorici, consideriamo i lattici, i grafi planari, il grafo completo, e l’ipercubo discreto. Infine, otteniamo delle stime di concentrazione della misura e sul comportamento globale dei ponti, sotto l’ipotesi di un limite inferiore per le caratteristiche reciproche. KW - reciprocal characteristics KW - random walks on graphs KW - reziproke Invarianten KW - reziproke Klassen KW - Schrödinger Problem KW - partielle Integration auf dem Pfadraum KW - Irrfahrten auf Graphen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82255 ER - TY - THES A1 - Dörge, Christina T1 - Informatische Schlüsselkompetenzen T1 - Key competencies in informatics BT - Konzepte der Informationstechnologie im Sinne einer informatischen Allgemeinbildung BT - concepts of general education in information technology N2 - Seit den 60er Jahren gibt es im deutschsprachigen Raum Diskussionen um die Begriffe Schlüsselqualifikation und (Schlüssel-)Kompetenz, welche seit ca. 2000 auch in der Informatikdidaktik angekommen sind. Die Diskussionen der Fachdisziplinen und ihre Bedeutung für die Informatikdidaktik sind Gegenstand des ersten Teils dieser Dissertation. Es werden Rahmenmodelle zur Strukturierung und Einordnung von Kompetenzen entworfen, die für alle Fachdisziplinen nutzbar sind. Im zweiten Teil wird ein methodologischer Weg gezeigt, Schlüsselkompetenzen herzuleiten, ohne normativ vorgehen zu müssen. Hierzu wird das Verfahren der Qualitativen Inhaltsanalyse (QI) auf informatikdidaktische Ansätze angewendet. Die resultierenden Kompetenzen werden in weiteren Schritten verfeinert und in die zuvor entworfenen Rahmenmodelle eingeordnet. Das Ergebnis sind informatische Schlüsselkompetenzen, welche ein spezifisches Bild der Informatik zeichnen und zur Analyse bereits bestehender Curricula genutzt werden können. Zusätzlich zeigt das Verfahren einen Weg auf, wie Schlüsselkompetenzen auf nicht-normativem Wege generell hergeleitet werden können. N2 - In the German language areas of Europe there have been discussions concerning the concepts of key qualifications and competencies since the 1960s. Part one of this dissertation examines these discussions and their meaning for computer science education. Conceptual frameworks, suitable for all educational disciplines and contexts, are designed which permit the classificati- on and structuring of competencies. Part two presents a methodology for the derivation of key competencies that is free of normative elements and procedures. This is achieved by applying qualitative content analyses (QCA) to various didactic approaches of computer science educa- tion. The competencies thus found are then filtered by general education criteria, yielding key competencies in informatics. The key competencies generated in this way draw a very specific picture of computer science / informatics and can be used in the analysis of existing curricula. T3 - Commentarii informaticae didacticae (CID) - 8 KW - Kompetenzen KW - Schlüsselkompetenzen KW - informatische Allgemeinbildung KW - Informatische Kompetenzen KW - Informatikdidaktik KW - competencies KW - key competencies KW - general education in computer science KW - ICT competencies KW - computer science education (CSE) Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-70470 SN - 978-3-86956-262-9 SN - 1868-0844 SN - 2191-1940 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Dümke, Christian T1 - Daseinsvorsorge, Wettbewerb und kommunale Selbstverwaltung im Bereich der liberalisierten Energiewirtschaft T1 - Public service, competition and local self-government in liberalized energy supply N2 - Die Arbeit befasst sich zunächst mit der Analyse und Einordnung des Begriffs der Daseinsvorsorge und deren Erbringung durch den Staat. Schwerpunkt der Betrachtung bildet dabei die Energieversorgung als klassische Aufgabe staatlicher Daseinsvorsorge. Weiterhin wird der durch die Liberalisierung der Energieversorgung im Jahr 1998 eingeleitete Wandel von sog. natürlichen Monopolen, hin zu einem wettbewerblichen System betrachtet. Dabei wird aufgezeigt, dass sich durch die Einführung des Wettbewerbs weder die damit erhofften Kostenreduzierungen, noch das von Kritikern befürchtete Sterben der kommunalen Energieversorger bewahrheitet haben. Statt einer freien Preisbildung im Wettbewerb ist es zu einer faktischen Verlagerung der früher staatlich festgesetzten Energiepreisgenehmigung auf die Gerichte gekommen, die hierfür jedoch nicht ausgelegt sind. Kommunale Stadtwerke haben sich in der wettbewerblichen Energieversorgung dagegen so gut behauptet, dass seit einiger Zeit ein Trend zur Rekommunalisierung von Energieversorgung auf kommunaler Ebene zu verzeichnen ist. Diesem offensichtlichen Wunsch nach einer gesteigerten Einflussnahme der Gemeinden auf die örtliche Energieversorgung läuft der aktuelle Rechtsrahmen der energierechtlichen Konzessionsvergabe in Gestalt des § 46 EnWG und seiner Auslegung durch die Rechtsprechung der Zivilgerichte zuwider. Die Arbeit zeigt auf, dass von Beginn der Liberalisierung der kommunale Einfluss auf die örtliche Konzessionsvergabe schrittweise und stetig beschnitten wurde, so dass gegenwärtig ein Zustand der Aushöhlung erreicht ist, der als unzulässiger Eingriff in den geschützten Kernbereich der kommunalen Selbstverwaltungsgarantie i.S.d. Art. 28 II GG anzusehen ist. N2 - The work deals first with the analysis and classification of the concept of public service and their provision by the state. Focus of the analysis forms the energy supply as a classical task of public service. Furthermore becomes by the liberalization of the energy supply in 1998 initiated changes of so-called natural monopolies considered towards a competitive system. Besides, it is indicated that by the introduction of the competition neither the cost reductions expected with it, nor the death of the municipal energy providers feared by critics have proved to be true. Instead of a free prize education in the competition it has come for an actual misalignment of the earlier by the state settled energy price approval on the courts who are not laid out for this, nevertheless. Municipal public utilities have asserted themselves in the competitive energy supply against it so well that since some time a trend towards the remunicipalising is to be registered by energy supply at municipal level. The topical legal framework of the energy-juridical concession assignment runs counter to this evident wish for an increased influencing control of the municipalities on the local energy supply in the form of §46 to EnWG and his interpretation by the administration of justice of the civil courts. The work indicates that from beginning of the liberalisation the municipal influence on the local concession assignment was cut gradually and steadily, so that presently a state of the hollow is reached, as an inadmissible intervention in the protected core area of the municipal self-government guarantee i. S. d. Article. 28 II GG is to be considered. T3 - KWI-Gutachten - 10 KW - Energierecht KW - Rekommunalisierung KW - Daseinsvorsorge KW - public service KW - remunicipalising KW - energy supply KW - liberalization of energy supply Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73914 SN - 978-3-86956-314-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Düthmann, Doris T1 - Hydrological modeling of mountain catchments in Central Asia T1 - Hydrologische Modellierung von Gebirgsgebieten in Zentralasien BT - approaches for data sparse catchments BT - Ansätze für datenarme Einzugsgebiete N2 - Water resources from Central Asia’s mountain regions have a high relevance for the water supply of the water scarce lowlands. A good understanding of the water cycle in these mountain regions is therefore needed to develop water management strategies. Hydrological modeling helps to improve our knowledge of the regional water cycle, and it can be used to gain a better understanding of past changes or estimate future hydrologic changes in view of projected changes in climate. However, due to the scarcity of hydrometeorological data, hydrological modeling for mountain regions in Central Asia involves large uncertainties. Addressing this problem, the first aim of this thesis was to develop hydrological modeling approaches that can increase the credibility of hydrological models in data sparse mountain regions. This was achieved by using additional data from remote sensing and atmospheric modeling. It was investigated whether spatial patterns from downscaled reanalysis data can be used for the interpolation of station-based precipitation data. This approach was compared to other precipitation estimates using a hydrologic evaluation based on hydrological modeling and a comparison of simulated and observed discharge, which demonstrated a generally good performance of this method. The study further investigated the value of satellite-derived snow cover data for model calibration. Trade-offs of good model performance in terms of discharge and snow cover were explicitly evaluated using a multiobjective optimization algorithm, and the results were contrasted with single-objective calibration and Monte Carlo simulations. The study clearly shows that the additional use of snow cover data improved the internal consistency of the hydrological model. In this context, it was further investigated for the first time how many snow cover scenes were required for hydrological model calibration. The second aim of this thesis was the application of the hydrological model in order to investigate the causes of observed streamflow increases in two headwater catchments of the Tarim River over the recent decades. This simulation-based approach for trend attribution was complemented by a data-based approach. The hydrological model was calibrated to discharge and glacier mass balance data and considered changes in glacier geometry over time. The results show that in the catchment with a lower glacierization, increasing precipitation and temperature both contributed to the streamflow increases, while in the catchment with a stronger glacierization, increasing temperatures were identified as the dominant driver. N2 - Wasserressourcen aus den Gebirgsregionen Zentralasiens haben eine große Bedeutung für die Wasserversorgung der niederschlagsarmen Tiefebenen. Ein gutes Verständnis des Wasserkreislaufs in diesen Gebirgsregionen ist daher eine wichtige Grundlage für die Entwicklung von Wassermanagementstrategien. Hydrologische Modelle sind ein gut geeignetes Hilfsmittel, um den Wasserhaushalt dieser Gebiete besser zu verstehen, sowie Änderungen des Wasserkreislaufs in der Vergangenheit nachzuvollziehen oder zukünftige hydrologische Änderungen infolge des Klimawandels zu projizieren. Allerdings ist die hydrologische Modellierung in Gebirgsgebieten Zentralasiens aufgrund der nur spärlich vorhandenen hydrometeorologischen Daten mit großen Unsicherheiten verbunden. Das erste Ziel dieser Arbeit war daher, Ansätze für die hydrologische Modellierung zu entwickeln, mit denen die Unsicherheiten der Modellierung in datenarmen Gebirgsregionen reduziert werden können. Dazu wurden zusätzliche Daten aus der Fernerkundung und atmosphärischen Modellierung verwendet. Es wurde untersucht, ob räumliche Muster von herunterskalierten Reanalysedaten für die Interpolation von stationsbasierten Niederschlagsdaten verwendet werden können. Diese Methode zeigte bei einem Vergleich mit anderen Niederschlagsschätzungen, wozu ein Ansatz basierend auf hydrologischer Modellierung und dem Vergleich von beobachteten und simulierten Abflussdaten angewandt wurde, generell gute Ergebnisse. Des Weiteren wurde in dieser Arbeit der Wert von satellitenbasierten Schneebedeckungsdaten analysiert. Der Zielkonflikt zwischen hoher Modellgüte bezüglich Abfluss und Schneebedeckung wurde explizit mit einem multiobjektiven Kalibrieralgorithmus untersucht. Die Ergebnisse wurden mit Modellkalibrierungen mit nur einer Zielfunktion sowie mit Monte-Carlo-Simulationen verglichen. Die Studie zeigt sehr deutlich, dass die zusätzliche Verwendung von Schneebedeckungsdaten die interne Konsistenz des Modells erhöht. In diesem Zusammenhang wurde auch erstmalig die Anzahl der für die Modellkalibrierung erforderlichen Schneebedeckungsszenen analysiert. Das zweite Ziel dieser Arbeit war die Anwendung des hydrologischen Modells, um die Ursachen einer beobachteten Zunahme des Abflusses in zwei Kopfeinzugsgebieten des Tarim-Flusses über die letzten Jahrzehnte zu untersuchen. Dieser simulationsbasierte Ansatz zur Trendattributierung wurde durch einen datenbasierten Ansatz ergänzt. Das hydrologische Modell wurde sowohl an Abfluss- als auch an Gletschermassenbilanzdaten kalibriert und berücksichtigt Änderungen in der Gletschergeometrie über die Zeit. Die Ergebnisse zeigen, dass in dem geringer vergletscherten Gebiet Zunahmen im Niederschlag und in der Temperatur zum Anstieg des Abflusses beigetragen haben, während in dem stärker vergletscherten Gebiet die Temperaturzunahme als dominierender Treiber identifiziert wurde. KW - hydrological modeling KW - mountain hydrology KW - precipitation interpolation KW - multiobjective calibration KW - remote sensing data KW - trend attribution KW - hydrologische Modellierung KW - Gebirgshydrologie KW - Niederschlagsinterpolation KW - multiobjektive Kalibrierung KW - Fernerkundungsdaten KW - Trendattributierung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80071 ER - TY - THES A1 - Eid-Sabbagh, Rami-Habib T1 - Business process architectures BT - concepts, formalism, and analysis N2 - Business Process Management has become an integral part of modern organizations in the private and public sector for improving their operations. In the course of Business Process Management efforts, companies and organizations assemble large process model repositories with many hundreds and thousands of business process models bearing a large amount of information. With the advent of large business process model collections, new challenges arise as structuring and managing a large amount of process models, their maintenance, and their quality assurance. This is covered by business process architectures that have been introduced for organizing and structuring business process model collections. A variety of business process architecture approaches have been proposed that align business processes along aspects of interest, e. g., goals, functions, or objects. They provide a high level categorization of single processes ignoring their interdependencies, thus hiding valuable information. The production of goods or the delivery of services are often realized by a complex system of interdependent business processes. Hence, taking a holistic view at business processes interdependencies becomes a major necessity to organize, analyze, and assess the impact of their re-/design. Visualizing business processes interdependencies reveals hidden and implicit information from a process model collection. In this thesis, we present a novel Business Process Architecture approach for representing and analyzing business process interdependencies on an abstract level. We propose a formal definition of our Business Process Architecture approach, design correctness criteria, and develop analysis techniques for assessing their quality. We describe a methodology for applying our Business Process Architecture approach top-down and bottom-up. This includes techniques for Business Process Architecture extraction from, and decomposition to process models while considering consistency issues between business process architecture and process model level. Using our extraction algorithm, we present a novel technique to identify and visualize data interdependencies in Business Process Data Architectures. Our Business Process Architecture approach provides business process experts,managers, and other users of a process model collection with an overview that allows reasoning about a large set of process models, understanding, and analyzing their interdependencies in a facilitated way. In this regard we evaluated our Business Process Architecture approach in an experiment and provide implementations of selected techniques. N2 - Geschäftsprozessmanagement nimmt heutzutage eine zentrale Rolle zur Verbesserung von Geschäftsabläufen in Organisationen des öffentlichen und privaten Sektors ein. Im Laufe von Geschäftsprozessmanagementprojekten entstehen große Prozessmodellsammlungen mit hunderten und tausenden Prozessmodellen, die vielfältige Informationen enthalten. Mit der Entstehung großer Prozessmodellsammlungen, entstehen neue Herausforderungen. Diese beinhalten die Strukturierung und Organisation vieler Prozessmodelle, ihre Pflege und Aktualisierung, sowie ihre Qualitätssicherung. Mit diesen Herausforderungen befassen sich Geschäftsprozessarchitekturen. Viele der aktuellen Geschäftsprozessarchitekturen ordnen Geschäftsprozesse nach bestimmen Aspekten von Interesse, zum Beispiel, nach Zielen, Funktionen, oder Geschäftsobjekten. Diese Herangehensweisen bieten eine sehr abstrakte Kategorisierung von einzelnen Geschäftsprozessen, wobei sie wichtige Abhängigkeiten zwischen Prozessen ignorieren und so wertvolle Informationen verbergen. Die Produktion von Waren und das Anbieten von Dienstleistungen bilden ein komplexes System untereinander abhängiger Geschäftsprozesse. Diesbezüglich ist es unabdingbar eine ganzheitliche Sicht auf Geschäftsprozesse und ihre Abhängigkeiten zu schaffen, um die Geschäftsprozesse zu organisieren, zu analysieren und zu optimieren. Die Darstellung von Geschäftsprozessabhängigkeiten zeigt versteckte und implizite Informationen auf, die bisher in Geschäftsprozesssammlungen verborgen blieben. In dieser Arbeit stellen wir eine Geschäftsprozessarchitekturmethodik vor, die es erlaubt Geschäftsprozessabhänigigkeiten auf einer abstrakten Ebene darzustellen und zu analysieren. Wir führen eine formale Definition unserer Geschäftsprozessarchitektur und entsprechende Korrektheitskriterien ein. Darauf aufbauend stellen wir Analysetechniken für unsere Geschäftsprozessarchitektur vor. In einem Anwendungsrahmenwerk eläutern wir die top-down und bottomup Anwendung unserer Geschäftsprozessarchitekturmethodik. Dies beinhaltet die Beschreibung von Algorithmen zur Extraktion von Geschäftsprozessarchitekturen und zur Generierung von Prozessmodellen aus Geschäftsprozessarchitekturen, die die Konsistenz zwischen den Elementen auf Prozessmodellebene und Geschäftsprozessarchitekturebene gewährleisten. Aufbauend auf dem Extraktionsalgorithmus, stellen wir eine neue Technik zur Identifizierung, Extraktion, und Visualisierung von versteckten Datenabhängigkeiten zwischen Prozessmodellen in Geschäftsprozessdatenarchitekturen vor. Unsere Arbeit stellt Geschäftsprozessexperten, Manager, und Nutzern einer Geschäftsprozessmodellsammlung eine Methodik zur Verfügung, die es ihnen ermöglicht und vereinfacht, eine Übersicht über Prozesse und ihren Abhängigkeiten zu erstellen, diese zu verstehen und zu analysieren. Diesbezüglich haben wir unsere Geschäftsprozessarchitekturmethodik in einem empirischen Experiment auf ihre Anwendbarkeit und Effektivität untersucht und zur weiteren Evaluierung ausgewählte Algorithmen implementiert. KW - business process architecture KW - bpm KW - formalism KW - analysis KW - abstraction KW - Prozessarchitektur KW - Geschäftsprozessmanagement KW - Analyse KW - Abstraktion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-79719 ER - TY - THES A1 - Enzenberg, Anne T1 - Neue fluoreszierende Copolymere für sensitive Detektionssysteme in Wasser T1 - New fluorescent copolymers for sensitive detection systems in water N2 - Ziel dieser Arbeit war die Synthese und Charakterisierung von neuartigen fluoreszierenden Copolymeren zur Analytdetektion in wässrigen Systemen. Das Detektionssystem sollte ein einfaches Schalten der Fluoreszenz bei Analytbindung „Aus“ bzw. Verdrängung „An“ ermöglichen. Dafür wurde die Synthese eines funktionalisierten Monomers so geplant, dass sich Fluorophor und Analyt innerhalb derselben Monomereinheit in direkter Nachbarschaft zueinander befinden. So sollten bei Erkennung des Analyten durch eine mit einem Fluoreszenzlöscher funktionalisierte Erkennungsstruktur Fluorophor und Löscher in einen vorgegebenen Abstand zueinander gezwungen und die Fluoreszenz des Fluorophors effizient gelöscht werden. Bei anschließender Verdrängung der Erkennungseinheit durch einen stärker bindenden Analyten sollte die Fluoreszenz wieder „angeschaltet“ werden. Eine weitere Zielstellung für das Detektionssystem war eine hohe Löslichkeit und Fluoreszenzintensität in Wasser. Da die Anwendung solcher Sensoren besonders in der Medizin und Biologie, z.B. für Schnellerkennungstest von Pathogenen, von Interesse ist, ist die Kompatibilität mit wässrigen Medien essentiell. Die funktionalisierten Monomere wurden frei radikalisch mit N Vinyl-pyrrolidon bzw. N Vinyl¬caprolactam zu wasserlöslichen, fluoreszierenden Copolymeren umgesetzt. In den N-Vinyl¬pyrrolidon-Polymeren (PNVP) wurde RhodaminB, in den thermoresponsiven N Vinyl¬caprolactam-Polymeren (PNVCL) ein Naphthalsäureimid als Fluorophor verwendet. Während Rhodamine eine hohe Fluoreszenzintensität, gute Quantenausbeuten und hohen Extinktionskoeffizienten in Wasser zeigen, sind Naphthalsäure¬imide umgebungssensitive Chromophore, die bei Änderung ihrer Lösungsmittelumgebung, wie z.B. beim Kollaps eines thermoresponsiven Polymers in Wasser, ihre Fluoreszenzintensität und Quantenausbeute drastisch ändern können. Der Vorteil der hier verwendeten Strategie der Monomersynthese liegt darin, dass bei jeder spezifischen Analytdetektion durch eine Erkennungseinheit die Fluoreszenz effizient gelöscht bzw. bei Verdrängung durch einen stärker bindenden Analyten wieder „angeschaltet“ wird. Dieses Prinzip wird bereits vielfach in der Biologie in sogenannten „Molecular Beacons“ ausgenutzt, wobei ein Fluorophor und ein Löscher durch spezifische DNA Basenpaarung in einen vorgegebenen Abstand zueinander gezwungen werden und so ein „Schalten“ der Fluoreszenz ermöglichen. Aufgrund der vorgegebenen Struktur der DNA Basensequenzen ist es jedoch nicht direkt auf andere Erkennungsreaktionen übertragbar. Daher wurde ein Modellsystem entwickelt, welches die Möglichkeit bietet Analyt, Erkennungseinheit und Signalgeber variabel, je nach Anforderungen des Systems, auszutauschen. So soll es möglich sein, den Sensor a priori für jede Erkennungs¬reaktion zu verwenden. Als Modell Bindungs¬paare wurden ß Cyclodextrin/Adamantan und Con¬cana¬valinA/Mannose ausgewählt. Adamantan bzw. Mannose wurde als Analyt zusammen mit dem Fluorophor in das Polymer eingebunden. ß Cyclo¬dextrin (ß CD) bzw. ConcanavalinA (ConA) wurde als Erkennungsstruktur an einem Fluoreszenzlöscher immobilisiert. Polymer-basierte Fluoreszenzsensoren sind in der Fachliteratur gut dokumentiert. In der Regel sind Signalgeber und Analyt jedoch statistisch im Polymer verteilt, da sie sich entweder in unterschiedlichen Monomereinheiten befinden oder die Funktionalisierung durch eine polymeranaloge Umsetzung erfolgt. Der gewählte Ansatz Fluorophor und Analyt innerhalb derselben Monomereinheit einzubinden, soll bei jeder Erkennungsreaktion des Analyten zu einer Änderung der Signalintensität des Fluorophors führen. Eine hohe Signalintensität bei Analytdetektion ist wünschenswert, insbesondere für Erkennungsreaktionen, die mit möglichst geringem apparativem Aufwand, am besten mit dem bloßen Auge zu verfolgen sein sollen. Des Weiteren ist es möglich den Fluorophorgehalt im Polymer genau einzustellen und so Selbstlöschung zu vermeiden. Die synthetisierten Polymere haben einen Fluorophorgehalt von 0,01 mol% bis 0,5 mol%. Für die RhodaminB haltigen Polymere zeigte sich, dass ein Fluorophorgehalt unterhalb 0,1 mol% im Polymer die höchsten Ausbeuten, Molmassen und Quantenausbeuten liefert. Für die Naphthalsäureimid haltigen Polymere hingegen wurden auch für einen Fluorophorgehalt von bis zu 1 mol% hohe Ausbeuten und Molmassen erreicht. Die Naphthalsäureimid haltigen Polymere haben jedoch in wässriger Lösungsmittelumgebung nur geringe Quantenausbeuten. Als Fluoreszenzlöscher wurden Goldnanopartikel synthetisiert, die mit den entsprechenden Erkennungsstrukturen (ß-CD oder ConA) für den verwendeten Analyten funktionalisiert wurden. Goldnanopartikel als Löscher bieten den Vorteil, dass ihre Dispergierbarkeit in einem Lösemittel durch Funktionalisierung ihrer Hülle gezielt gesteuert werden kann. Durch die hohe Affinität von Goldnanopartikeln zu Thiolen und Aminen konnten sie mit Hilfe einfacher Syntheseschritte mit Thio ß CD Derivaten bzw. ConA funktionalisiert werden. In der hier vorgelegten Arbeit sollte ein Modellsystem für einen solches fluoreszenz-basiertes Detektionssystem in Wasser entwickelt werden. Nachfolgend werden die zu erfüllenden strukturellen Voraussetzungen für die Synthese eines solchen Sensors nochmals zusammengefasst: 1. Verwendung eines Fluorophors, der eine hohe Signalintensität zeigt. 2. Analyt bzw. Erkennungseinheit soll sich im Abstand von wenigen Nanometern zum Signalgeber befinden, um bei jeder Detektionsreaktion die Signalintensität des Signalgebers beeinflussen zu können. 3. Die Detektionseinheit benötigt eine funktionelle Gruppe zur Immobilisierung. Immobilisierung kann z.B. durch Einbindung in ein Polymer erfolgen. 4. Der Fluorophor soll bei Änderung seiner lokalen Umgebung, durch Binden eines Löschers oder Änderung seiner Lösemittelumgebung seine Fluoreszenzeigenschaften drastisch ändern. 5. Die Reaktion sollte schnell und mit möglichst geringem apparativem Aufwand, am besten mit bloßem Auge zu verfolgen sein. Für das ß-CD/Adamantan Modellsystem wurde ein Fluoreszenz Aus/An Sensor entwickelt, der bei Binden ß CD funktionalisierter Goldnanopartikel an das polymergebundene Adamantan die Fluoreszenz des RhodaminB Fluorophors effizient löscht und bei Verdrängung der Goldnanopartikel wieder zurück gewinnt. Dies konnte auch mit bloßem Auge verfolgt werden. Für die Naphthalsäureimid Monomere, die mit NVCL copolymerisiert wurden, wurde abhängig von der lokalen Umgebung des Fluorophors eine unterschiedliche Verstärkung der Fluoreszenzintensität bei Überschreiten des Trübungspunktes des Polymers gefunden. Dabei zeigte sich, dass die Einführung eines Abstandshalters zwischen Polymerrückgrat und Fluorophor zu einer großen Fluoreszenz¬verstärkung führt, während sich ohne Abstandshalter die Fluoreszenzintensität bei Über¬schreiten des Trübungspunktes kaum ändert. N2 - Novel fluorescent copolymers for analyte detection in aqueous media have been synthesized and characterized. The detection system is designed to switch fluorescence between an “Off” state for analyte binding and an “On” state for analyte displacement. A functional monomer was synthesized in which fluorophore and analyte are placed close to each other within the same monomer unit. If the fluorescence quencher labeled recognition unit detects an analyte, fluorophore and quencher are forced in a very short distance to each other and fluorescence is quenched efficiently. The recognition unit is afterwards replaced through a stronger binding analyte and fluorescence should be “turned on” again. Another requirement for the detection system was high solubility and fluorescence intensity in water. Water compatibility is essential for implementation of such sensor systems especially in medicine and biology, e.g. for fast testing systems of pathogens. The synthesized monomers have been copolymerized in a free radical polymerization with N vinyl¬pyrrolidone or N vinylcaprolactame to give fluorescent, water soluble copolymers. For the N vinyl-pyrrolidone polymers (PNVP) a rhodamineB fluorophore was used whereas for the thermoresponsive N vinyl-caprolactame polymers (PNVCL) a naphthalimide fluorophore was used in the comonomer. While rhodamines are well known for their high fluorescence intensity, quantum yield and extinction coefficient in water, naphthalimides are known to be environment sensitive fluorophores who can change their fluorescence intensity drastically depending on their local solvent vicinity. Such a functional monomer design should give the advantage of efficient fluorescence quenching during analyte binding and fluorescence enhancement when the recognition unit is afterwards displaced. This principle is often used in systems like molecular beacons. Fluorophore and quencher are forced in a given distance through specific DNA base pairing and fluorescence can be switched. Because of the given DNA base sequence this detection system cannot be directly implemented to other recognition reactions. Here a model system was developed which gives the possibility to vary analyte, recognition unit and fluorophore. This way it should be possible to adopt the sensor a priori to every recognition reaction. ß-cyclodextrin/adamantane and concana¬valinA/mannose were chosen as model binding pairs. Adamantane or mannose and the fluorophore are attached to the polymer backbone. The ß cyclodextrin (ß-CD) or concanavalinA (ConA) recognition unit is immobilized on a fluorescence quencher. Polymer based fluorescence sensors are well known in literature. Usually fluorophore and analyte are statistically spread in the polymer because they are independently incorporated via different monomer units or functionalization is done polymer analog. To place fluorophore and analyte in the same monomer unit should have the benefit that every recognition event also leads to a change of signal intensity of the fluorophore. High signal intensity is crucial especially for recog¬nition reactions which should be tracked with only simple equipment or even with the naked eye. Even more it is possible to adjust the fluorophore content in the polymer. The synthesized polymers have a fluorophore content between 0.01 mol% and 0.5 mol%. For the rhodamineB containing polymers a fluorophore content below 0.1 mol% gives the highest yields, molecular weight and quantum yields. The polymers which contain naphthalimide as fluorophore give high yields and molecular weight up to 1 mol% of fluorophore content in the polymer but the quantum yields are in general low in aqueous media. Gold nano¬particles (Au NP) are synthesized as fluorescence quencher and functionalized with the recognition units (ß-CD or ConA) for analyte detection. Gold nanoparticles as fluorescence quencher have the advantage that their dispersibility in a solvent can be controlled by the choice of ligand used for the stabilization of the particles. Because of their high affinity to thiols and amines it was possible to synthesize thio-ß-CD and ConA functionalized gold nanoparticles in only a few synthetic steps.   Here a model system for fluorescent detection in water is presented. The structural requirements that have to be fulfilled for the synthesis of such a detection system are summarized: 1. The fluorophore needs to have high signal intensity. 2. Analyte or recognition unit have to be only a few nanometer apart from the signaling unit so every recognition reaction leads to a change of signal intensity. 3. The detection unit needs a functional group for immobilization. Immobilization can be done for example in a polymer matrix. 4. The fluorophore should change its fluorescence properties drastically through change of its local environment for example when binding a fluorescence quencher. 5. Reaction should be fast and detection should be possible with only little equipment or even with the naked eye It was possible to synthesis a fluorescence Off/On sensor for a ß-CD/adamantane model system. Fluorescence of the rhodamineB fluorophore is quenched during binding of ß-CD-Au-NPs and efficiently enhanced when the ß-CD-Au-NPs are displaced through a better binding analyte which can be even followed by the naked eye (Scheme 1). For the naphthalimide containing thermoresponsive N-vinylcaprolactame polymers a dependence of the fluorescence enhancement at polymer collapse is found depending on the local vicinity of the fluorophore. Introducing a spacer between fluorophore and polymer backbone leads to a high fluorescence enhancement while polymers without a spacer show almost no fluorescence enhancement during the collapse. KW - Fluoreszenzsensor KW - fluorescence sensor KW - thermoresponsiv KW - thermoresponsive KW - ß-Cyclodextrin KW - ß-cyclodextrine KW - Rhodamin B KW - rhodamine b KW - Naphthalimid KW - naphthalimide KW - Solvatochromie KW - solvatochrome KW - N-Vinylpyrrolidon KW - N-vinylpyrrolidone KW - N-Vinylcaprolactam KW - N-vinylcaprolactame Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82325 ER - TY - THES A1 - Feldbusch, Elvira T1 - Geochemische Charakterisierung eines Formationsfluids im Unteren Perm T1 - Geochemical characterization of a formation fluid of Lower Permian reservoir BT - Herkunft, betriebsbedingte Prozesse und Rolle organischer Verbindungen im geothermischen Kreislauf BT - origin, operational processes and role of organic compounds in the geothermal cycle N2 - Diese Arbeit befasst sich mit der ganzheitlichen Betrachtung der Fluideigenschaften eines unterpermischen Reservoirs am Geothermie Forschungsstandort Groß Schönebeck (GrSk) bei Reservoirbedingungen und im Betrieb der Geothermieanlage. Die Untersuchungen zur Fluidherkunft ergeben, dass es sich um ein konnates Wasser meteorischen Ursprungs ohne den Einfluss der darüberliegenden Zechsteinwässer handelt. Die Ionen und Isotopenverhältnisse im Formationswasser gelöster Komponenten in GrSk belegen einen gemeinsamen Genesepfad mit Wässern anderer Rotliegend-Reservoire des Nordostdeutschen Beckens (NEGB). Die Isotopenverhältnisse von ⁸⁷Sr/⁸⁶Sr ≈ 0,7158 und von δ³⁴SV CDT ≈ 4,1 ‰ des Sulfats weisen auf die Anreicherung des Fluids mit schweren Isotopen durch die Fluid Gestein-Wechselwirkung mit Vulkaniten und Rotliegend Sandsteinen des Unteren Perms hin. Das im Formationswasser bei Reservoirbedingungen gelöste Gas (Gas/Wasser ≤ 2 bei STP) enthält Stickstoff (δ¹⁵NAir ≈ 0,6 ‰) und thermogenes Methan (δ¹³CV-PDB ≈ - 18 ‰) aus organischen Karbonablagerungen (Kerogen Typ - III Kohlen) hoher Reife. Die Isotopenverhältnisse der Edelgase belegen eine krustale Herkunft des Gasgemisches. Die berechnete Verweilzeit τ (⁴He) der Gase im Reservoir liegt zwischen 275 und 317 Ma und überschreitet damit bei gegebener Konzentration von Mutternukliden im Reservoirgestein das allgemein angenommene Zeitalter der Sedimentgruppe. Das lässt sich durch eine Zuwanderung von Gasen aus älteren Sedimentfolgen erklären. Die Veränderungen der physikochemischen Fluidparameter während des Anlagenbetriebs sind hauptsächlich temperaturbedingt. Bei stabilen Produktionsbedingungen und einer Temperatur von ca. 100 °C stabilisieren sich auch die Fluideigenschaften. Bei In situ Bedingungen übertage beträgt die Dichte ρ = 1,1325 ± 0,0002 g ∙ mL⁻¹, das Redoxpotential Eh = -105,5 ± 1,3 mV und der pH = 6,61 ± 0,002. Die relative Zusammensetzung der Gasphase bei stabilen Produktionsbedingungen zeigt dagegen eine geringe Erhöhung des Stickstoffanteils sowie des Anteils der Kohlenwasserstoffe (Ethan, Propan, usw.) und Abnahme des relativen Methananteils im Laufe des Betriebs. Die quantitative Untersuchung der sekundären mineralischen Ausfällungen im Fluid mittels sequentieller Extraktion zeigte, dass Schwermetalle als eine Hauptkomponente der Fluidfestphase größtenteils in Verbindung mit organischen Molekülen vorliegen. Experimente zum Einfluss organischer Verbindungen unterschiedlicher Substanzklassen auf eine Mobilisierung der Schwermetalle aus dem Reservoirgestein ergaben, dass die Verbindungen wie Fettsäuren und PAK (polyzyklische aromatische Kohlenwasserstoffe) die Freisetzung von Kupfer, Nickel, Chrom und Blei verhindern bzw. zu derer Immobilisierung beitragen. Im Gegensatz dazu wird die Mobilität von Zink in Anwesenheit von diesen Verbindungen erhöht. Niedermolekulare Monocarbonsäuren und stickstoffhaltige Heteroaromaten tragen, mit Ausnahme von Blei, zur Freisetzung bzw. Mobilisierung von Schwermetallen aus dem Reservoirgestein bei. Die gewonnenen Erkenntnisse dieser Arbeit bestätigen das Risiko massiver Ausfällungen auf der kalten Seite der Geothermieanlage bei Inbetriebnahme des Kraftwerks, wenn keine an den Fluidchemismus angepassten Präventionsmethoden eingesetzt werden. Die Isotopenzusammensetzung der Fluidkomponenten sowie geringfügige Schwankungen der Gaszusammensetzung im kontinuierlichen Anlagenbetrieb lässt eine Kommunikation des unterpermischen Reservoirs mit dem darunter liegenden Oberkarbon vermuten, was eine nachträgliche Veränderung der Fluidzusammensetzung beim Dauerbetrieb der Anlage bedeuten kann. N2 - This work represents a holistic study of the properties of fluid from the Lower Permian reservoirs of the geothermal research site Gross Schönebeck at reservoir and at wellhead conditions during fluid circulation. Investigations of the fluid origin show that the formation water represents a connate water of meteoric origin without any evidence of influences from overlying Zechstein. The tracers of formation water as well as the isotopic signatures of relevant components reveal a common genesis path with waters of other Rotliegend reservoirs of the Northeast German Basin (NEGB). The isotope ratios of ⁸⁷Sr/⁸⁶Sr ≈ 0,7158 and sulphate δ³⁴SV-CDT ≈ 4,1 ‰ indicate strong water rock interaction with Lower Permian Rotliegend sandstones and volcanic rocks, resulting in an enrichment with 87Sr and 34S. The fluid dissolves about gas/water ≤ 2 (at STP) of formation gas at reservoir conditions. Major components are nitrogen (δ¹⁵NAir ≈ 0,6 ‰) and methane (δ¹³CV PDB ≈ - 18 ‰) of thermogenic origin from carboniferous organic matter with kerogen Type III coals of high maturity. The noble gases represent a gas mixture of crustal origin with a residence time τ (⁴He) in the reservoir of 275 - 317 Ma. This value exceeds commonly accepted age and parent radionuclide content of the stratigraphic group. This indicates migration of gases from older sediment layers. The changes of physico-chemical fluid properties above ground during plant operation are primarily temperature-affected. At steady operating conditions with a stable temperature of ~ 100 °C fluid properties stabilise with an in-situ density ρ = 1,1325 ± 0,0002 g ∙ mL⁻¹, redox potential Eh = -105,5 ± 1,3 mV and pH = 6,61 ± 0,002. The composition of formation gas at steady operating conditions shows a slight increase of nitrogen content and lower concentrated hydrocarbons (ethane, propane, etc.). Methane content decreases during fluid production, which could be an indicator for gas migration from different reservoir sections. A quantitative examination of secondary mineral precipitations in the fluid by means of sequential extractions indicates that heavy metals are largely bonded on the organic matter. Experiments on the impact different classes of organic components on the mobilisation of heavy metals from the reservoir rock demonstrated that the most heavy metals (Cu, Pb, Cr and Ni) can hardly be mobilized by fatty acids and polycyclic aromatic hydrocarbons or can be precipitated from the fluid. Zinc showed the opposite behaviour with these organic compounds. Organic components such as monocarboxylic acids and nitrogen heterocycles contribute to removing of heavy metals from the reservoir rock, with exception of lead. The findings of this work confirm the risk of considerable precipitation on the cold side of the geothermal plant during commissioning of the power station unless prevention methods adapted for the fluid chemistry are applied. The isotopic composition of fluid components as well as a minor fluctuation of gas composition during continuous plant operation indicates a potential communication of the Lower Permian reservoir with the underlying Upper Carboniferous formation. This may lead to a subsequent change of the fluid composition during a long-term operation of the plant in GrSk. KW - Groß Schönebeck KW - Rotliegend KW - Formationsfluid KW - Schwermetalle KW - Herkunft KW - geothermal KW - origin KW - formation fluid KW - heavy metals KW - onsite monitoring Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87402 ER - TY - THES A1 - Fettkenhauer, Christian T1 - Ionothermale Synthese funktioneller Kohlenstoffnitrid basierter Materialien T1 - Ionothermal synthesis of functional carbon nitride based materials N2 - Die Doktorarbeit behandelt die Synthese Kohlenstoffnitrid basierter Materialien in eutektischen Mischungen bivalenter Metallchloride. Der Fokus liegt dabei auf ZnCl2-, SnCl2- und CoCl2-haltigen eutektischen Mischungen, in denen die Kondensation gebräuchlicher organischer Precursoren durchgeführt wird. Im Rahmen dessen wird untersucht wie durch die Reaktionsführung in Salzschmelzen unterschiedlicher Lewis-Acidität, neben der Molekülstruktur andere charakteristische Eigenschaften, wie Morphologie, Kristallinität und spezifische Oberflächen, der Materialien kontrolliert werden können. Darüber hinaus werden die optischen Eigenschaften der Materialien erörtert und in diesem Zusammenhang die Eignung als Photokatalysatoren für den oxidativen Abbau organischer Farbstoffe und für die photokatalytische Wasserreduktion bzw. –oxidation untersucht. Zusätzlich wird gezeigt, wie im System LiCl/KCl in einem einstufigen Prozess edelmetallfreie Kohlenstoffnitrid Komposite zur photokatalytischen Wasserreduktion hergestellt werden können. N2 - The thesis deals with the synthesis of carbon nitride based materials in eutectic mixtures of bivalent metal chlorides. The focus is on ZnCl2, SnCl2 and CoCl2 containing eutectic mixtures in which the condensation reaction of classical organic precursors is carried out. In this context, it is investigated how to control molecular structure and other materials properties, like morphology, crystallinity and specific surface areas by using salt melts of different Lewis acidity. Moreover optical properties of the materials are discussed and in this connection their suitability as photocatalysts for dye degradation and photocatalytic water reduction and oxidation is investigated. Additionally it is demonstrated how to produce noble metal free carbon nitride composites in LiCl/KCl melt for photocatalytic water reduction. KW - Kohlenstoffnitride KW - ionothermal KW - Komposite KW - Photokatalyse KW - Wasserstoff KW - carbon nitride KW - ionothermal KW - composites KW - photocatalysis KW - hydrogen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78087 ER - TY - THES A1 - Frenzel, Sabine T1 - Die Rolle der Umamirezeptoruntereinheit Tas1r1 jenseits ihrer gustatorischen Bedeutung T1 - The role of the umami receptor subunit Tas1r1 beyond its gustatory importance BT - Analyse ihrer Expression und Funktion in nichtgustatorischen Geweben gentechnisch modifizierter Mauslinien N2 - Aminosäuren sind lebensnotwendige Moleküle für alle Organismen. Ihre Erkennung im Körper ermöglicht eine bedarfsgerechte Regulation ihrer Aufnahme und ihrer Verwertung. Welcher Chemosensor für diese Erkennung jedoch hauptverantwortlich ist, ist bisher unklar. In der vorliegenden Arbeit wurde die Rolle der Umamigeschmacksrezeptoruntereinheit Tas1r1 jenseits ihrer gustatorischen Bedeutung für die Aminosäuredetektion in der Mundhöhle untersucht. In der histologischen Tas1r1-Expressionsanalyse nichtgustatorischer Gewebe der Mauslinie Tas1r1-Cre/ROSA26-tdRFP wurde über die Detektion des Reporterproteins tdRFP die Expression des Tas1r1 in allen untersuchten Geweben (Speiseröhre, Magen, Darm, Bauchspeicheldrüse, Leber, Niere, Muskel- und Fettgewebe, Milz, Thymus, Lymphknoten, Lunge sowie Hoden) nachgewiesen. Mit Ausnahme von Dünndarm und Hoden gelang hierbei der Nachweis erstmals spezifisch auf zellulärer Ebene. Caecum und Lymphknoten wurden zudem neu als Expressionsorte des Tas1r1 identifiziert. Trotz der beobachteten weiten Verbreitung des Tas1r1 im Organismus – unter anderem auch in Geweben, die für den Proteinstoffwechsel besonders relevant sind – waren im Zuge der durchgeführten Untersuchung potentieller extraoraler Funktionen des Rezeptors durch phänotypische Charakterisierung der Mauslinie Tas1r1-BLiR nur schwache Auswirkungen auf Aminosäurestoffwechsel bzw. Stickstoffhaushalt im Falle eines Tas1r1-Knockouts detektierbar. Während sich Ernährungsverhalten, Gesamtphysiologie, Gewebemorphologie sowie Futterverdaulichkeit unverändert zeigten, war die renale Stickstoffausscheidung bei Tas1r1-Knockout-Mäusen auf eiweißarmer sowie auf eiweißreicher Diät signifikant verringert. Eine Überdeckung der Auswirkungen des Tas1r1-Knockouts aufgrund kompensatorischer Effekte durch den Aminosäuresensor CaSR oder den Peptidsensor Gpr93 war nicht nachweisbar. Es bleibt offen, ob andere Mechanismen oder andere Chemosensoren an einer Kompensation beteiligt sind oder aber Tas1r1 in extraoralem Gewebe andere Funktionen als die der Aminosäuredetektion übernimmt. Unterschiede im extraoralen Expressionsmuster der beiden Umamirezeptor-untereinheiten Tas1r1 und Tasr3 lassen Spekulationen über andere Partner, Liganden und Funktionen zu. N2 - Amino acids are important nutrients for each organism. Recognition of amino acids in the body enables an adequate regulation of their absorption and use. Until now, it is ambiguous which chemosensor is mainly responsible for this recognition. In the present work, the role of the umami taste receptor subunit Tas1r1 was examined beyond its gustatory importance for the amino acid detection in the oral cavity. By a histological expression analysis of non-gustatory tissues of the mouse strain Tas1r1-Cre/ROSA26-tdRFP, Tas1r1 expression has been proven in all of the analysed tissues (oesophagus, stomach, intestine, pancreas, liver, kidney, muscle and fat tissues, spleen, thymus, lymph nodes, lung and testes) via the detection of the reporter protein tdRFP. With the exception of small intestine and testes, the proof succeeded for the first time specifically at the cellular level. Moreover, caecum and lymph nodes were newly identified as expression sites of Tas1r1. Despite the observed widespread distribution of Tas1r1 in the organism – including tissues which are particularly relevant in protein metabolism – only slight effects on amino acid metabolism and nitrogen balance respectively were detectable in the course of examinations of potentially extraoral functions of the receptor by a phenotypical characterization of the mouse strain Tas1r1-BLiR. The renal nitrogen excretion of Tas1r1 knockout mice on low protein and also high protein diet was significantly reduced, whereas dietary habit, overall physiology, tissue morphology and food digestibility remained unchanged. A superposition of the Tas1r1 knockout impact due to compensatory effects by the amino acid sensor CaSR or the peptide sensor Gpr93 was unverifiable. It remains open whether other mechanisms or chemosensors are involved in compensation or whether Tas1r1 takes over other functions in extraoral tissues than the amino acid detection. Differences in the extraoral expression pattern of the two umami receptor subunits Tas1r1 and Tas1r3 leave room for speculations about other partners, ligands and functions. KW - Tas1r1 KW - Geschmacksrezeptor KW - taste receptor KW - umami KW - umami KW - Tas1r1 Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-79502 ER - TY - THES A1 - Friedmann, Ronald T1 - Arthur Ewert (1890-1959) T1 - Arthur Ewert (1890-1959) BT - der Lebens- und Leidensweg eines deutschen Kommunisten auf drei Kontinenten BT - the live and suffering of a German communist on three continents N2 - Arthur Ewert (1890-1959) war in den zwanziger und frühen dreißiger Jahren ein wichtiger Funktionär der Kommunistischen Partei Deutschlands und der Kommunistischen Internationale. Er wurde in der Familie eines armen Bauern in Ostpreußen geboren. Nach dem Abschluß der Schule ging er nach Berlin, um hier eine Lehre als Sattler zu absolvieren. Über die Berliner Arbeiterjugendbewegung fand er Kontakt zur Sozialdemokratischen Partei Deutschlands, deren Mitglied er 1908 wurde. Im Mai 1914 emigrierte er gemeinsam mit seiner langjährigen Lebensgefährtin und späteren Ehefrau Elise Saborowski (1886-1939) nach Nordamerika, wo er sich sofort der sozialistischen Bewegung anschloß. Anfang 1919 gehörte er zu den Mitbegründern der ersten Kommunistischen Partei Kanadas. Im Sommer 1919 kehrte er nach Deutschland zurück und wurde Mitglied der wenige Monate zuvor gegründeten KPD. Auf dem Leipziger Parteitag der KPD im Februar 1923 wurde er in die zwanzigköpfige Zentrale seiner Partei gewählt und stieg damit in den engeren Führungszirkel auf. Nach der gescheiterten »Deutschen Oktoberrevolution« im Herbst 1923 kämpfte er gemeinsam mit Ernst Meyer, Hugo Eberlein, Wilhelm Pieck und anderen um das Überleben der KPD, doch gelang es seiner Gruppe nicht, den Sieg der Linken und Ultralinken im parteiinternen Machtkampf zu verhindern. Ewert wurde politisch »kaltgestellt« und schied für mehr als ein Jahr aus der Parteiführung aus. In dieser Zeit erfüllte er verschiedene Aufgaben für die Kommunistische Internationale. Bereits im Juni 1923 war er Berichterstatter zur Lage in der Norwegischen Arbeiterpartei gewesen, ab Ende 1924 war er Abgesandter bei der KP Großbritanniens. Im Sommer und Frühherbst 1927 hielt er sich mehrere Monate in den USA auf. Im Sommer 1925 wurde er auf Veranlassung der Kommunistischen Internationale in die Führung der KPD zurückgeholt. Er trug wesentlich dazu bei, die Parteiführung unter Ernst Thälmann zu stabilisieren und sie – zumindest zeitweise – auf einen realpolitischen Kurs zu orientieren. Mit dem erneuten »Links«-Schwenk der KPD ab Anfang 1928 wurde er als »Versöhnler« stigmatisiert und zunehmend zur Zielscheibe innerparteilicher Attacken. Der Versuch eines »Befreiungsschlages« unter Ausnutzung der sogenannten Wittorf-Affäre im Herbst 1928 scheiterte, bis zum Sommer 1929 wurde Arthur Ewert auf Drängen Stalins und mit ausdrücklicher Zustimmung Thälmanns aus allen Funktionen in der KPD entfernt. Nach der Auflösung des Reichstags und dem damit verbundenen Verlust seines Reichstagsmandats im Juli 1930 schied Ewert endgültig aus der deutschen Parteiarbeit aus. Ende 1930 wurde er zum Leiter des Südamerikanischen Büros der Kommunistischen Internationale in Montevideo, der Hauptstadt Uruguays, ernannt. Er trug damit Verantwortung für die unmittelbare Anleitung der Kommunistischen Parteien im sogenannten Südkegel Südamerikas. In diese Zeit fielen seine ersten Kontakte zu Luiz Carlos Prestes, dem legendären »Ritter der Hoffnung«, mit dem er ab Anfang 1935 in Brasilien zusammenarbeitete. Von 1932 bis 1934 leitete Arthur Ewert das Büro der Kommunistischen Internationale in Shanghai und spielte dabei eine entscheidende Rolle zugunsten Mao Tse-tungs, dessen politisches Überleben er in einem innerparteilichen Machtkampf der KP Chinas sicherte. Als Vertreter der Kommunistischen Internationale war Arthur Ewert im Verlaufe des Jahres 1935 an den Versuchen beteiligt, in Brasilien – gestützt auf ein breites Bündnis, die »Nationale Befreiungsallianz« - einen politischen Machtwechsel herbeizuführen. Nach dem Scheitern des von Prestes geführten Aufstandsversuches wurde er Ende 1935 verhaftet. Arthur Ewert verlor in Folge der barbarischen Folterungen in brasilianischer Haft den Verstand. Er kam im Mai 1945 im Ergebnis einer Amnestie frei. 1947 gelang es seiner Schwester, ihn in die sowjetische Besatzungszone zurückzuholen. Die Ärzte dort konnten nur noch feststellen, daß eine Heilung unmöglich war. Arthur Ewert verbrachte den Rest seines Lebens in einem Pflegeheim in Eberswalde, wo er 1959 starb. N2 - In the 1920s and early 1930s, Arthur Ewert (1890-1959) was an important representative of the Communist Party of Germany, and the Communist International. He was born into a family of poor farmers in East Prussia. After leaving school, he went to Berlin to complete an apprenticeship as a saddler. Through the Berlin workers youth movement he made contact with the Social Democratic Party, whose member he became in 1908. In May 1914, he emigrated with his longtime girlfriend and later wife Elise Saborowski (1886-1939) to North America, where he immediately joined the socialist movement. Early in 1919, he was one of the founders of the first Communist Party of Canada. In the summer of 1919 he returned to Germany and became a member of the Communist Party of Germany (KPD), founded a few months earlier. At the Leipzig Congress of the Communist Party in February 1923, he was elected one of the twenty members of the Party's Executive Committee (»Zentrale«), and rose to the inner leadership circle. Following the failure of the »German October Revolution« in the autumn of 1923, he fought together with Ernst Meyer, Hugo Eberlein, Wilhelm Pieck and others for the survival of the KPD, but his group failed to prevent the victory of the left and ultra-left wings in the party's infighting. Ewert was politically pushed aside, and for more than one year he stood outside of the Party leadership. During this time, he fulfilled different tasks for the Communist International. Just back in June 1923, he was a rapporteur on the situation in the Norwegian Labour Party. From the end of 1924, he was an emissary to the CP of Great Britain. In the summer and early fall of 1927, he stayed some months in the United States. In the summer of 1925, on demand of the Communist International, he was brought back to the leadership of the KPD. He contributed significantly to stabilize the party leadership under Ernst Thälmann and - at least temporarily - to orient the Party to a realistic political course. With the new »left« turn of the Communist Party at the beginning of 1928, he was increasingly the target of intra-party attacks, being stigmatized as a »conciliator«. His attempt of taking advantage of the so-called Wittorf affair in the autumn of 1928 failed, and until the summer of 1929, Arthur Ewert was removed at the behest of Stalin and with the express consent of Thälmann from all functions in the KPD. After the dissolution of the Reichstag and the consequent loss of his Reichstag mandate in July 1930, Ewert finally left the German Party work. At the end of 1930, he was appointed head of the South American Bureau of the Communist International in Montevideo, Uruguay's capital. He was thereby responsible for the direct guidance of the Communist Parties in the so-called Southern Cone of South America. During this time he established first contacts to Luís Carlos Prestes, the legendary »Knight of Hope«, with whom he worked in Brazil from the beginning of 1935. From 1932 to 1934 Arthur Ewert led the Communist International Shanghai office and played a crucial role in favor of Mao Tse-tung, whose political survival he secured in an intra-party power struggle of the Communist Party of China. In the course of 1935, Arthur Ewert, as a representative of the Communist International, was involved in the attempts in Brazil - based on a broad coalition, the »National Liberation Alliance« - to overcome the government. After the failure of the uprising led by Prestes he was arrested late 1935. As a result of the barbaric torture in a Brazilian prison Arthur Ewert lost the mind. He was released from prison in May 1945 as a consequence of an amnesty. In 1947 his sister succeeded in getting him back to the Soviet occupation zone. The doctors there could only conclude that a cure was impossible. Arthur Ewert spent the rest of his life in a nursing home in Eberswalde, where he died in 1959. KW - Arthur Ewert KW - Kommunistische Partei Deutschlands KW - Kommunistische Internationale KW - Südamerikanisches Büro der Kommunistischen Internationale KW - Büro der Kommunistischen Internationale in Shanghai KW - Brasilien im November 1935 KW - Arthur Ewert KW - Communist Party of Germany (KPD) KW - Communist International KW - South American Bureau of the Communist International KW - Communist International Shanghai office KW - Brazil November 1935 Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73024 ER - TY - THES A1 - Gerth, Sabrina T1 - Memory limitations in sentence comprehension T1 - Begrenzungen des Arbeitsgedächtnisses in der Satzverarbeitung BT - a structural-based complexity metric of processing difficulty BT - eine strukturbasierte Komplexitätsmetrik von Verarbeitungsschwierigkeiten N2 - This dissertation addresses the question of how linguistic structures can be represented in working memory. We propose a memory-based computational model that derives offline and online complexity profiles in terms of a top-down parser for minimalist grammars (Stabler, 2011). The complexity metric reflects the amount of time an item is stored in memory. The presented architecture links grammatical representations stored in memory directly to the cognitive behavior by deriving predictions about sentence processing difficulty. Results from five different sentence comprehension experiments were used to evaluate the model's assumptions about memory limitations. The predictions of the complexity metric were compared to the locality (integration and storage) cost metric of Dependency Locality Theory (Gibson, 2000). Both metrics make comparable offline and online predictions for four of the five phenomena. The key difference between the two metrics is that the proposed complexity metric accounts for the structural complexity of intervening material. In contrast, DLT's integration cost metric considers the number of discourse referents, not the syntactic structural complexity. We conclude that the syntactic analysis plays a significant role in memory requirements of parsing. An incremental top-down parser based on a grammar formalism easily computes offline and online complexity profiles, which can be used to derive predictions about sentence processing difficulty. N2 - Diese Dissertation beschäftigt sich mit der Frage wie linguistische Strukturen im Arbeitsgedächtnis dargestellt werden. Es wurde ein gedächtnisbasiertes Computermodell entwickelt, das offline und online Komplexitätsprofile für bestimmte Satzstrukturen erstellt. Diese Komplexitätsprofile basieren auf den Berechnungen eines top-down Parsers für minimalistische Grammatiken (Stabler, 2011). Die Komplexitätsprofile spiegeln die Zeit wider, die ein Item im Gedächtnis oder Speicher gehalten wird. Das entwickelte Modell verbindet grammatische Repräsentationen, die im Speicher gehalten werden, direkt mit dem kognitiven menschlichen Verhalten in Sprachverarbeitungsexperimenten indem es Vorhersagen über Satzverarbeitungsschwierigkeiten trifft. Die Ergebnisse von fünf Satzverarbeitungsexperimenten wurden verwendet, um die Vorhersagen des Modells über die Begrenzungen des Gedächtnisses zu evaluieren. Die Vorhersagen der Komplexitätsmetrik wurden mit den Vorhersagen einer in der Psycholinguistik etablierten Komplexitätsmetrik (Dependency Locality Theory, DLT (Gibson, 2000)) verglichen. Beide Metriken machen vergleichbare offline und online Vorhersagen für vier der fünf Experimente. Der Unterschied zwischen beiden Metriken ist, dass die in dieser Dissertation erarbeitete Komplexitätsmetrik die strukturelle Komplexität der Satzstruktur mit einbezieht. Im Gegensatz zu DLTs Integrationsmetrik, die die Komplexität eines Satzes lediglich anhand der Anzahl der Wörter misst. Diese Dissertation zeigt, dass ein inkrementeller Top-down Parser, der auf einem Grammatikformalismus basiert, offline und online Komplexitätsprofile berechnen kann, die verwendet werden können, um Vorhersagen über Satzverarbeitungsschwierigkeiten zu treffen. T3 - Potsdam Cognitive Science Series - 6 KW - psycholinguistics KW - syntax KW - working memory KW - Psycholinguistik KW - Computermodell KW - Arbeitsgedächtnis KW - Syntax KW - computational model Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71554 SN - 978-3-86956-321-3 ER - TY - THES A1 - Golle, Kathleen T1 - Physical fitness in school-aged children T1 - Motorische Leistungsfähigkeit im Schulkindalter N2 - Physical fitness is an important marker of health that enables people to carry out activities of daily living with vigour and alertness but without undue fatigue and with sufficient reserve to enjoy active leisure pursuits and to meet unforeseen emergencies. Especially, due to scientific findings that the onset of civilization diseases (e.g., obesity, cardiovascular disease) begins in childhood and that physical fitness tracks (at least) into young adulthood, the regular monitoring and promotion of physical fitness in children is risen up to a public health issue. In relation to the evaluation of a child’s physical fitness over time (i.e., development) the use of longitudinally-based percentile values is of particular interest due to their underlined dedication of true physical fitness development within subjects (i.e., individual changes in timing and tempo of growth and maturation). Besides its genetic determination (e.g., sex, body height), physical fitness is influenced by factors that refer to children’s environment and behaviour. For instance, disparities in physical fitness according to children’s living area are frequently reported concerning the fact that living in rural areas as compared to urban areas seems to be more favourable for children’s physical fitness. In addition, cross-sectional studies found higher fitness values in children participating in sports clubs as compared to non-participants. However, up to date, the observed associations between both (i.e., living area and sports club participating) and children’s physical fitness are unresolved concerning a long-term effect. In addition, social inequality as determined by the socioeconomic status (SES) extends through many areas of children’s life. While evidence indicates that the SES is inversely related to various indices of child’s daily life and behaviour like educational success, nutritional habits, and sedentary- and physical activity behaviour, a potential relationship between child’s physical fitness and the SES is hardly investigated and indicated inconsistent results. The present thesis addressed three objectives: (1) to generate physical fitness percentiles for 9- to 12- year-old boys and girls using a longitudinal approach and to analyse the age- and sex-specific development of physical fitness, (2) to investigate the long-term effect of living area and sports club participation on physical fitness in third- to sixth-grade primary school students, and (3) to examine associations between the SES and physical fitness in a large and representative (i.e., for a German federal state) sample of third grade primary school students. Methods (i/ii) Healthy third graders were followed over four consecutive years (up to grade 6), including annually assessment of physical fitness and parental questionnaire (i.e., status of sports club participation and living area). Six tests were conducted to estimate various components of physical fitness: speed (50-m sprint test), upper body muscular power (1-kg ball push test), lower body muscular power (triple hop test), flexibility (stand-and-reach test), agility (star agility run test), and cardiorespiratory fitness (CRF) (9-min run test). (iii) Within a cross-sectional study (i.e., third objective), physical fitness of third graders was assessed by six physical fitness tests including: speed (20-m sprint test), upper body muscular power (1-kg ball push test), lower body muscular power (standing long jump [SLJ] test), flexibility (stand-and-reach test), agility (star agility run test), and CRF (6-min run test). By means of questionnaire, students reported their status of organized sports participation (OSP). Results (i) With respect to percentiles of physical fitness development, test performances increased in boys and girls from age 9 to 12, except for males’ flexibility (i.e., stable performance over time). Girls revealed significantly better performance in flexibility, whereas boys scored significantly higher in the remaining physical fitness tests. In girls as compared to boys, physical fitness development was slightly faster for upper body muscular power but substantially faster for flexibility. Generated physical fitness percentile curves indicated a timed and capacity-specific physical fitness development (curvilinear) for upper body muscular power, agility, and CRF. (ii) Concerning the effect of living area and sports club participation on physical fitness development, children living in urban areas showed a significantly faster performance development in physical fitness components of upper and lower body muscular power as compared to peers from rural areas. The same direction was noted as a trend in CRF. Additionally, children that regularly participated in a sports club, when compared to those that not continuously participated in a sports club demonstrated a significantly faster performance development in lower body muscular power. A trend of faster performance development in sports club participants occurred in CRF too. (iii) Regarding the association of SES with physical fitness, the percentage of third graders that achieved a high physical fitness level in lower body muscular power and CRF was significantly higher in students attending schools in communities with high SES as compared to middle and low SES, irrespective of sex. Similar, students from the high SES-group performed significantly better in lower body muscular power and CRF than students from the middle and/or the low SES-group. Conclusion (i) The generated percentile values provide an objective tool to estimate childrenʼs physical fitness within the frame of physical education (e.g., age- and sex-specific grading of motor performance) and further to detect children with specific fitness characteristics (low fit or high fit) that may be indicative for the necessity of preventive health promotion or long term athlete development. (ii) It is essential to consider variables of different domains (e.g., environment and behavior) in order to improve knowledge of potential factors which influence physical fitness during childhood. In this regard, the present thesis provide a first input to clarify the causality of living area and sports club participation on physical fitness development in school-aged children. Living in urban areas as well as a regular participation in sports clubs positively affected children´s physical fitness development (i.e., muscular power and CRF). Herein, sports club participation seems to be a key factor within the relationship between living area and physical fitness. (iii) The findings of the present thesis imply that attending schools in communities with high SES refers to better performance in specific physical fitness test items (i.e., muscular power, CRF) in third graders. Extra-curricular physical education classes may represent an important equalizing factor for physical activity opportunities in children of different SES backgrounds. In regard to strong evidence of a positive relationship between physical fitness - in particular muscular fitness/ CRF - and health, more emphasis should be laid on establishing sports clubs and extra-curricular physical education classes as an easy and attractive means to promote fitness-, and hence health- enhancing daily physical activity for all children (i.e. public health approach). N2 - Die motorische Leistungsfähigkeit (LF) ist eine bedeutsame Determinante eines ganzheitlich ausgerichteten Verständnisses von Gesundheit. Sie ermöglicht es dem Individuum Alltagsaktivitäten mit Kraft und Aufmerksamkeit durchzuführen, ohne übermäßige Ermüdung und mit genügend Reserven, um Freizeitaktivitäten nachzugehen und belastende und unvorhersehbare Situationen zu meistern. Verbunden mit der Evidenz, dass ein Großteil der heutigen Zivilisationskrankheiten (z. B. Adipositas, Herzkreislauferkrankungen) ihren Ursprung in der Kindheit haben und das relative Niveau der motorischen LF (zumindest) bis in das junge Erwachsenenalter hin stabil ist, etabliert sich die kontinuierliche Erfassung und Förderung motorischer Fitness im Kindesalter zu einem primären volkswirtschaftlichen Gesundheitsziel. In Verbindung mit der Erfassung der motorischen LF von Kindern über die Zeit (d. h. Entwicklung) ist der Nutzen Längsschnitt basierter Perzentilwerte aufgrund der Detektion von individuellen Leistungsentwicklungen (d. h. zeit- und frequenzspezifische Variationen in Wachstum und Reifung) von Relevanz. Neben der genetischen Determination (z. B. Geschlecht, Körperhöhe), wird die motorische LF auch durch Verhaltens- und Umweltfaktoren beeinflusst. Unterschiede in der motorischen LF in Abhängigkeit von der Wohngegend wurden häufig diskutiert. Es scheint, dass das Aufwachsen in der Stadt, im Vergleich zu auf dem Land, für die motorische LF von Vorteil ist. Des Weiteren weisen Querschnittsstudien auf eine bessere motorische Leistung von Sportvereinsmitgliedern im Vergleich zu Nicht-Mitgliedern hin. Die gefundenen Zusammenhänge beider Faktoren (d. h, Wohngegend und Sportvereinsmitgliedschaft) mit der motorischen LF wurden bisher aber noch nicht hinsichtlich eines Ursache-Wirkungs-Verhältnisses untersucht. Soziale Ungleichheit, u. a. determiniert über den sozioökonomischen Status (SES), findet sich in vielen Lebensbereichen von Kindern wieder. Während gut belegt ist, dass der SES negativ mit Lebens- und Verhaltensindikatoren wie Bildungserfolg, Ernährungsgewohnheiten und Bewegungsverhalten korreliert, ist ein Zusammenhang mit der infantilen motorischen LF kaum untersucht und wenn, mit inkonsistenten Ergebnissen. Mit Bezug auf die Kohorte “Grundschüler/innen” widmet sich die vorliegende Arbeit der Realisierung von drei Zielstellungen: (i) Der Erstellung von alters- und geschlechtsspezifischen Perzentilen (d. h. Normwerte) zur Entwicklung der motorischen LF (d. h. Normwerte) und inbegriffenen Analysen zum Einfluss von Alter und Geschlecht. (ii) Der Klärung eines möglichen Einflusses von Wohnort und Sportvereinsmitgliedschaft auf die motorische LF. (iii) Der Klärung eines möglichen Zusammenhanges zwischen dem SES und der motorischen LF. Methodik (i/ii) Im Längsschnitt-Design wurden Schülerinnen und Schüler (SuS) der dritten Jahrgangsstufe (JST) einmal jährlich über vier Jahre hinweg (d. h. bis JST 6) in ihren motorischen Leistungen getestet. Die motorische Leistungserfassung beinhaltete sechs Testaufgaben: Schnelligkeit (50-m Sprint), Schnellkraft der oberen Extremität ([o. Extr.], Vollballstoß), Schnellkraft der unteren Extremität ([u. Extr.], Dreier Hopp), Beweglichkeit (Rumpfbeuge), Koordination unter Zeitdruck ([Koordination], Sternlauf) und Ausdauer (9-min Lauf). Mittels elterlichem Fragebogen wurde die Mitgliedschaft in einem Sportverein (ja/nein) sowie der Wohnort (Stadt/Land) der SuS erfasst. (iii) Im Rahmen einer Querschnittsstudie absolvierten SuS der JST 3 sechs motorische Testaufgaben: Schnelligkeit (20-m Sprint), Schnellkraft der o. Extr. (Medizinballstoß), Schnellkraft der u. Extr. (Standweitsprung), Beweglichkeit (Rumpfbeuge), Koordination (Sternlauf) und Ausdauer. Zusätzlich wurden die SuS zur Aktivität im organisierten Sport befragt (Sportverein und/oder Schulsportarbeitsgemeinschaft [Sport-AG]: ja/nein). Ergebnisse (i) Die motorische LF der initial 9-jährigen Jungen und Mädchen (JST 3) steigerte sich bis zum 12. Lebensjahr (JST 6). In der Beweglichkeit wiesen die Testleistungen der Jungen keine Leistungsentwicklung aus (d. h. konstante Leistung). In allen Jahren erzielten Mädchen bessere Leistungen in der Beweglichkeit, wohingegen die Jungen in den übrigen motorischen Leistungsbereichen besser abschnitten. Mit Blick auf die Entwicklung der motorischen LF über die Zeit zeigte sich eine marginal schnellere Leistungsentwicklung der Mädchen im Vergleich zu den Jungen in der Schnellkraft (o. Extr.) und der Koordination sowie eine deutliche schnellere Leistungsentwicklung in der Beweglichkeit. Die erstellten Perzentilkurven detektierten eine zeit- und fähigkeits-, nicht aber geschlechtsspezifische Entwicklung der motorischen LF (kurvenförmige Leistungsentwicklung in der Schnellkraft der o. Extr., Koordination und Ausdauer. (ii) Im zeitlichen Verlauf steigerte sich die motor. LF von SuS, die in der Stadt lebten gegenüber SuS aus ländlichen Regionen schneller (d. h., Schnellkraft der o. und u. Extr., tendenziell: Ausdauer). Immer-Sportveinsmitglieder zeigten gegenüber Nie-Mitgliedern eine schnellere Entwicklung in ihrer motor. LF (d. h. Schnellkraft u. Extr., tendenziell: Ausdauer). (iii) Der Anteil an SuS, die ein hohes motorisches Leistungslevel erreichten (d. h. Schnellkraft u. Extr., Ausdauer) war höher in der Gruppe mit hohem SES im Vergleich zur Gruppe mit mittlerem und niedrigem SES. Similar, students from the high SES-group performed significantly better in lower body muscular power and CRF than students from the middle and/or the low SES-group. Schlussfolgerung (i) Die erstellten Perzentile/Normwerte bieten ein Instrument zur objektiven Bewertung der motorischen LF und ihrer Entwicklung im Sportunterricht (d. h. alters- und geschlechtsspezifische Benotung der motorischen Leistung). Darüber können SuS mit spezifischen Leistungsausprägungen (z. B. geringe/hohe motorische Leistung) identifiziert werden und somit eine erste Indikation zur Bewegungsförderung oder einem langfristigen Leistungsaufbau im Sport gegeben werden. (ii) Im Zusammenhang mit einem verbesserten Kenntnisstand zu potentiellen Einflussfaktoren auf die infantile motorische LF, ist es bedeutsam Variablen verschiedener Lebensbereiche in wissenschaftlichen Studien zur motor. LF zu berücksichtigen. Daran anknüpfend präsentiert die vorliegende Arbeit erste Erkenntnisse zum Einfluss von Wohngegend und Sportvereinsmitgliedschaft auf die Entwicklung der motorischen LF im Schulkindalter. Das Aufwachsen in der Stadt sowie eine kontinuierliche Mitgliedschaft im Sportverein haben einen positiven Einfluss auf die Entwicklung motorischer Leistungen (d. h. Schnellkraft und Ausdauer). Die Mitgliedschaft im Sportverein scheint eine positive Schlüsselrolle (d. h. Mediator) in der Beziehung zwischen Wohngegend und motorischer LF einzunehmen. (iii) Kinder, die Schulen in Gemeinden mit hohem SES besuchten erzielten bessere motorische Leistungen (d. h. Schnellkraft und Ausdauer). Mit Blick auf die deutlichen Hinweise eines positiven Zusammenhangs zwischen der motorischen LF – insbesondere Ausdauer- und Kraft determinierte Komponente – und der Gesundheit, sollte ein größerer Schwerpunkt auf die Gründung/Einrichtung von Sportvereinen und Sport-AGs gelegt werden als ein attraktives und ungezwungenes Setting zur Förderung gesundheitswirksamer körperlicher Aktivität für alle Kinder. KW - physical fitness KW - school-aged children KW - living area KW - sports club participation KW - socioeconomic status KW - motorische Leistungsfähigkeit KW - Grundschüler/innen KW - Wohngegend KW - Sportvereinsmitgliedschaft KW - sozioökonomischer Status Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85949 ER - TY - THES A1 - Grubic, Mira T1 - Focus and alternative sensitivity in Ngamo (West-Chadic) T1 - Fokus und Alternativensensitivität in Ngamo (Westtschadisch) N2 - The main research question of this thesis concerns the relation between focus interpretation, focus realization, and association with focus in the West Chadic language Ngamo. Concerning the relation between focus realization and interpretation, this thesis contributes to the question, cross-linguistically, what factors influence a marked realization of the focus/background distinction. There is background-marking rather than focus-marking in Ngamo, and the background marker is related to the definite determiner in the language. Using original fieldwork data as a basis, a formal semantic analysis of the background marker as a definite determiner of situations is proposed. Concerning the relation between focus and association with focus, the thesis adds to the growing body of crosslinguistic evidence that not all so-called focus-sensitive operators always associate with focus. The thesis shows that while the exclusive particle yak('i) (= "only") in Ngamo conventionally associates with focus, the particles har('i) (= "even, as far as, until, already"), and ke('e) (= "also, and") do not. The thesis provides an analysis of these phenomena in a situation semantic framework. N2 - Diese Arbeit untersucht die Verbindung zwischen Fokusinterpretation, Fokusrealisierung und Assoziation mit Fokus in der westtschadischen Sprache Ngamo. Was den Zusammenhang zwischen Fokusinterpretation und -realisierung angeht, leistet diese Arbeit einen Beitrag zu der Frage, welche Faktoren in verschiedenen Sprachen für markierte Realisierung von Fokus zuständig sind. Ngamo ist in diesem Zusammenhang besonders interessant, da es Hintergrundierung statt Fokus markiert (Schuh, 2005). Was den Zusammenhang zwischen Fokus und Assoziation mit Fokus angeht, liefert die Arbeit weitere Evidenz dafür, dass sogenannte fokussensitive Partikeln nicht in allen Sprachen obligatorisch mit Fokus assoziieren müssen. Sie zeigt dass obwohl die Partikel yak'i ("nur") in Ngamo konventionell mit Fokus assoziiert, die Partikeln har('i) (= "sogar, bis, schon") und ke('e) (= "auch, und") dies nicht tun. Die Arbeit analysiert diese Phänomene mit Hilfe eines situationssemantischen Ansatzes. KW - focus KW - focus-sensitivity KW - formal semantics KW - African languages KW - definiteness KW - situation semantics KW - Fokus KW - Fokussensitivität KW - formale Semantik KW - Situationssemantik KW - afrikanische Sprachen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81666 ER - TY - THES A1 - Grygiel, Konrad T1 - Poly(ionic liquid) stabilizers and new synthetic approaches T1 - Polyionische Flüssigkeiten als Stabilisatoren und neue Synthesewege N2 - The main focus of the present thesis was to investigate the stabilization ability of poly(ionic liquid)s (PILs) in several examples as well as develop novel chemical structures and synthetic routes of PILs. The performed research can be specifically divided into three parts that include synthesis and application of hybrid material composed of PIL and cellulose nanofibers (CNFs), thiazolium-containing PILs, and main-chain imidazolium-type PILs. In the first chapter, a vinylimidazolium-type IL was polymerized in water in the presence of CNFs resulting in the in situ electrostatic grafting of polymeric chains onto the surface of CNFs. The synthesized hybrid material merged advantages of its two components, that is, superior mechanical strength of CNFs and anion dependent solution properties of PILs. In contrast to unmodified CNFs, the hybrid could be stabilized and processed in organic solvents enabling its application as reinforcing agent for porous polyelectrolyte membranes. In the second part, PILs and ionic polymers containing two types of thiazolium repeating units were synthesized. Such polymers displayed counterion dependent thermal stability and solubility in organic solvents of various dielectric constants. This new class of PILs was tested as stabilizers and phase transfer agents for carbon nanotubes in aqueous and organic media, and as binder materials to disperse electroactive powders and carbon additives in solid electrode in lithium-ion batteries. The incorporation of S and N atoms into the polymeric structures make such PILs also potential precursors for S, N - co-doped carbons. In the last chapter, reactants originating from biomass were successfully harnessed to synthesize main-chain imidazolium-type PILs. An imidazolium-type diester IL obtained via a modified Debus-Radziszewski reaction underwent transesterification with diol in a polycondensation reaction. This yielded a polyester-type PIL which CO2 sorption properties were investigated. In the next step, the modified Debus-Radziszewski reaction was further applied to synthesize main-chain PILs according to a convenient, one-step protocol, using water as a green solvent and simple organic molecules as reagents. Depending on the structure of the employed diamine, the synthesized PILs after anion exchange showed superior thermal stability with unusually high carbonization yields. Overall, the outcome of these studies will actively contribute to the current research on PILs by introducing novel PIL chemical structures, improved synthetic routes, and new examples of stabilized materials. The synthesis of main-chain imidazolium-type PILs by a modified Debus-Radziszewski reaction is of a special interest for the future work on porous ionic liquid networks as well as colloidal PIL nanoparticles. N2 - Im Mittelpunkt der vorliegenden Arbeit stand die Entwicklung neuer polymerer ionischen Flüssigkeiten (PILs) mittels neuer Synthesewege als auch auf diesen PILs basierenden Kompositmaterialien. Die hergestellten Materialien wurden folgend hinsichtlich ihrer Tauglichkeit als Stabilisatoren, Phasentransferreagenzien, „binder“ oder CO2-Absorber untersucht. Die Untersuchungen lassen sich in drei Teile untergliedern und beinhalten Herstellung und Anwendungsuntersuchungen von Hybridmaterialien basierend auf PILs und Cellulosefasern im Nanometerbereich (CNF), von PILs mit Thiazoliumgruppen und schließlich PILs welche teilweise oder vollständig aus Biomaterialien hergestellt wurden mit Imidazoliumgruppen in der Hauptkette. In Gegenwart von CNF wurde eine vinylimidazoliumbasierte ionische Flüssigkeit (IL) in Wasser polymerisiert. Dies führte in situ zu einem elektrostatischen angraften der Ketten auf der Oberfläche der CNFs. Diese Kompositmaterialien vereinigen die Vorteile beider Komponenten, die außerordentliche mechanische Stabilität der CNFs und die vielseitigen mittels Gegenionen einstellbaren Lösungseigenschaften der PIL. Beispielsweise können diese Hybridmaterialien im Gegensatz zu den unmodifizierten CNFs in organischen Lösungsmitteln und somit zur Verstärkung für poröse Polyelektrolytmembranen eingesetzt werden. Im zweiten Teil wurden PILs und ioniosche Polymere synthetisiert mit Thiazoliumkationen in den Monomerbausteinen. Diese Polymere zeigten eine vom Gegenion abhängige thermische Stabilität und Löslichkeit in Lösungsmitteln verschiedenster Dielektrizitätskonstanten. Diese neue Klasse der PILs bzw. ionischen Polymere wurde hinsichtlich der Nutzbarkeit als Vorläufer für Stickstoff- und Schwefel-codotierte Kohlenstoffsysteme, Stabilisator sowie Phasentransferreagenz für „carbon nanotubes“ in wässrigem und organischen Lösungsmitteln und „binder“ für Elektrodenmaterialien in Lithiumionenbatterien. Im letzten Teil wurden aus Biomaterialien die Ausgangsstoffe für PILs mit imidazoliumbasierter Hauptkette gewonnen. Hierzu wurde der imidazoliumbasierende Diester mittels abgewandelter Debus-Radziszewski-Reaktion gewonnen und eine Umesterung mittels eines ebenfalls aus Biomaterialien stammenden Diols vorgenommen. Die erhaltene polyesterbasierte PIL wurde folgend hinsichtlich ihres CO2 – Absorbtionspotentials untersucht. Die geänderte Debus-Radziszewski-Reaktion wurde folgend für eine PIL-Einstufensynthese mit Wasser als grünem Lösungsmittel und einfachen hauptsächlich aus Biomasse gewonnen Reagenzien herangezogen. Abhängig von den eingesetzten Diaminen und Gegenionen konnten für die hergestellten PILs hervorragende thermische Stabilitäten oder beträchtliche Karbonisierungsausbeuten erreicht werden, welche für PILs zu den höchsten publizierten Werten in der Literatur zählen. Die vorgelegten Studien stellen einen wichtigen Beitrag auf dem Gebiet der PIL-Forschung dar mit neuen PIL-Strukturen, verbesserten Synthesewegen und neuen Stabilisierungsmöglichkeiten. Die Synthese der Hauptkettenimidazolium-PIL mittels angepasster Debus-Radziszewski-Reaktion ist eine vielversprechende Methode sowohl für die Herstellung poröser IL-Netzwerke als auch kolloidaler PIL-Nanopartikel. KW - ionic polymers KW - polymerised ionic liquids KW - ionic liquids KW - Debus-Radziszewski polymerization KW - thiazolium KW - ionische Flüssigkeit KW - Thiazol-Salze KW - ionischen Polymere KW - elektroaktive Polymere Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80367 ER - TY - THES A1 - Hanf, Franziska Stefanie T1 - South Asian summer monsoon variability: a modelling study with the atmospheric regional climate model HIRHAM5 T1 - Variabilität des Südasiatischen Sommermonsuns: eine Modellstudie mit dem regionalen Atmosphärenmodell HIRHAM5 N2 - The lives of more than 1/6 th of the world population is directly affected by the caprices of the South Asian summer monsoon rainfall. India receives around 78 % of the annual precipitation during the June-September months, the summer monsoon season of South Asia. But, the monsoon circulation is not consistent throughout the entire summer season. Episodes of heavy rainfall (active periods) and low rainfall (break periods) are inherent to the intraseasonal variability of the South Asian summer monsoon. Extended breaks or long-lasting dryness can result in droughts and hence trigger crop failures and in turn famines. Furthermore, India's electricity generation from renewable sources (wind and hydro-power), which is increasingly important in order to satisfy the rapidly rising demand for energy, is highly reliant on the prevailing meteorology. The major drought years 2002 and 2009 for the Indian summer monsoon during the last decades, which are results of the occurrence of multiple extended breaks, emphasise exemplary that the understanding of the monsoon system and its intraseasonal variation is of greatest importance. Although, numerous studies based on observations, reanalysis data and global model simulations have been carried out with the focus on monsoon active and break phases over India, the understanding of the monsoon intraseasonal variability is only in the infancy stage. Regional climate models could benefit the comprehension of monsoon breaks by its resolution advantage. This study investigates moist dynamical processes that initiate and maintain breaks during the South Asian summer monsoon using the atmospheric regional climate model HIRHAM5 at a horizontal resolution of 25 km forced by the ECMWF ERA Interim reanalysis for the period 1979-2012. By calculating moisture and moist static energy budgets the various competing mechanisms leading to extended breaks are quantitatively estimated. Advection of dry air from the deserts of western Asia towards central India is the dominant moist dynamical process in initiating extended break conditions over South Asia. Once initiated, the extended breaks are maintained due to many competing mechanisms: (i) the anomalous easterlies at the southern flank of this anticyclonic anomaly weaken the low-level cross-equatorial jet and thus the moisture transport into the monsoon region, (ii) differential radiative heating over the continental and the oceanic tropical convergence zone induces a local Hadley circulation with anomalous rising over the equatorial Indian Ocean and descent over central India, and (iii) a cyclonic response to positive rainfall anomalies over the near-equatorial Indian Ocean amplifies the anomalous easterlies over India and hence contributes to the low-level divergence over central India. A sensitivity experiment that mimics a scenario of higher atmospheric aerosol concentrations over South Asia addresses a current issue of large uncertainty: the role aerosols play in suppressing monsoon rainfall and hence in triggering breaks. To study the indirect aerosol effects the cloud droplet number concentration was increased to imitate the aerosol's function as cloud condensation nuclei. The sensitivity experiment with altered microphysical cloud properties shows a reduction in the summer monsoon precipitation together with a weakening of the South Asian summer monsoon. Several physical mechanisms are proposed to be responsible for the suppressed monsoon rainfall: (i) according to the first indirect radiative forcing the increase in the number of cloud droplets causes an increase in the cloud reflectivity of solar radiation, leading to a climate cooling over India which in turn reduces the hydrological cycle, (ii) a stabilisation of the troposphere induced by a differential cooling between the surface and the upper troposphere over central India inhibits the growth of deep convective rain clouds, (iii) an increase of the amount of low and mid-level clouds together with a decrease in high-level cloud amount amplify the surface cooling and hence the atmospheric stability, and (iv) dynamical changes of the monsoon manifested as a anomalous anticyclonic circulation over India reduce the moisture transport into the monsoon region. The study suggests that the changes in the total precipitation, which are dominated by changes in the convective precipitation, mainly result from the indirect radiative forcing. Suppression of rainfall due to the direct microphysical effect is found to be negligible over India. Break statistics of the polluted cloud scenario indicate an increase in the occurrence of short breaks (3 days), while the frequency of extended breaks (> 7 days) is clearly not affected. This disproves the hypothesis that more and smaller cloud droplets, caused by a high load of atmospheric aerosols trigger long drought conditions over central India. N2 - Das Leben von mehr als 1/6 der Weltbevölkerung wird direkt von den Kapriolen des Südasiatischen Sommermonsuns beeinflusst. Während der Sommermonsunzeit Südasiens von Juni bis September fällt allein in Indien ungefähr 78 % des Gesamtjahresniederschlags. Jedoch kennzeichnet der Monsun keine Phase von Dauerregenfällen. Vielmehr ist er von einzelnen Perioden mit hohen Niederschlagsmengen (aktive Monsunphasen) und geringen Niederschlagsmengen (Monsun-Unterbrechungsphasen) geprägt. Langanhaltende Monsun-Unterbrechungen können zu Dürren und damit zu Ernteausfällen, Hungersnöten und Einbußen in der Wirtschaft des Landes führen. Ebenso ist Indiens Stromerzeugung aus erneuerbaren Energien (Wind- und Wasserkraft), die eine Schlüsselkomponente in Indiens zukünftiger Energiestrategie spielt, direkt von den vorherrschenden Wettersituationen abhängig. Daher ist die Erforschung der intrasaisonalen Variabilität des Süd-asiatischen Sommermonsuns von enormer Wichtigkeit. Obwohl bereits zahlreiche Studien mit Fokus auf dem Wechsel von Aktiv- und Unterbrechungsphasen unter Verwendung von Beobachtungs- und Reanalysedaten und globalen Modellsimulationen existieren, steckt das Verständnis der intrasaisonalen Variabilität des Südasiatischen Sommermonsuns in seinen Anfängen. Die höhere Auflösung von Simulationen mit regionalen Klimamodellen kann zu einer Verbesserung des Verständnisses der Ursache von langanhaltenden Monsun-Unterbrechungsphasen beitragen. In dieser Arbeit werden speziell die feucht-dynamischen Prozesse, die Unterbrechungsphasen des Südasiatischen Sommermonsuns über Indien initiieren und aufrechterhalten, mit Hilfe des regionalen Atmosphärenmodells HIRHAM5 untersucht. Die Durchführung von Budget Studien ermöglicht die quantitative Abschätzung der verschiedenen konkurrierenden Mechanismen. Advektion von trockener Luft aus den Wüsten Westasiens nach Zentral-Indien wird als der dominierende Prozess für die Entstehung von Monsun-Unterbrechungen identifiziert. Diese Studie zeigt, dass für die Aufrechterhaltung von Unterbrechungsphasen abweichende Zirkulationsstrukturen, ausgelöst durch anormale strahlungsbedingte Erwärmungsmuster, verantwortlich sind. Zum einen beeinträchtigen abgeschwächte Westwinde über Süd-Indien und dem Arabischen Meer den Feuchtigkeitstransport in die Monsunregion, zum anderen führt eine lokal ausgeprägte Hadley-Zelle mit aufsteigenden (absinkenden) Luftmassen über dem zentralen äquatorialen Indischen Ozean (Zentral-Indien) zur Zunahme der atmosphärischen Stabilität und somit zur Hemmung von vertikalem Wolkenwachstum über Zentral-Indien. Gegenwärtige Studien beschäftigen sich mit der Frage, ob hohe Konzentrationen an atmosphärischen Aerosolen lange Dürreperioden über Indien steuern können. Ein durchgeführtes Sensitivitätsexperiment, welches ein Szenario von erhöhten atmosphärischen Aerosolkonzentrationen durch eine veränderte Anzahl an Wolkentropfen über Südasien imitiert, analysiert die Auswirkungen indirekter Aerosoleffekte auf den mittleren Südasiatischen Sommermonsun und dessen intrasaisonaler Variabilität. Die Zunahme der Wolkentropfenkonzentration führt in Zusammenhang mit einer Abschwächung des Südasiatischen Sommermonsuns zu einer Reduktion der Sommerniederschläge über Zentral-Indien. Das Experiment zeigt, dass die Unterdrückung der Monsunregenfälle hauptsächlich durch eine gehemmte Bildung von hochreichenden Konvektionswolken durch die indirekte Strahlungswirkung von Aerosolen hervorgerufen wird. Eine statistische Analyse der Häufigkeit von Monsun-Unterbrechungsphasen in dem „verschmutzten“ Wolkenszenario zeigt zwar eine Zunahme in dem Vorkommen von kurzen Monsun-Unterbrechungsphasen (3 Tage), jedoch eine Abnahme in der Häufigkeit von langanhaltenden Monsun-Unterbrechungsphasen (> 7 Tage). Dies führt zu der Schlussfolgerung, dass mehr und kleinere Wolkentropfen, verursacht durch hohe atmosphärischen Aerosolansammlungen, keine ausgedehnten Trockenphasen über Zentral-Indien auslösen. KW - South Asian summer monsoon KW - monsoon breaks KW - moist static energy KW - regional climate model KW - model tuning KW - aerosols KW - Südasiatischen Sommermonsun KW - Monsun-Unterbrechungen KW - Indien KW - Budgetstudien KW - Aerosole Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89331 ER - TY - THES A1 - Helpa, Vanessa T1 - Interplay between mineral reaction and deformation via structural defects T1 - Wechselwirkung von Mineralreaktion und Deformation durch Strukturdefekte N2 - This thesis contains three experimental studies addressing the interplay between deformation and the mineral reaction between natural calcite and magnesite. The solid-solid mineral reaction between the two carbonates causes the formation of a magnesio-calcite precursor layer and a dolomite reaction rim in every experiment at isostatic annealing and deformation conditions. CHAPTER 1 briefly introduces general aspects concerning mineral reactions in nature and diffusion pathways for mass transport. Moreover, results of previous laboratory studies on the influence of deformation on mineral reactions are summarized. In addition, the main goals of this study are pointed out. In CHAPTER 2, the reaction between calcite and magnesite single crystals is examined at isostatic annealing conditions. Time series performed at a fixed temperature revealed a diffusion-controlled dolomite rim growth. Two microstructural domains could be identified characterized by palisade-shaped dolomite grains growing into the magnesite and granular dolomite growing towards calcite. A model was provided for the dolomite rim growth based on the counter-diffusion of CaO and MgO. All reaction products exhibited a characteristic crystallographic relationship with respect to the calcite reactant. Moreover, kinetic parameters of the mineral reaction were determined out of a temperature series at a fixed time. The main goal of the isostatic test series was to gain information about the microstructure evolution, kinetic parameters, chemical composition and texture development of the reaction products. The results were used as a reference to quantify the influence of deformation on the mineral reaction. CHAPTER 3 deals with the influence of non-isostatic deformation on dolomite and magnesio-calcite layer production between calcite and magnesite single crystals. Deformation was achieved by triaxial compression and by torsion. Triaxial compression up to 38 MPa axial stress at a fixed time showed no significant influence of stress and strain on dolomite formation. Time series conducted at a fixed stress yield no change in growth rates for dolomite and magnesio-calcite at low strains. Slightly larger magnesio-calcite growth rates were observed at strains above >0.1. High strains at similar stresses were caused by the activation of additional glide systems in the calcite single crystal and more mobile dislocations in the magnesio-calcite grains, providing fast diffusion pathways. In torsion experiments a gradual decrease in dolomite and magnesio-calcite layer thickness was observed at a critical shear strain. During deformation, crystallographic orientations of reaction products rearranged with respect to the external framework. A direct effect of the mineral reaction on deformation could not be recognized due to the relatively small reaction product widths. In CHAPTER 4, the influence of starting material microfabrics and the presence of water on the reaction kinetics was evaluated. In these experimental series polycrystalline material was in contact with single crystals or two polycrystalline materials were used as reactants. Isostatic annealing resulted in different dolomite and magnesio-calcite layer thicknesses, depending on starting material microfabrics. The reaction progress at the magnesite interface was faster with smaller magnesite grain size, because grain boundaries provided fast pathways for diffusion and multiple nucleation sites for dolomite formation. Deformation by triaxial compression and torsion yield lower dolomite rim thicknesses compared to annealed samples for the same time. This was caused by grain coarsening of polycrystalline magnesite during deformation. In contrast, magnesio-calcite layers tended to be larger during deformation, which triggered enhanced diffusion along grain boundaries. The presence of excess water had no significant influence on the reaction kinetics, at least if the reactants were single crystals. In CHAPTER 5 general conclusions about the interplay between deformation and the mineral reaction in the carbonate system are presented. Finally, CHAPTER 6 highlights possible future work in the carbonate system based on the results of this study. N2 - Die vorliegende Arbeit umfasst drei experimentelle Studien die sich mit der Wechselwirkung von Mineralreaktion und Deformation zwischen natürlichem Kalzit und Magnesit befassen. Die fest-fest Mineralreaktion zwischen den Karbonaten führt zur Entstehung einer Magnesio-Kalzit Vorläuferphase und zur Entstehung eines Dolomit Reaktionssaumes in allen durchge-führten Experimenten sowohl unter isostatischen Bedingungen als auch während der Defor-mation. Im ersten Kapitel werden die grundlegenden Aspekte hinsichtlich Mineralreaktionen in der Natur und Diffusion angeführt. Weiterhin werden Resultate von vorherigen Studien bezüglich des Einflusses von Deformation auf Mineralreaktionen zusammengefasst. Außerdem werden die Hauptziele dieser Studie aufgezeigt. Im zweiten Kapitel wird die Mineralreaktion zwischen Kalzit und Magnesit Einkristallen unter isostatischen Bedingungen untersucht. Zeitserien bei einer festgelegten Temperatur zeigten ein diffusionskontrolliertes Dolomitsaumwachstum. Die Mikrostruktur des Dolomitsaums ist durch zwei unterschiedliche Bereiche charakterisiert. Palisadenartige Dolomitkörner wachsen in den Magnesit und granulare Dolomitkörner wachsen in Richtung des Kalzits. Ein Model für das Dolomitsaumwachstum wurde angewandt, basierend auf der Gegendiffusion von CaO und MgO. Alle Reaktionsprodukte zeigten eine bestimmte kristallographische Beziehung in Hinblick auf den Kalzitreaktanten. Des Weiteren wurden die kinetischen Parameter für die Mineralreaktion durch Temperaturserien bei einer festen Versuchslaufzeit bestimmt. Das Hauptziel der isostatischen Testserie bestand darin Informationen über die mikrostrukturelle Entwicklung, die kinetischen Parameter, die chemische Zusammensetzung und die texturelle Entwicklung der Reaktionsprodukte zu gewinnen. Die Resultate dienten als Referenz um den Einfluss der Deformation auf die Mineralreaktion zu quantifizieren. Kapitel drei befasst sich mit dem Effekt von nicht-isostatischer Deformation auf die Bildungen von Dolomit und Magnesio-Kalzit zwischen Kalzit und Magnesit Einkristallen. Deformation wurde entweder durch triaxiale Kompression oder durch Torsion erreicht. Triaxiale Kompression bis zu 38 MPa axialer Spannung bei festgelegter Zeit zeigte keinen signifikanten Einfluss von Spannung und Verformung auf die Dolomitproduktion. Eine Zeitserie bei ähnlichen axialen Spannungen und geringen Verformungen resultierten in vergleichbaren Wachstumsraten für Dolomit und Magnesio-Kalzit wie unter isostatischen Bedingungen. Geringfügig schnellere Wachstumsraten für den Magnesio-Kalzit traten in Experimenten auf bei denen die Verformung größer als 0.1 war. Hohe Verformungen bei ähnlichen Spannungen wurde durch die Aktivierung zusätzlicher Gleitsysteme im Kalzit Einkristall und mobile Versetzungen im Magnesio-Kalzit erreicht, welche schnelle Wege für Diffusion bereitstellen. In Torsionsexperimenten wurde eine graduelle Abnahme der Dolomitsaumdicke und des Magnesio-Kalzits beim Überschreiten einer kritischen Scherverformung festgestellt. Während der Deformation kam es zu einer Umorientierung der kristallographischen Achsen von Dolomit und Magnesio-Kalzit hinsichtlich des externen Bezugsystems. Ein direkter Effekt der Mineralreaktion auf die Deformation konnte auf Grund der relative geringen Reaktionsproduktdi-cke nicht gesehen werden. Im vierten Kapitel wurden der Korngrößeneinfluss des Ausgangsmaterials sowie die Anwesenheit von Wasser auf die Reaktionskinetik getestet. In dieser Testserie wurde polykristallines Material in Kontakt zu Einkristallen gebracht oder zwei polykristalline Materialien wurden als Reaktanten benutzt. Isostatisches Ausheizen resultierte in verschiedenen Dolomitsaum- und Magnesio-Kalzitdicken in Abhängigkeit der Korngröße der Reaktanten. Bei kleinen Korngrößen des Magnesits war der Reaktionsfortschritt erhöht, da Korngrenzen Wege für schelle Diffusion boten und viele Nukleationskeime erlaubten. Im Gegensatz zu isostatischen Bedingungen führten triaxiale Kompression und Torsion zu geringen Dolomitsaumdi-cken. Die Ursache hierfür war auftretendes Kornwachstum im polykristallinen Magnesit während der Deformation. Für den Magnesio-Kalzit wurde ein beschleunigtes Wachstum während der Deformation festgestellt, da der Massentransport entlang von Korngrenzen begünstigt wurde. Die Reaktionskinetik zwischen zwei Einkristallen wurde durch die Anwesenheit von zusätzlichem Wasser nicht signifikant beeinflusst. Das fünfte Kapitel enthält die generellen Schlussfolgerungen die für die Wechselwirkung von Mineralreaktion und Deformation im Karbonatsystem getroffen werden konnten. Basierend auf den Resultaten dieser Studie zeigt Kapitel sechs abschließend auf, welche Möglichkeiten es für zukünftige Arbeiten im Karbonatsystem gibt. KW - carbonates KW - deformation KW - mineral reaction KW - Karbonate KW - Deformation KW - Mineralreaktion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90332 ER - TY - THES A1 - Hildebrandt, Dominik T1 - The HI Lyman-alpha opacity at redshift 2.7 < z < 3.6 T1 - Die HI-Lyman-α-Opazität im Rotverschiebungsbereich 2.7 < z < 3.6 N2 - Most of the baryonic matter in the Universe resides in a diffuse gaseous phase in-between galaxies consisting mostly of hydrogen and helium. This intergalactic medium (IGM) is distributed in large-scale filaments as part of the overall cosmic web. The luminous extragalactic objects that we can observe today, such as galaxies and quasars, are surrounded by the IGM in the most dense regions within the cosmic web. The radiation of these objects contributes to the so-called ultraviolet background (UVB) which keeps the IGM highly ionized ever since the epoch of reionization. Measuring the amount of absorption due to intergalactic neutral hydrogen (HI) against extragalactic background sources is a very useful tool to constrain the energy input of ionizing sources into the IGM. Observations suggest that the HI Lyman-alpha effective optical depth, τ_eff, decreases with decreasing redshift, which is primarily due to the expansion of the Universe. However, some studies find a smaller value of the effective optical depth than expected at the specific redshift z~3.2, possibly related to the complete reionization of helium in the IGM and a hardening of the UVB. The detection and possible cause of a decrease in τ_eff at z~3.2 is controversially debated in the literature and the observed features need further explanation. To better understand the properties of the mean absorption at high redshift and to provide an answer for whether the detection of a τ_eff feature is real we study 13 high-resolution, high signal-to-noise ratio quasar spectra observed with the Ultraviolet and Visual Echelle Spectrograph (UVES) at the Very Large Telescope (VLT). The redshift evolution of the effective optical depth, τ_eff(z), is measured in the redshift range 2.7≤z≤3.6. The influence of metal absorption features is removed by performing a comprehensive absorption-line-fitting procedure. In the first part of the thesis, a line-parameter analysis of the column density, N, and Doppler parameter, b, of ≈7500 individually fitted absorption lines is performed. The results are in good agreement with findings from previous surveys. The second (main) part of this thesis deals with the analysis of the redshift evolution of the effective optical depth. The τ_eff measurements vary around the empirical power law τ_eff(z)~(1+z)^(γ+1) with γ=2.09±0.52. The same analysis as for the observed spectra is performed on synthetic absorption spectra. From a comparison between observed and synthetic spectral data it can be inferred that the uncertainties of the τ_eff values are likely underestimated and that the scatter is probably caused by high-column-density absorbers with column densities in the range 15≤logN≤17. In the real Universe, such absorbers are rarely observed, however. Hence, the difference in τ_eff from different observational data sets and absorption studies is most likely caused by cosmic variance. If, alternatively, the disagreement between such data is a result of an too optimistic estimate of the (systematic) errors, it is also possible that all τ_eff measurements agree with a smooth evolution within the investigated redshift range. To explore in detail the different analysis techniques of previous studies an extensive literature comparison to the results of this work is presented in this thesis. Although a final explanation for the occurrence of the τ_eff deviation in different studies at z~3.2 cannot be given here, our study, which represents the most detailed line-fitting analysis of its kind performed at the investigated redshifts so far, represents another important benchmark for the characterization of the HI Ly-alpha effective optical depth at high redshift and its indicated unusual behavior at z~3.2. N2 - Der Großteil der baryonischen Materie des Universums, die im Wesentlichen aus Wasserstoff und Helium besteht, befindet sich in Form von diffusem Gas zwischen den Galaxien. Dieses intergalaktische Medium (IGM) bildet großräumige Strukturen aus, dessen Filamente als "kosmisches Netz" bezeichnet werden. Die leuchtkräftigen extragalaktischen Objekte, die man heutzutage beobachten kann (z.B. Galaxien und Quasare), sind von diesem IGM umgeben und befinden sich in den dichtesten Regionen innerhalb des kosmischen Netzes. Die von diesen Objekten ausgehende ultraviolette (UV) Strahlung ist Bestandteil des UV-Strahlungshintergrunds, der seit der Reionisationsphase den hochionisierten Zustand des IGM aufrecht hält. Eine Auswertung des absorbierten Strahlungsanteils durch den noch im IGM vorhandenen neutralen Wasserstoff (HI) entlang der Sichtlinie zu einer beobachteten extragalaktischen Hintergrundquelle lässt auf den Energieeintrag der Strahlungsquellen ins IGM schließen. Aus geeigneten Messdaten lässt sich schlussfolgern, dass sich die effektive optische Tiefe von HI (Ly-alpha Übergang) mit abnehmender Rotverschiebung verringert, was im Wesentlichen auf die Expansion des Universums zurückzuführen ist. Einige Arbeiten finden jedoch bei der ausgewiesenen Rotverschiebung z~3.2 einen kleineren Wert für die effektive optische Tiefe als erwartet, ein Trend der möglicherweise mit der vollständigen Reionisation von Helium im IGM und einem Anstieg der Intensität des UV-Hintergrunds in Verbindung steht. Die Detektion und mögliche Ursache einer Abnahme der effektiven optischen Tiefe bei z~3.2 ist in der Literatur kontrovers diskutiert und die beobachteten Besonderheiten machen eine weitere Untersuchung erforderlich. Um die Eigenschaften der mittleren Absorption bei hoher Rotverschiebung besser zu verstehen und um einen Lösungsansatz für die Debatte zu liefern, untersuchen wir 13 hoch aufgelöste Quasarabsorptionsspektren mit einem hohen Signal-zu-Rauschen Verhältnis, die mit dem Instrument UVES des Very Large Telescope (VLT) aufgenommen wurden. Die Entwicklung der effektiven optischen Tiefe wird im Rotverschiebungsbereich 2.7≤z≤3.6 gemessen. Die Messung wird um den Beitrag von Metallen durch die detaillierte Anpassung von Linienprofilen an die beobachtete Absorption korrigiert. Im ersten Teil der Arbeit wird eine Auswertung der Parameter der ≈7500 einzeln angepassten Absorptionslinien (Säulendichte N und Doppler-Parameter b) vorgenommen. Die entsprechenden Ergebnisse stimmen im Rahmen der Messunsicherheiten mit Literaturwerten überein. Der Hauptteil der Arbeit beschäftigt sich mit der Berechnung der effektiven optischen Tiefe in Abhängigkeit von der Rotverschiebung τ_eff(z). Es stellt sich heraus, dass die τ_eff-Messwerte um ein empirisches Potengesetz der Form τ_eff(z)~(1+z)^(γ+1) mit γ=2.09±0.52 streuen. Die gleiche Auswertung wie für die Beobachtungsdaten wird für synthetische Spektren durchgeführt. Ein Vergleich dieser Daten legt nahe, dass die Größe der Unsicherheiten der τ_eff-Messwerte wahrscheinlich unterschätzt wird und dass die Streuung der Datenpunkte auf Absorber hoher Säulendichte (15≤logN≤17) zurückzuführen ist. Solche Absorber sind im beobachtbaren Universum jedoch selten, sodass der Unterschied in den τ_eff-Messwerten bei verschiedenen Zusammenstellungen von Beobachtungsdaten und Studien zum Absorptionsverhalten höchstwahrscheinlich durch kosmische Varianz bedingt ist. Sollte jedoch die fehlende Übereinstimmung dieser Daten eine Folge zu optimistischer (systematischer) Fehlerabschätzungen sein, so ist es ebenfalls denkbar, dass die τ_eff-Messwerte mit einer gleichmäßigen Entwicklung über den untersuchten Rotverschiebungsbereich hinweg konsistent sind. Um die wesentlichen Unterschiede in den Untersuchungsmethoden vorheriger Studien zu untersuchen, wird in dieser Arbeit ein umfassender Vergleich der Ergebnisse dieser Arbeit mit entsprechender Literatur vorgenommen. Eine endgültige Erklärung für das Auftreten einer Abweichung in τ_eff(z) vom empirischen Potenzgesetz, wie sie von einigen Studien bei z~3.2 gefunden wurde, kann in dieser Arbeit zwar nicht gegeben werden, dennoch stellt sie die bislang umfassendste Parameterbestimmung von Absorptionslinien ihrer Art im untersuchten Rotverschiebungsbereich dar. Sie ist somit ein weiterer wichtiger Schritt in Richtung des ganzheitlichen Verständnisses der effektiven optischen Tiefe bei hohen Rotverschiebungen und deren möglicherweise ungewöhnlichem Verlauf bei z~3.2. KW - intergalactic medium KW - cosmology: observations KW - methods: data analysis KW - methods: statistical KW - quasars: absorption lines KW - intergalaktisches Medium KW - Kosmologie: Beobachtungen KW - Methoden: Datenauswertung KW - Methoden: statistisch KW - Quasare: Absorptionslinien Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78355 ER - TY - THES A1 - Hogenacker, Jens T1 - Essays on the transition from unemployment to employment with a special emphasis on start-up subsidies in Germany T1 - Essays über den Übergang von Arbeitslosikgeit zu Beschäftigung mit einem Fokus auf Gründungsförderung in Deutschland N2 - The promotion of self-employment as part of active labor market policies is considered to be one of the most important unemployment support schemes in Germany. Against this background the main part of this thesis contributes to the evaluation of start-up support schemes within ALMP. Chapter 2 and 4 focus on the evaluation of the New Start-up Subsidy (NSUS, Gründungszuschuss) in its first version (from 2006 to the end of 2011). The chapters offer an advancement of the evaluation of start-up subsidies in Germany, and are based on a novel data set of administrative data from the Federal Employment Agency that was enriched with information from a telephone survey. Chapter 2 provides a thorough descriptive analysis of the NSUS that consists of two parts. First, the participant structure of the program is compared with the one of two former programs. In a second step, the study conducts an in-depth characterization of the participants of the NSUS focusing on founding motives, the level of start-up capital and equity used as well as the sectoral distribution of the new business. Furthermore, the business survival, income situation of founders and job creation by the new businesses is analyzed during a period of 19 months after start-up. The contribution of Chapter 4 is to introduce a new explorative data set that allows comparing subsidized start-ups out of unemployment with non-subsidized business start-ups that were founded by individuals who were not unemployed at the time of start-up. Because previous evaluation studies commonly used eligible non-participants amongst the unemployed as control group to assess the labor market effects of the start-up subsidies, the corresponding results hence referred to the effectiveness of the ALMP measure, but could not address the question whether the subsidy leads to similarly successful and innovative businesses compared to non-subsidized businesses. An assessment of this economic/growth aspect is also important, since the subsidy might induce negative effects that may outweigh the positive effects from an ALMP perspective. The main results of Chapter 4 indicate that subsidized founders seem to have no shortages in terms of formal education, but exhibit less employment and industry-specific experience, and are less likely to benefit from intergenerational transmission of start-ups. Moreover, the study finds evidence that necessity start-ups are over-represented among subsidized business founders, which suggests disadvantages in terms of business preparation due to possible time restrictions right before start-up. Finally, the study also detects more capital constraints among the unemployed, both in terms of the availability of personal equity and access to loans. With respect to potential differences between both groups in terms of business development over time, the results indicate that subsidized start-ups out of unemployment face higher business survival rates 19 months after start-up. However, they lag behind regular business founders in terms of income, business growth, and innovation. The arduous data collection process for start-up activities of non-subsidized founders for Chapter 4 made apparent that Germany is missing a central reporting system for business formations. Additionally, the different start-up reporting systems that do exist exhibit substantial discrepancies in data processing procedures, and therefore also in absolute numbers concerning the overall start-up activity. Chapter 3 is therefore placed in front of Chapter 4 and has the aim to provide a comprehensive review of the most important German start-up reporting systems. The second part of the thesis consists of Chapter 5 which contributes to the literature on determinants of job search behavior of the unemployed individuals by analyzing the effectiveness of internet search with regard to search behavior of unemployed individuals and subsequent job quality. The third and final part of the thesis outlines why the German labor market reacted in a very mild fashion to the Great Recession 2008/09, especially compared to other countries. Chapter 6 describes current economic trends of the labor market in light of general trends in the European Union, and reveals some of the main associated challenges. Thereafter, recent reforms of the main institutional settings of the labor market which influence labor supply are analyzed. Finally, based on the status quo of these institutional settings, the chapter gives a brief overview of strategies to adequately combat the challenges in terms of labor supply and to ensure economic growth in the future. N2 - Die vorliegende kumulative Dissertation leistet einen Beitrag zur Forschungsliteratur im Bereich der Evaluation aktiver Arbeitsmarktpolitik in Deutschland. Der erste und größte Teil der Dissertation besteht aus zwei voneinander unabhängigen und in sich abgeschlossenen Forschungspapieren (Kapitel 2 und 4), die sich mit der Gründungsförderung für Arbeitslose im Rechtskreis des SGB III auseinandersetzen. Die Untersuchungen konzentrieren sich dabei auf das Instrument des Gründungszuschusses (GZ) in seiner institutionellen Ausgestaltung von 2006 bis 2011. Kapitel 2 führt zunächst eine ausführliche deskriptive Analyse der Teilnehmerstruktur des Förderprogramms durch, wobei explizit auf Unterschiede zwischen dem Gründungszuschuss und früheren Gründungsförderprogrammen eingegangen wird. Die komparative Analyse zeigt, dass die Teilnehmerstrukturen des GZ nicht die gleiche Breite an gründungswilligen Personen erreicht wie beide Vorgängerprogramme. Des Weiteren scheinen mit dem GZ geförderte GründerInnen eher durch sogenannte Pull-Faktoren motiviert, waren im Durchschnitt etwas risikobereiter, setzten aber relativ weniger Eigenkapital für ihre Gründung ein. Der zweite Teil der Analyse bezieht sich vorrangig auf die Nachhaltigkeit der Förderung durch den GZ. Hier kann gezeigt werden, dass 19 Monate nach Gründung noch 75% bis 84% der geförderten Personen im Haupterwerb selbständig tätig sind. Hinsichtlich der Beschäftigungswirkungen ist allerdings erkennbar, dass die Mehrheit der noch selbständig Tätigen 19 Monate nach Gründung keine Mitarbeiter eingestellt hat. Abschließend zeigt die Analyse hinsichtlich der Existenz potentieller Mitnahmeeffekte, dass diese im Rahmen des Gründungszuschusses eine geringere Bedeutung zu haben scheinen als bisher angenommen. Bisherige Evaluationsstudien zur Gründungsförderung für Arbeitslose verwenden in der Regel arbeitslose Individuen als Kontrollgruppe, um Arbeitsmarkteffekte der Gründung zu untersuchen. Dieser Ansatz hat den Nachteil, dass nicht untersucht werden kann, ob die Gründungsförderung erfolgreiche, innovative Unternehmen generiert, die mit denen von nicht-geförderten Gründungen vergleichbar sind. Kapitel 4 schließt diese Lücke mittels eines neuen explorativen Datensatzes der den Vergleich zwischen geförderten GründerInnen aus Arbeitslosigkeit und nicht-subventionierten GründerInnen, die bei ihrer Gründung nicht arbeitslos waren erstmalig möglich macht. Die Ergebnisse zeigen, dass geförderte gegenüber nicht-geförderten GründerInnen keine Nachteile hinsichtlich ihrer formellen Bildung aufweisen, aber geringere arbeits- und industriespezifische Erfahrung besitzen. Zudem befinden sich unter den geförderten GründerInnen häufiger Personen, die sich aus Mangel an abhängigen Erwerbsalternativen selbständig gemacht, und sich in geringerem Umfang auf die Gründung vorbereitet haben. Geförderte GründerInnen haben zudem einen erschwerten Zugang zu Krediten und Gründungskapital. In Bezug auf die Entwicklung der Unternehmung über die Zeit lässt sich feststellen, dass geförderte GründerInnen zwar 19 Monate nach Gründung eine höhere Überlebensrate aufweisen, jedoch in Bezug auf Einkommen, Unternehmenswachstum und Innovation schlechter abschneiden. Kapitel 3 leistet einen Beitrag zur wissenschaftlichen Betrachtung des Gründungsgeschehens im Allgemeinen. Vor dem Hintergrund, dass in Deutschland keine einheitliche und repräsentative Datenquelle existiert, die das gesamte Universum an Gründungen erfasst, gibt Kapitel 3 einen umfassenden Überblick über die wichtigsten deutschen Datenquellen zum Gründungsgeschehen. Zu einem besseren Verständnis des Forschungsgegenstandes bietet das Kapitel auch einen kurzen Überblick über institutionelle Rahmenbedingungen, Konzepte und Definitionen im Zusammenhang mit Gründungsaktivitäten in Deutschland. Der zweite Teil der Dissertation besteht zunächst aus einem Aufsatz, der zur Forschungsliteratur über die Determinanten des Suchverhaltens arbeitsloser Personen beiträgt. Ausgehend von der theoretischen Annahme, dass das Internet Suchhemmnisse auf dem Arbeitsmarkt abbaut, werden der Wirkungszusammenhang zwischen der Nutzung des Internets, Reservationslöhnen, Suchanstrengungen und der Qualität der neuen abhängigen Beschäftigung untersucht. Der dritte Teil der Dissertation (Kapitel 6) betrachtet abschließend einen anderen Forschungsbereich aus der Arbeitsmarktforschung, in dem es die Gründe für die milde Reaktion der deutschen Wirtschaft nach der Großen Rezession 2008/2009 beleuchtet und aufzeigt, welchen zukünftigen großen Herausforderungen sich der deutsche Arbeitsmarkt dennoch gegenübersieht. KW - evaluation of active labor market policy KW - labor supply KW - start-up subsidies KW - entrepreneurship KW - Evaluation aktiver Arbeitsmarktpolitik KW - Gründungsförderung KW - Arbeitslosigkeit Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87464 ER - TY - THES A1 - Hunke, Philip Paul T1 - The Brazilian Cerrado: ecohydrological assessment of water and soil degradation in heavily modified meso-scale catchments T1 - Der brasilianische Cerrado: ökohydrologische Analyse von Boden- und Wasserdegradierung in intensiv landwirtschaftlich genutzten mesoskaligen Einzugsgebieten N2 - The Brazilian Cerrado is recognised as one of the most threatened biomes in the world, as the region has experienced a striking change from natural vegetation to intense cash crop production. The impacts of rapid agricultural expansion on soil and water resources are still poorly understood in the region. Therefore, the overall aim of the thesis is to improve our understanding of the ecohydrological processes causing water and soil degradation in the Brazilian Cerrado. I first present a metaanalysis to provide quantitative evidence and identifying the main impacts of soil and water alterations resulting from land use change. Second, field studies were conducted to (i) examine the effects of land use change on soils of natural cerrado transformed to common croplands and pasture and (ii) indicate how agricultural production affects water quality across a meso-scale catchment. Third, the ecohydrological process-based model SWAT was tested with simple scenario analyses to gain insight into the impacts of land use and climate change on the water cycling in the upper São Lourenço catchment which experienced decreasing discharges in the last 40 years. Soil and water quality parameters from different land uses were extracted from 89 soil and 18 water studies in different regions across the Cerrado. Significant effects on pH, bulk density and available P and K for croplands and less-pronounced effects on pastures were evident. Soil total N did not differ between land uses because most of the cropland sites were N-fixing soybean cultivations, which are not artificially fertilized with N. By contrast, water quality studies showed N enrichment in agricultural catchments, indicating fertilizer impacts and potential susceptibility to eutrophication. Regardless of the land use, P is widely absent because of the high-fixing capacities of deeply weathered soils and the filtering capacity of riparian vegetation. Pesticides, however, were consistently detected throughout the entire aquatic system. In several case studies, extremely high-peak concentrations exceeded Brazilian and EU water quality limits, which pose serious health risks. My field study revealed that land conversion caused a significant reduction in infiltration rates near the soil surface of pasture (–96 %) and croplands (–90 % to –93 %). Soil aggregate stability was significantly reduced in croplands than in cerrado and pasture. Soybean crops had extremely high extractable P (80 mg kg–1), whereas pasture N levels declined. A snapshot water sampling showed strong seasonality in water quality parameters. Higher temperature, oxi-reduction potential (ORP), NO2–, and very low oxygen concentrations (<5 mg•l–1) and saturation (<60 %) were recorded during the rainy season. By contrast, remarkably high PO43– concentrations (up to 0.8 mg•l–1) were measured during the dry season. Water quality parameters were affected by agricultural activities at all sampled sub-catchments across the catchment, regardless of stream characteristic. Direct NO3– leaching appeared to play a minor role; however, water quality is affected by topsoil fertiliser inputs with impact on small low order streams and larger rivers. Land conversion leaving cropland soils more susceptible to surface erosion by increased overland flow events. In a third study, the field data were used to parameterise SWAT. The model was tested with different input data and calibrated in SWAT-CUP using the SUFI-2 algorithm. The model was judged reliable to simulate the water balance in the Cerrado. A complete cerrado, pasture and cropland cover was used to analyse the impact of land use on water cycling as well as climate change projections (2039–2058) according to the projections of the RCP 8.5 scenario. The actual evapotranspiration (ET) for the cropland scenario was higher compared to the cerrado cover (+100 mm a–1). Land use change scenarios confirmed that deforestation caused higher annual ET rates explaining partly the trend of decreased streamflow. Taking all climate change scenarios into account, the most likely effect is a prolongation of the dry season (by about one month), with higher peak flows in the rainy season. Consequently, potential threats for crop production with lower soil moisture and increased erosion and sediment transport during the rainy season are likely and should be considered in adaption plans. From the three studies of the thesis I conclude that land use intensification is likely to seriously limit the Cerrado’s future regarding both agricultural productivity and ecosystem stability. Because only limited data are available for the vast biome, we recommend further field studies to understand the interaction between terrestrial and aquatic systems. This thesis may serve as a valuable database for integrated modelling to investigate the impact of land use and climate change on soil and water resources and to test and develop mitigation measures for the Cerrado in the future. N2 - Ökohydrologische Interaktionen in Folge von exzessiver Bodenerosion auf landwirtschaftlich stark modifizierten Flächen können speziell in tropischen Gebieten einen großen Einfluss auf die Fruchtbarkeit und zukünftige Nutzbarkeit der Böden haben, wie dies im Cerrado geschieht. Der brasilianische Cerrado ist eine neotropische Savanne und stellt mit 2 Mio. km² das zweitgrößte Biom Südamerikas dar. Das Biom wird global unter den bedeutendsten aber auch meist gefährdetsten 25 Biodiversitätshotspots gelistet. Ein extremer Landnutzungswandel führt dazu, dass der Cerrado zu den weltweit bedeutendsten landwirtschaftlichen Gebieten zählt und mittlerweile > 50 % des Bioms abgeholzt sind. Durch staatliche Subventionsprogramme, Aufkalkung und Düngung der Böden werden mehrere Ernten (v.a. Soja, Mais, Zuckerrohr und Baumwolle) pro Jahr bei hohem Ertrag realisiert. Aufgrund weniger Untersuchungen ist bisher unklar, wie sich die Landnutzungsintensivierung mit dem Einsatz großer Mengen an Agrochemikalien auf die Boden- und Wasserressourcen auswirkt. Um die Zielsetzung zu erreichen, wurden in einer umfassenden Metaanalyse Boden- und Wasserqualitätsparameter von mehr als 100 Einzelstudien analysiert, mehrere Feldkampagnen zur Erhebung bodenphysikochemischer und Wasserqualitätsparameter für unterschiedliche Landnutzungen durchgeführt und Modellierungen mit SWAT zur Abschätzung des Landnutzungs- und Klimawandels vorgenommen. Die Literaturanalyse konnte zeigen, dass Erosion, Veränderungen des Nährstoffkreislaufs, Nährstoffanreicherungen und sehr hohe Pestizidkonzentrationen in den Gewässern des gesamten Cerrado auftreten, mit stärkster Ausprägung für Ackerflächen. Trotz hoher Düngemengen wird festgestellt, dass P nur in sehr geringen Konzentrationen in den Gewässern nachgewiesen wird, welches auf die P-Fixierung der Böden und die Filterleistung der Uferrandstreifen zurückzuführen ist. In einer Feldstudie bestätigen sich die Ergebnisse, dass der Landnutzungswandel zu deutlichen Änderungen der boden-physikochemischen Parameter führt, wie z.B. einer signifikanten Abnahme der hydraulischen Leitfähigkeit (> –90 %) und der Bodenaggregatstabilität. Außerdem werden erhöhte pH-Werte und Überdüngung anzeigende P und K-gehalte im Oberboden (9-fach natürlicher Hintergrund) mit der stärksten Ausprägung unter Soja gemessen. Die Niederschlagsintensitäten überschreiten die Infiltrationskapazität der landwirtschaftlich genutzten Böden, wodurch es zu erhöhtem Oberflächenabfluss, Bodenerosionsereignissen mit Gullyformierungen kommt und der Eintrag von Agrochemikalien in die zuvor pristinen Gewässer begünstigt wird. Verglichen mit natürlichen Gewässern konnten im gesamten Einzugsgebiet niedrigere O2-Werte (< 5 mg l–1) sowie erhöhte NO3– (0.5 mg l–1), NO2– (0.1 mg l–1) und in der Trockenzeit auf direkte Düngung zurückzuführende sehr hohe PO43– (0.8 mg l–1) Konzentrationen festgestellt werden. Da in den Bodenprofilen keine Tiefenakkumulation von NPK nachgewiesen wurde ist davon auszugehen, dass Dünger durch Oberflächenabflussprozesse in das Flusssystem gelangen. Auch wenn die Nährstoffkonzentrationen nach europäischen Maßstäben gering sind, ist anzunehmen, dass in einem nährstofflimitierten System wie dem Cerrado die um ein vielfach erhöhte Konzentration der natürlichen Hintergrundwerte den Metabolismus der Gewässer negativ beeinflusst. In einer dritten Studie wird mit SWAT untersucht wie sich der Landnutzungs- und Klimawandel auf die Wasserbilanz auswirkt. In Testläufen zeigt sich, dass sowohl die verwendeten Niederschlagseingangsdaten als auch die Vegetationsparameter des natürlichen Cerrados von hoher Relevanz sind. Die Simulation verschiedener Landnutzungsszenarien belegt, dass die im Gebiet beobachteten abnehmenden Abflüsse auf die Zunahme landwirtschaftlicher Produktion und einer damit einhergehenden Zunahme der Evapotranspiration zurückzuführen sind. Die Simulation extremer Klimaszenarien (RCP 8.5 2039-2058) verdeutlicht, dass sich die Trockenzeit verlängert, welches Auswirkungen auf die Aussaattermine haben könnte. Gleichzeitig nehmen die Spitzenabflüsse in der Regenzeit zu, welches ohne entsprechende Gegenmaßnahmen zu erhöhter Erosion und gesteigertem Nähr- und Schadstofftransport in die Gewässer führt. Kombiniert mit einer weiteren Landnutzungsintensivierung wird für die zukünftige Entwicklung des Cerrado geschlussfolgert, dass die Veränderungen des Wasser- und Nährstoffhaushalt durch die Landwirtschaft und die damit einhergehenden Degradierungserscheinungen die Produktivität und Ökosystemstabilität nicht dauerhaft gewährleisten werden können. Die vorliegende Dissertation liefert einen zentralen Beitrag zur ökohydrologischen Bewertung des Status quo und der zukünftigen Entwicklung des brasilianischen Cerrados. Sie kann einen Ausgangspunkt für weitere Forschungen und Modellierungen darstellen, um die in dieser Arbeit benannten offenen Fragen hinsichtlich der ökohydrologischen Interaktionen zu klären. KW - Cerrado KW - ecohydrology KW - water KW - soil KW - deforestation KW - Cerrado KW - Ökohydrologie KW - Landnutzung KW - Boden KW - Wasser Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85110 ER - TY - THES A1 - Jantz, Bastian T1 - The dynamics of accountability in public sector reforms T1 - Accountability-Dynamiken und Reformen des öffentlichen Sektors N2 - This PhD thesis is essentially a collection of six sequential articles on dynamics of accountability in the reformed employment and welfare administration in different countries. The first article examines how recent changes in the governance of employment services in three European countries (Denmark, Germany and Norway) have influenced accountability relationships from a very wide-ranging perspective. It starts from the overall assumption in the literature that accountability relationships are becoming more numerous and complex, and that these changes may lead to multiple accountability disorder. The article explores these assumptions by analyzing the different actors involved and the information requested in the new governance arrangements in all three countries. It concludes that the considerable changes in organizational arrangements and more managerial information demanded and provided have led to more shared forms of accountability. Nevertheless, a clear development towards less political or administrative accountability could not be observed. The second article analyzes how the structure and development of reform processes affect accountability relationships and via what mechanisms. It is distinguished between an instrumental perspective and an institutional perspective and each of these perspectives takes a different view on the link between reforms and concrete action and results. By taking the welfare reforms in Norway and Germany as an example, it is shown that the reform outcomes in both countries are the result of a complex process of powering, puzzling and institutional constraints where different situational interpretations of problems, interests and administrative legacies had to be balanced. Accountability thus results not from a single process of environmental necessity or strategic choice, but from a dynamic interplay between different actors and institutional spheres. The third article then covers a specific instrument of public sector reforms, i.e. the increasing use of performance management. The article discusses the challenges and ambiguities between performance management and different forms of accountability based on the cases of the reformed welfare administration in Norway and Germany. The findings are that the introduction of performance management creates new accountability structures which influence service delivery, but not necessarily in the direction expected by reform agents. Observed unintended consequences include target fixation, the displacement of political accountability and the predominance of control aspects of accountability. The fourth article analyzes the accountability implications of the increasingly marketized models of welfare governance. It has often been argued that relocating powers and discretion to private contractors involve a trade-off between democratic accountability and efficiency. However, there is limited empirical evidence of how contracting out shapes accountability or is shaped by alternative democratic or administrative forms of accountability. Along these lines the article examines employment service accountability in the era of contracting out in Germany, Denmark and Great Britain. It is found that market accountability instruments are complementary instruments, not substitutes. The findings highlight the importance of administrative and political instruments in legitimizing marketized service provision and shed light on the processes that lead to the development of a hybrid accountability model. The fifth and sixth articles focus on the diagonal accountability relationships between public agencies, supreme audit institutions (SAI) and parental ministry or parliament. The fifth article examines the evolving role of SAIs in Denmark, Germany and Norway focusing particularly on their contribution to public accountability and their ambivalent relationship with some aspects of public sector reform in the welfare sector. The article analyzes how SAIs assess New Public Management inspired reforms in the welfare sector in the three countries. The analysis shows that all three SAIs have taken on an evaluative role when judging New Public Management instruments. At the same time their emphasis on legality and compliance can be at odds with some of the operating principles introduced by New Public Management reforms. The sixth article focuses on the auditing activities of the German SAI in the field of labor market administration as a single in-depth case study. The purpose is to analyze how SAIs gain impact in diagonal accountability settings. The results show that the direct relationship between auditor and auditee based on cooperation and trust is of outstanding importance for SAIs to give effect to their recommendations. However, if an SAI has to rely on actors of diagonal accountability, it is in a vulnerable position as it might lose control over the interpretation of its results. N2 - Die öffentliche Verwaltung sieht sich einem immer stärker werdenden Legitimationsdruck ausgesetzt, da Verwaltungshandeln nicht mehr nur innerhalb hierarchisch strukturierter Behörden erfolgt, sondern eine Vielzahl von Akteuren (öffentlich und privat) – mit für den Bürger teilweise unklaren Zuständigkeiten – beteiligt sind. Die Beziehungen zwischen den Akteuren innerhalb dieser Netzwerke folgen nicht länger einer klaren Hierarchie, sondern es entwickeln sich unübersichtliche Strukturen, innerhalb derer es schwierig ist, konkrete Instanzen zur Verantwortung zu ziehen. Die Pluralisierung und Dynamisierung von Governance-Strukturen verändert somit die Legitimationsgrundlage staatlichen Handelns. Kritische Stimmen sprechen in diesem Zusammenhang gar von einem Legitimationsdefizit. Zentral innerhalb dieser Diskussion ist das Konzept der Accountability, definiert als Beziehung, in deren Rahmen ein Akteur einem anderen Akteur gegenüber eine Verpflichtung zur Rechenschaft eingeht und von diesem Gegenüber für diese Rechenschaft im Gegenzug legitimiert wird oder auch sanktioniert werden kann. Ganz im Gegensatz zu der gestiegenen Aufmerksamkeit für Accountability fehlt es derzeit an einer systematischen Diskussion über den Bedeutungs- und Formenwandel von Accountability. Accountability-Phänomene werden weiterhin mit den Maßstäben tradierter und vergleichsweise statischer Accountability-Konzepte behandelt. Die vorliegende Arbeit setzt hier an, indem Accountability als soziale Beziehung konzeptualisiert und analysiert wird. Accountability-Beziehungen sind somit als dynamische Arrangements zu verstehen, die Prozesse des Wandels, der Reform, Veränderung, Hybridisierung oder Transformation durchlaufen können. Dieses konzeptionelle Verständnis von Accountability-Dynamiken wird in der Folge auf die jüngsten Reformen im Wohlfahrtsstaat, insbesondere in der Arbeitsmarktpolitik, angewendet. Wohlfahrtsstattliche Systeme stehen seit geraumer Zeit unter Reform- und Anpassungsdruck, gängige Kritikpunkte sind mangelnde Effizienz und Nachhaltigkeit sowie sinkende öffentliche Unterstützung. Politische Legitimität und Verantwortlichkeit ist dabei eine der Grundvoraussetzungen für das Fortbestehen des Wohlfahrtsstaates kontinentaleuropäischer Prägung. Daher untersucht die Arbeit, in welcher Form die jüngsten Wohlfahrtsstaatreformen die Accountability-Strukturen beeinflusst haben. Dabei haben die jüngsten Modernisierungsansätze im Zuge der internationalen Reformbewegung des „New Public Management“ auch im Bereich der Arbeitsmarktverwaltung das Verhältnis zwischen demokratischer, politischer Accountability auf der einen Seite und organisatorischer Autonomie der administrativen Einheiten zur Erbringung von arbeitsmarktpolitischen Dienstleistungen auf der anderen Seite, verändert. Somit gerät das Spannungsverhältnis zwischen Legitimation und Effizienz in den Blickpunkt. Wie können die unterschiedlichen Verantwortlichkeiten (Ergebnis- und Leistungsverantwortung der dezentralen Ebenen und politische Verantwortung der gewählten Körperschaften) verknüpft werden? Wie verändert sich die Rechenschaftspflicht nachgeordneter Organisationen im Bereich der Arbeitsmarktpolitik durch zunehmende autonome Kompetenzen? Der Analysefokus richtet sich somit primär auf Organisationsreformen und deren Einfluss auf die Veränderung der Verantwortlichkeitsstrukturen in der Arbeitsmarktverwaltung in unterschiedlichen Ländern (Norwegen, Dänemark, Großbritannien und Deutschland). KW - accountability KW - administrative reforms KW - employment services KW - Accountability KW - Rechenschaftspflicht KW - Verwaltungsreformen KW - Arbeitsmarktpolitik Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78131 ER - TY - THES A1 - Jehannin, Marie T1 - About the role of physico-chemical properties and hydrodynamics on the progress of a precipitation reaction T1 - Über die Rolle physikalisch-chemischer Eigenschaften und Hydrodynamiken auf den Fortschritt einer Fällungsreaktion BT - the case of cerium oxalate particles produced during coalescence of drops BT - Ceroxalat-Partikel, entstanden während der Koaleszenz von Tropfen N2 - The size and morphology control of precipitated solid particles is a major economic issue for numerous industries. For instance, it is interesting for the nuclear industry, concerning the recovery of radioactive species from used nuclear fuel. The precipitates features, which are a key parameter from the post-precipitate processing, depend on the process local mixing conditions. So far, the relationship between precipitation features and hydrodynamic conditions have not been investigated. In this study, a new experimental configuration consisting of coalescing drops is set to investigate the link between reactive crystallization and hydrodynamics. Two configurations of aqueous drops are examined. The first one corresponds to high contact angle drops (>90°) in oil, as a model system for flowing drops, the second one correspond to sessile drops in air with low contact angle (<25°). In both cases, one reactive is dissolved in each drop, namely oxalic acid and cerium nitrate. When both drops get into contact, they may coalesce; the dissolved species mix and react to produce insoluble cerium oxalate. The precipitates features and effect on hydrodynamics are investigated depending on the solvent. In the case of sessile drops in air, the surface tension difference between the drops generates a gradient which induces a Marangoni flow from the low surface tension drop over the high surface tension drop. By setting the surface tension difference between the two drops and thus the Marangoni flow, the hydrodynamics conditions during the drop coalescence could be modified. Diols/water mixtures are used as solvent, in order to fix the surface tension difference between the liquids of both drops regardless from the reactant concentration. More precisely, the used diols, 1,2-propanediol and 1,3-propanediol, are isomer with identical density and close viscosity. By keeping the water volume fraction constant and playing with the 1,2-propanediol and 1,3-propanediol volume fractions of the solvents, the mixtures surface tensions differ up to 10 mN/m for identical/constant reactant concentration, density and viscosity. 3 precipitation behaviors were identified for the coalescence of water/diols/recatants drops depending on the oxalic excess. The corresponding precipitates patterns are visualized by optical microscopy and the precipitates are characterized by confocal microscopy SEM, XRD and SAXS measurements. In the intermediate oxalic excess regime, formation of periodic patterns can be observed. These patterns consist in alternating cerium oxalate precipitates with distinct morphologies, namely needles and “microflowers”. Such periodic fringes can be explained by a feedback mechanism between convection, reaction and the diffusion. N2 - Die Kontrolle der Morphologie und Größe fester durch Fällung erzeugter Partikel ist eine wichtige Herausforderung in Industrie und Forschung. Insbesondere gilt dies für die Wiederaufbereitung verbrauchter Brennstäber in der Atomindustrie. Die Eigenschaften der Ausfällungen hängen von den Mischbedingungen der Flüssigkeiten in den Prozessen ab. Dennoch sind die Beziehungen zwischen den physischen Charakteristiken der erzeugten Partikeln und den hydrodynamischen Bedingungen ungewiss. In dieser Arbeit werden Zwei-Tropfen-Koalezenz-Experiment genutzt, um die Verbindungen zwischen Hydrodynamik und Fällungsreaktion besser zu verstehen. Zwei Konfigurationen von ruhenden wässrigen Tropfen wurden untersucht: Zum einen Tropfen mit hohem Kontaktwinkel (> 90°) in Öl und zum anderen Tropfen mit kleinem Kontaktwinkel (< 25°) in Luft. In beiden Fällen wurde Oxalsäure und Ceriumnitrat jeweils in einem Tropfen gelöst. Wenn beide Tropfen einander in Kontakt treten, können sie sich vereinigen. Dabei mischen sich die Reagenzien und erzeugen Ceriumoxalat. In Abhängigkeit von Lösungsmitteln werden die Eigenschaften der Fällung sowie ihr Einfluss auf die Hydrodynamik untersucht. In Experimenten Tropfen in Luft ist es außerdem möglich, mittels Wasser/Diol-Mischungen den Oberflächenspannungsgradienten zwischen beiden Tropfenflüssigkeiten zu ändern. Damit ist es möglich den resultierenden Marangoni-Fluss zu kontrollieren. So werden die hydrodynamischen Bedingungen unabhängig von dem Oxalsäureüberschuss verwirklicht. In diesem Fall werden drei Fällungsverhalten abhängig er Oxalsäure-Konzentration beobachtet. Das Zwischenverhalten zeigt überraschende periodische Strukturen, welche verschiedenen Morphologien bilden, nämlich Nägeln und „Microflower“. Die Strukturen wurden über Optische Mikroskopie Identifiziert und charakterisiert mit Hilfe von Konfokaler Mikroskopie, SEM, XRD und SAXS. Die Entstehung solcher Strukturen könnte durch eine Konvektion- Diffusion- Reaktion-Rückkopplung erklärt werden. N2 - Réussir à contrôler la morphologie et la taille de particules solides obtenues par précipitation est un enjeu industriel majeur. C’est notamment le cas dans l’industrie nucléaire pour le recyclage du combustible usé. Les caractéristiques des précipités sont liées aux conditions de mélange des phases liquides dans les procédés. Les corrélations entre les paramètres physiques des particules obtenues et les conditions hydrodynamiques n’ont pas été examinées jusqu’à présent. Dans cette étude, des systèmes expérimentaux originaux, basés sur la coalescence de deux gouttes, sont utilisés afin de mieux comprendre les liens entre hydrodynamique et réaction de précipitation. Deux configurations de gouttes aqueuses ont été investiguées, la première consiste en deux goutes posées à fort angle de contact (>90°) dans l’huile, il s’agit d’un système modèle pour les gouttes en émulsion, la second configuration correspond à deux gouttes posées à faible angle de contact (>25°) dans l’air. Dans chaque cas, une espèce réactive est dissoute dans chaque goutte, à savoir de l’acide oxalique ou du nitrate de cérium dans la seconde. Lorsque les deux gouttes se touchent, elles peuvent éventuellement coalescer, alors les espèces chimiques se mélangent et réagissent pour produire un précipité d’oxalate de cérium. Les caractéristiques de ce précipité et ses effets sur l’hydrodynamique sont examinés en fonction du solvant utilisé. De plus, dans le cas des gouttes posées sur une surface de silice dans l’air, une différence de tension de surface entre deux gouttes crée un gradient qui génère un flux de Marangoni dirigé de la goutte de faible tension de surface au-dessus de la goutte de forte tension de surface. En jouant sur la différence de tension de surface entre les deux gouttes, et ainsi sur le flux de Marangoni, il est possible de modifier les conditions hydrodynamiques lors de la coalescence des gouttes. Des mélanges eau/diols ont été utilisés comme solvant afin de pouvoir modifier la différence de tension de surface entre les liquides des deux gouttes indépendamment de leur concentration en réactif. Les diols utilisés, le 1,2-propanediol et le 1,3-propanediol sont des isomères, ils sont la même densité, des viscosités semblables mais des tensions de surface différentes. En fixant la fraction volumique d’eau dans le solvant, et en jouant sur les fractions volumiques de chaque diols, il est possible de contrôler la tension de surface des mélanges sur une gamme de 10 mN/m pour une concentration en réactifs donnée, et en conservant la densité et viscosité des solvants. Trois régimes de précipitation ont été identifiés dans le cas de la coalescence de gouttes d’eau/diols/réactifs en fonction de l’excès oxalique. Les motifs de précipitation en découlant ont été imagés par microscopie optique et les différents précipités ont été caractérisés à l’aide de microscopie confocale, MEB, DRX et SAXS. Le régime intermédiaire présente des motifs périodiques surprenants. Ces motifs correspondent à des domaines nettement délimités d’oxalate de cérium de différentes morphologies, à savoir des aiguilles et des « microflowers ». L’obtention de tels motifs peut s’expliquer par un mécanisme de rétroaction entre convection, réaction et diffusion. KW - Marangoni flow KW - coalescence KW - periodic pattern KW - oxalic precipitation KW - drop KW - Marangoni-Fluss KW - Koaleszenz KW - Tropfen KW - Fällungsreaktion KW - periodisches Muster KW - Oxalat-Fällung KW - flux de Marangoni KW - coalescence KW - gouttes KW - précipitation KW - motif périodique KW - précipitation oxalique Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88364 ER - TY - THES A1 - Jäger, Lena Ann T1 - Working memory and prediction in human sentence parsing T1 - Arbeitsgedächtnis und Vorhersagbarkeit in der menschlichen Satzverarbeitung BT - cross-linguistic evidence from anaphoric dependencies and relative clauses BT - neue Erkenntnisse durch cross-linguistische Untersuchungen zu anaphorischen Dependenzen und Relativsätzen N2 - This dissertation investigates the working memory mechanism subserving human sentence processing and its relative contribution to processing difficulty as compared to syntactic prediction. Within the last decades, evidence for a content-addressable memory system underlying human cognition in general has accumulated (e.g., Anderson et al., 2004). In sentence processing research, it has been proposed that this general content-addressable architecture is also used for language processing (e.g., McElree, 2000). Although there is a growing body of evidence from various kinds of linguistic dependencies that is consistent with a general content-addressable memory subserving sentence processing (e.g., McElree et al., 2003; VanDyke2006), the case of reflexive-antecedent dependencies has challenged this view. It has been proposed that in the processing of reflexive-antecedent dependencies, a syntactic-structure based memory access is used rather than cue-based retrieval within a content-addressable framework (e.g., Sturt, 2003). Two eye-tracking experiments on Chinese reflexives were designed to tease apart accounts assuming a syntactic-structure based memory access mechanism from cue-based retrieval (implemented in ACT-R as proposed by Lewis and Vasishth (2005). In both experiments, interference effects were observed from noun phrases which syntactically do not qualify as the reflexive's antecedent but match the animacy requirement the reflexive imposes on its antecedent. These results are interpreted as evidence against a purely syntactic-structure based memory access. However, the exact pattern of effects observed in the data is only partially compatible with the Lewis and Vasishth cue-based parsing model. Therefore, an extension of the Lewis and Vasishth model is proposed. Two principles are added to the original model, namely 'cue confusion' and 'distractor prominence'. Although interference effects are generally interpreted in favor of a content-addressable memory architecture, an alternative explanation for interference effects in reflexive processing has been proposed which, crucially, might reconcile interference effects with a structure-based account. It has been argued that interference effects do not necessarily reflect cue-based retrieval interference in a content-addressable memory but might equally well be accounted for by interference effects which have already occurred at the moment of encoding the antecedent in memory (Dillon, 2011). Three experiments (eye-tracking and self-paced reading) on German reflexives and Swedish possessives were designed to tease apart cue-based retrieval interference from encoding interference. The results of all three experiments suggest that there is no evidence that encoding interference affects the retrieval of a reflexive's antecedent. Taken together, these findings suggest that the processing of reflexives can be explained with the same cue-based retrieval mechanism that has been invoked to explain syntactic dependency resolution in a range of other structures. This supports the view that the language processing system is located within a general cognitive architecture, with a general-purpose content-addressable working memory system operating on linguistic expressions. Finally, two experiments (self-paced reading and eye-tracking) using Chinese relative clauses were conducted to determine the relative contribution to sentence processing difficulty of working-memory processes as compared to syntactic prediction during incremental parsing. Chinese has the cross-linguistically rare property of being a language with subject-verb-object word order and pre-nominal relative clauses. This property leads to opposing predictions of expectation-based accounts and memory-based accounts with respect to the relative processing difficulty of subject vs. object relatives. Previous studies showed contradictory results, which has been attributed to different kinds local ambiguities confounding the materials (Lin and Bever, 2011). The two experiments presented are the first to compare Chinese relatives clauses in syntactically unambiguous contexts. The results of both experiments were consistent with the predictions of the expectation-based account of sentence processing but not with the memory-based account. From these findings, I conclude that any theory of human sentence processing needs to take into account the power of predictive processes unfolding in the human mind. N2 - Diese Dissertation untersucht die der menschlichen Satzverarbeitung zugrunde liegenden Mechanismen des Arbeitsgedächtnisses sowie deren Bedeutung für die Verarbeitungskomplexität im Vergleich zu dem Einfluss syntaktischer Erwartung. Vor dem Hintergrund der in den vergangenen Jahrzehnten angewachsenen empirischen Evidenz für ein assoziatives Gedächtnissystem als Grundlage der menschlichen Kognition im Allgemeinen (z.B. Anderson et al., 2004) wurde u.a. von McElree (2000) vorgeschlagen, dass dieses assoziative Gedächtnissystem auch der Sprachverarbeitung im Besonderen dient (z.B. McElree, 2000) und die Sprachverarbeitung folglich nicht etwa als ein von anderen kognitiven Fähigkeiten weitgehend losgelöstes Modul (z.B. Frazier, 1979) zu begreifen ist. Obwohl sich die Evidenz für ein assoziatives Gedächtnis in der Sprachverarbeitung stetig mehrt (z.B. McElree et al., 2003; VanDyke2006), werden Daten zur Verarbeitung von Reflexivpronomen als Argument gegen ein assoziatives Gedächtnis herangezogen. So schlug beispielsweise Sturt (2003) vor, dass der Gedächtniszugriff in der Verarbeitung von Reflexivpronomen-Antezedens-Dependenzen nicht assoziativer Natur ist, sondern rein syntaktisch gesteuert ist (z.B., Sturt, 2003). Im ersten Teil der vorliegenden Arbeit werden zwei Leseexperimente (Eyetracking) vorgestellt, welche die Verarbeitung des chinesischen Reflexivpronomens 'ziji' testen und die darauf ausgelegt sind, Theorien, die einen syntaktisch gesteuerten Gedächtniszugriff annehmen, von Theorien, die einen assoziativen Gedächtniszugriff, wie er beispielsweise in dem ACTR-basierten Modell von Lewis and Vasishth (2005) implementiert wurde, zu unterscheiden. In beiden Experimenten wurden Interferenzeffekte von Nominalphrasen beobachtet, die syntaktisch nicht als Antezedens des Reflexivpronomens in Frage kommen, aber das Belebtheitskriterium, das 'ziji' an seinen Antezedens stellt, erfüllen. Diese Ergebnisse werden als Evidenz gegen einen rein syntaktisch gesteuerten Gedächtniszugriff interpretiert. Jedoch sind diese Ergebnisse auch mit dem assoziativen Modell von Lewis und Vasishth (2005) nicht vollkommen vereinbar. Daher wird in der vorliegenden Arbeit eine Erweiterung des Modells von Lewis und Vasishth entwickelt. Zwei neue Prinzipien, 'cue confusion' und 'distractor prominence’, werden dem Originalmodell hinzugefügt und deren Auswirkungen auf die Vorhersagen des Modells diskutiert. Wenngleich Interferenzeffekte im Allgemeinen als Evidenz für ein assoziatives Gedächtnis herangezogen werden, argumentierte Dillon (2011), dass die empirisch beobachteten Interferenzeffekte nicht notwendigerweise Interferenzen im Moment eines assoziativen Gedächtniszugriffs reflektieren, sondern gleichermaßen Interferenzen widerspiegeln können, die bereits bei der Abspeicherung des entsprechenden Elements (z.B. des Antezedens in Reflexiv-Antezedens-Dependenzen) im Gedächtnis stattgefunden haben. Dies würde Interferenzeffekte mit einem nicht-assoziativen Gedächtnismodell vereinbar machen. Im zweiten Teil dieser Dissertation werden drei Experimente (selbst-gesteuertes Lesen und Eyetracking) vorgestellt, die deutsche Reflexivpronomen sowie schwedische Possessivpronomen testen und darauf abzielen, Rückschlüsse über den Moment der Interferenz (Interferenz beim Gedächtniszugriff im Gegensatz zu Interferenz bei der Speicherung) zu ziehen. Die Ergebnisse aller drei Experimente zeigen, dass etwaige Interferenzen beim Abspeichern eines Nomens keinen Einfluss auf dessen späteren Zugriff haben. Zusammengefasst zeigen die Ergebnisse dieser Experimente zum Chinesischen, Deutschen und Schwedischen, dass die Verarbeitung von Reflexivpronomen mit demselben assoziativen Gedächtniszugriff erklärt werden kann, von dem angenommen wird, dass er der Verarbeitung einer Reihe anderer syntaktischer Dependenzen zugrunde liegt. Darüber hinaus sind die hier vorgestellten Ergebnisse im Einklang mit einer generellen Theorie über die menschliche Kognition, die das Sprachverarbeitungssystem als Bestandteil einer allgemeinen kognitiven Architektur begreift, in welcher ein allgemeines assoziatives Gedächtnissystem auf sprachlichen Repräsentationen operiert. Im dritten Teil dieser Dissertation werden zwei weitere Leseexperimente (selbst-gesteuertes Lesen und Eyetracking) vorgestellt, in denen anhand chinesischer Relativsätze die Wirkung von Arbeitsgedächtnisprozessen im Vergleich zu der Wirkung syntaktischer Erwartung auf die Komplexität der inkrementellen Satzverarbeitung untersucht wird. Chinesisch ist cross-linguistisch insofern eine außergewöhnliche Sprache, als dass es eine Subjekt-Verb-Objekt-Wortstellung mit pränominalen Relativsätzen vereint. Die Kombination dieser Eigenschaften führt dazu, dass Theorien, die Satzverarbeitungskomplexität primär Arbeitsgedächtnisprozessen zuschreiben (z.B. Gibson, 2000), und erwartungsbasierte Theorien, welche die Satzverarbeitungskomplexität dem Erfüllen bzw. dem Brechen syntaktischer oder lexikalischer Erwartungen zuschreiben (z.B. Hale, 2001; Levy, 2008), gegensätzliche Vorhersagen machen. Bisherige Studien zu chinesischen Relativsätzen zeigten widersprüchliche Ergebnisse, was mit dem Vorhandensein konfundierender lokaler syntaktischer Ambiguitäten in den Stimuli erklärt wurde (Lin und Bever, 2011). Die beiden in dieser Arbeit vorgestellten Experimente testen erstmals chinesische Relativsätze anhand von Materialien, die frei von syntaktischen Ambiguitäten sind. Die Ergebnisse beider Experimente sind vereinbar mit erwartungsbasierten Theorien, aber nicht mit Theorien, die Satzverarbeitungskomplexität allein mit Arbeitsgedächtnisprozessen erklären. Diese Ergebnisse zeigen, dass jede umfassende Theorie der Satzverarbeitung erwartungsgesteuerten kognitiven Prozessen einen wichtigen Stellenwert einräumen muss. KW - working memory KW - Arbeitsgedächtnis KW - sentence processing KW - Satzverarbeitung KW - cognitive modeling KW - kognitive Modellierung KW - psycholinguistics KW - Psycholinguistik KW - ACT-R KW - Chinese KW - Chinesisch KW - reflexives KW - Reflexivpronomen KW - relative clauses KW - Relativsätze KW - linguistics KW - Linguistik KW - German KW - Deutsch KW - prediction KW - syntactic expectation KW - content-addressable memory Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82517 ER - TY - THES A1 - Kaganova, Ekaterina T1 - Das Lehrpotential von Schulbuchlehrtexten im Fach Mathematik N2 - Das Schulbuch ist ein etablierter und bedeutender Bestandteil des Mathematikunterrichts. Lehrer nutzen es, um ihren Unterricht vorzubereiten und/oder zu gestalten; Schüler, um in selbigem zu lernen und zu bestehen, vielleicht sogar aus eigenem Interesse; Eltern, um sich darüber zu informieren, was ihr Kind eigentlich können soll und wie sie ihm gegebenenfalls helfen können. Darüber hinaus ist das Schulbuch ein markantes gesellschaftliches Produkt, dessen Zweck es ist, das Unterrichtsgeschehen zu steuern und zu beeinflussen. Damit ist es auch ein Anzeiger dafür, was und wie im Mathematikunterricht gelehrt werden sollte und wird. Die Lehrtexte als zentrale Bestandteile von Schulbüchern verweisen in diesem Zusammenhang insbesondere auf die Phasen der Einführung neuen Lernstoffs. Daraus legitimiert sich übergreifend die Fragestellung, was und wie (gut) Mathematikschulbuchlehrtexte lehren bzw. was und wie (gut) adressierte Schüler aus ihnen (selbstständig) lernen, d.h. Wissen erwerben können. Angesichts der komplexen und vielfältigen Bedeutung von Schulbuchlehrtexten verwundert es, dass die mathematikdidaktische Forschung bislang wenig Interesse an ihnen zeigt: Es fehlen sowohl eine theoretische Konzeption der Größe ‚Lehrpotential eines schulmathematischen Lehrtextes‘ als auch ein analytisches Verfahren, um das anhand eines Mathematikschulbuchlehrtextes Verstehbare und Lernbare zu ermitteln. Mit der vorliegenden Arbeit wird sowohl in theoretisch-methodologischer als auch in empirischer Hinsicht der Versuch unternommen, diesen Defiziten zu begegnen. Dabei wird das ‚Lehrpotential eines Mathematikschulbuchlehrtextes‘ auf der Grundlage der kognitionspsychologischen Schematheorie und unter Einbeziehung textlinguistischer Ansätze als eine textimmanente und analytisch zugängliche Größe konzipiert. Anschließend wird das Lehrpotential von fünf Lehrtexten ausgewählter aktueller Schulbücher der Jahrgangsstufen 6 und 7 zu den Inhaltsbereichen ‚Brüche‘ und ‚lineare Funktionen‘ analysiert. Es zeigt sich, dass die untersuchten Lehrtexte aus deutschen Schulbüchern für Schüler sehr schwer verständlich sind, d.h. es ist kompliziert, einigen Teiltexten im Rahmen des Gesamttextes einen Sinn abzugewinnen. Die Lehrtexte sind insbesondere dann kaum sinnhaft lesbar, wenn ein Schüler versucht, die mitgeteilten Sachverhalte zu verstehen, d.h. Antworten auf die Fragen zu erhalten, warum ein mathematischer Sachverhalt gerade so und nicht anders ist, wozu ein neuer Sachverhalt/Begriff gebraucht wird, wie das Neue mit bereits Bekanntem zusammenhängt usw. Deutlich zugänglicher und sinnhafter erscheinen die Mathematikschulbuchlehrtexte hingegen unter der Annahme, dass ihre zentrale Botschaft in der Mitteilung besteht, welche Aufgabenstellungen in der jeweiligen Lehreinheit vorkommen und wie man sie bearbeitet. Demnach können Schüler anhand dieser Lehrtexte im Wesentlichen lernen, wie sie mit mathematischen Zeichen, die für sie kaum etwas bezeichnen, umgehen sollen. Die hier vorgelegten Analyseergebnisse gewinnen in einem soziologischen Kontext an Tragweite und Brisanz. So lässt sich aus ihnen u.a. die These ableiten, dass die analysierten Lehrtexte keine ‚unglücklichen‘ Einzelfälle sind, sondern dass die ‚Aufgabenorientierung in einem mathematischen Gewand‘ ein Charakteristikum typischer (deutscher) Mathematikschulbuchlehrtexte und – noch grundsätzlicher – einen Wesenszug typischer schulmathematischer Kommunikation darstellt. N2 - The research question of this study is what and how (well) explanatory texts in mathematics schoolbooks teach. Therefore, I develop the construct of the 'teaching potential of an explanatory text in a mathematics schoolbook' as a parameter which is immanent to the text and analytically accessible, incorporating approaches from text linguistics and the schema concept from cognitive psychology. Afterwards, I analyse the teaching potential of five explanatory texts from selected schoolbooks of the grades 6 and 7, focussing on the topics of 'fractions' and 'linear functions'. Eventually, I interpret the results of the study from a sociological perspective. T2 - Teaching potential of an explanatory text in a mathematics schoolbook KW - Schulbuch KW - Lehrtext KW - Lehrpotential KW - Mathematics textbooks KW - Textbook research KW - Textbook analysis Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80705 ER - TY - THES A1 - Kappel, David T1 - Multi-spectrum retrieval of maps of Venus' surface emissivity in the infrared T1 - Multispektrum-Retrieval von Karten der Oberflächenemissivität der Venus im Infrarotbereich N2 - The main goal of this cumulative thesis is the derivation of surface emissivity data in the infrared from radiance measurements of Venus. Since these data are diagnostic of the chemical composition and grain size of the surface material, they can help to improve knowledge of the planet’s geology. Spectrally resolved images of nightside emissions in the range 1.0-5.1 μm were recently acquired by the InfraRed Mapping channel of the Visible and InfraRed Thermal Imaging Spectrometer (VIRTIS-M-IR) aboard ESA’s Venus EXpress (VEX). Surface and deep atmospheric thermal emissions in this spectral range are strongly obscured by the extremely opaque atmosphere, but three narrow spectral windows at 1.02, 1.10, and 1.18 μm allow the sounding of the surface. Additional windows between 1.3 and 2.6 μm provide information on atmospheric parameters that is required to interpret the surface signals. Quantitative data on surface and atmosphere can be retrieved from the measured spectra by comparing them to simulated spectra. A numerical radiative transfer model is used in this work to simulate the observable radiation as a function of atmospheric, surface, and instrumental parameters. It is a line-by-line model taking into account thermal emissions by surface and atmosphere as well as absorption and multiple scattering by gases and clouds. The VIRTIS-M-IR measurements are first preprocessed to obtain an optimal data basis for the subsequent steps. In this process, a detailed detector responsivity analysis enables the optimization of the data consistency. The measurement data have a relatively low spectral information content, and different parameter vectors can describe the same measured spectrum equally well. A usual method to regularize the retrieval of the wanted parameters from a measured spectrum is to take into account a priori mean values and standard deviations of the parameters to be retrieved. This decreases the probability to obtain unreasonable parameter values. The multi-spectrum retrieval algorithm MSR is developed to additionally consider physically realistic spatial and temporal a priori correlations between retrieval parameters describing different measurements. Neglecting geologic activity, MSR also allows the retrieval of an emissivity map as a parameter vector that is common to several spectrally resolved images that cover the same surface target. Even applying MSR, it is difficult to obtain reliable emissivity maps in absolute values. A detailed retrieval error analysis based on synthetic spectra reveals that this is mainly due to interferences from parameters that cannot be derived from the spectra themselves, but that have to be set to assumed values to enable the radiative transfer simulations. The MSR retrieval of emissivity maps relative to a fixed emissivity is shown to effectively avoid most emissivity retrieval errors. Relative emissivity maps at 1.02, 1.10, and 1.18 μm are finally derived from many VIRTIS-M-IR measurements that cover a surface target at Themis Regio. They are interpreted as spatial variations relative to an assumed emissivity mean of the target. It is verified that the maps are largely independent of the choice of many interfering parameters as well as the utilized measurement data set. These are the first Venus IR emissivity data maps based on a consistent application of a full radiative transfer simulation and a retrieval algorithm that respects a priori information. The maps are sufficiently reliable for future geologic interpretations. N2 - Das Hauptziel dieser publikationsbasierten Dissertation ist die Ableitung von Oberflächenemissivitäts-Daten im Infraroten aus Radianzmessungen der Venus. Da diese Daten diagnostisch bezüglich chemischer Zusammensetzung und Korngröße des Oberflächenmaterials sind, können sie zur Erweiterung des Wissens über die Geologie des Planeten beitragen. Spektral aufgelöste Bilder von nachtseitigen Emissionen im Bereich 1.0-5.1 µm wurden kürzlich durch den Infrarot-Kartierungskanal des Abbildenden Spektrometers im Sichtbaren und Infraroten Bereich (VIRTIS-M-IR) an Bord der ESA-Sonde Venus Express (VEX) gewonnen. Die thermischen Emissionen der Oberfläche sowie der tiefen Atmosphäre werden in diesem Spektralbereich stark durch die extrem licht-undurchlässige Atmosphäre verschleiert, aber drei schmale spektrale Fenster bei 1.02, 1.10 und 1.18 µm ermöglichen die Sondierung der Oberfläche. Weitere Fenster zwischen 1.3 und 2.6 µm liefern Informationen über atmosphärische Parameter, die benötigt werden, um die Oberflächensignale zu interpretieren. Quantitative Daten von Oberfläche und Atmosphäre können von den gemessenen Spektren durch Vergleiche mit simulierten Spektren abgeleitet werden. In dieser Arbeit wird ein numerisches Strahlungstransportmodell verwendet, um die beobachtbare Strahlung als Funktion von Atmosphären-, Oberflächen-, und Instrumentenparametern zu simulieren. Es ist ein Linie-für-Linie-Modell und berücksichtigt sowohl thermische Emissionen der Oberfläche und Atmosphäre, als auch Absorption und Mehrfachstreuung durch Gase und Wolken. Die VIRTIS-M-IR-Messungen werden zunächst vorverarbeitet, um eine optimale Datenbasis für die nachfolgenden Schritte zu erhalten. Eine detaillierte Analyse des Detektoransprechvermögens ermöglicht dabei die Optimierung der Datenkonsistenz. Die Messdaten haben einen vergleichsweise geringen spektralen Informationsgehalt, und verschiedene Parametervektoren können ein- und dasselbe gemessene Spektrum gleich gut beschreiben. Eine übliche Maßnahme, das Retrieval der gesuchten Parameter aus einem gemessenem Spektrum zu regularisieren, ist die Berücksichtigung von a-priori-Mittelwerten und -Standardabweichungen der zu bestimmenden Parameter. Dadurch wird die Wahrscheinlichkeit verringert, unrealistische Parameterwerte zu erhalten. Es wird der Multispektrum-Retrieval-Algorithmus MSR entwickelt, um zusätzlich physikalisch realistische räumliche und zeitliche a-priori-Korrelationen zwischen Retrievalparametern, die verschiedene Messungen beschreiben, berücksichtigen zu können. Vernachlässigt man geologische Aktivität, kann mittels MSR auch eine Emissivitätskarte in Form eines Parametervektors bestimmt werden, der verschiedenen spektral aufgelösten, denselben Oberflächenbereich überdeckenden Bildern gemeinsam ist. Selbst bei Anwendung von MSR ist es schwierig, verlässliche Karten für die Absolutwerte der Emissivität zu erhalten. Eine detaillierte Retrieval-Fehleranalyse, die auf synthetischen Spektren beruht, zeigt, dass dies hauptsächlich an Interferenzen von Parametern liegt, die nicht aus den Spektren selbst hergeleitet werden können. Um dennoch die Strahlungstransportsimulationen zu ermöglichen, müssen diese Parameter auf angenommene Werte gesetzt werden. Es wird nachgewiesen, dass durch ein MSR-Retrieval von Emissivitätskarten relativ zu einer festen Emissivität die meisten Fehler bei der Emissivitätsbestimmung effizient vermieden werden können. Abschließend werden relative Emissivitätskarten bei 1.02, 1.10 und 1.18 µm aus vielen VIRTIS-M-IR-Messungen bestimmt, die einen Oberflächenbereich in der Themis Regio überdecken. Diese Karten werden als räumliche Variationen relativ zu einer angenommenen mittleren Emissivität des Oberflächenbereichs interpretiert. Es wird nachgewiesen, dass die Karten von der Wahl vieler interferierender Parameter sowie von der Auswahl der zugrunde liegenden Messungen weitgehend unabhängig sind. Dieses sind die ersten Karten von Emissivitätsdaten der Venus im Infrarotbereich auf Basis der konsistenten Anwendung einer umfassenden Strahlungstransportsimulation und eines Retrievalalgorithmus, der a priori Informationen berücksichtigt. Die Karten sind hinreichend zuverlässig für zukünftige geologische Interpretationen. KW - Venus Express KW - VIRTIS KW - surface emissivity KW - infrared KW - radiative transfer KW - retrieval KW - multi-spectrum regularization KW - Venus Express KW - VIRTIS KW - Oberflächenemissivität KW - Infrarot KW - Strahlungstransport KW - Retrieval KW - Multi-Spektrum-Regularisierung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85301 ER - TY - THES A1 - Kieling, Katrin T1 - Quantification of ground motions by broadband simulations T1 - Quantifizierung von Bodenbewegung durch Breitband-Simulationen N2 - In many procedures of seismic risk mitigation, ground motion simulations are needed to test systems or improve their effectiveness. For example they may be used to estimate the level of ground shaking caused by future earthquakes. Good physical models for ground motion simulation are also thought to be important for hazard assessment, as they could close gaps in the existing datasets. Since the observed ground motion in nature shows a certain variability, part of which cannot be explained by macroscopic parameters such as magnitude or position of an earthquake, it would be desirable that a good physical model is not only able to produce one single seismogram, but also to reveal this natural variability. In this thesis, I develop a method to model realistic ground motions in a way that is computationally simple to handle, permitting multiple scenario simulations. I focus on two aspects of ground motion modelling. First, I use deterministic wave propagation for the whole frequency range – from static deformation to approximately 10 Hz – but account for source variability by implementing self-similar slip distributions and rough fault interfaces. Second, I scale the source spectrum so that the modelled waveforms represent the correct radiated seismic energy. With this scaling I verify whether the energy magnitude is suitable as an explanatory variable, which characterises the amount of energy radiated at high frequencies – the advantage of the energy magnitude being that it can be deduced from observations, even in real-time. Applications of the developed method for the 2008 Wenchuan (China) earthquake, the 2003 Tokachi-Oki (Japan) earthquake and the 1994 Northridge (California, USA) earthquake show that the fine source discretisations combined with the small scale source variability ensure that high frequencies are satisfactorily introduced, justifying the deterministic wave propagation approach even at high frequencies. I demonstrate that the energy magnitude can be used to calibrate the high-frequency content in ground motion simulations. Because deterministic wave propagation is applied to the whole frequency range, the simulation method permits the quantification of the variability in ground motion due to parametric uncertainties in the source description. A large number of scenario simulations for an M=6 earthquake show that the roughness of the source as well as the distribution of fault dislocations have a minor effect on the simulated variability by diminishing directivity effects, while hypocenter location and rupture velocity more strongly influence the variability. The uncertainty in energy magnitude, however, leads to the largest differences of ground motion amplitude between different events, resulting in a variability which is larger than the one observed. For the presented approach, this dissertation shows (i) the verification of the computational correctness of the code, (ii) the ability to reproduce observed ground motions and (iii) the validation of the simulated ground motion variability. Those three steps are essential to evaluate the suitability of the method for means of seismic risk mitigation. N2 - In vielen Verfahren zur Minimierung seismischen Risikos braucht man Seismogramme, um die Effektivität von Systemen zu testen oder diese zu verbessern. So können realistische Bodenbewegungen genutzt werden, um das Ausmaß der Erschütterungen durch zukünftige Erdbeben abzuschätzen. Gute physikalische Bodenbewegungsmodelle haben auch das Potential, Lücken in den beobachteten Datensätzen zu schließen und somit Gefährdungsabschätzungen zu verbessern. Da die in der Natur beobachtete Bodenbewegung einer gewissen Variabilität unterliegt, von der ein Teil nicht durch makroskopische Parameter wie Magnitude oder Position des Erdbebens erklärt werden kann, ist es wünschenswert, dass ein gutes physikalisches Modell nicht nur ein einzelnes Seismogramm produziert, sondern auch die natürliche Variabilität widerspiegelt. In dieser Arbeit beschreibe ich eine Methode zur Modellierung von realistischen Bodenbewegungen, die – aufgrund ihrer einfachen Modellkonfiguration – mehrere Szenario-Simulationen ermöglicht. Dabei konzentriere ich mich auf zwei Aspekte: Einerseits nutze ich ein deterministisches Verfahren für die Wellenausbreitung für den gesamten Frequenzbereich, von der statischen Deformation bis etwa 10 Hz, unter Berücksichtigung der Variabilität der Quelle durch die Einbeziehung von selbstähnlichen Slipverteilungen und rauen Störungsflächen. Andererseits skaliere ich das Quellspektrum so, dass die modellierte Wellenform die abgestrahlte seismische Ener-gie wiedergibt. Damit überprüfe ich, ob die Energie-Magnitude als Stellgröße geeignet ist, die den Anteil der Energie beschreibt, der im Hochfrequenzbereich abgestrahlt wird. Der Vorteil der Energie- Magnitude ist, dass diese aus Beobachtungen, sogar in sehr kurzer Zeit, ermittelt werden kann. Anwendungen der entwickelten Methode für das Wenchuan (China) Erdbeben von 2008, das Tokachi-Oki (Japan) Erdbeben von 2003 und das Northridge (Kalifornien, USA) Erdbeben von 1994 demonstrieren, dass durch eine feine Diskretisierung und kleinskalige Variabilität in der Quelle hohe Frequenzen ausreichend in die Wellenform eingeführt werden, was den deterministischen Ansatz auch im Hochfrequenzbereich bestätigt. Ich zeige, dass die Energie-Magnitude verwendet werden kann um den Hochfrequenzanteil in Bodenbewegungssimulationen zu kalibrieren. Da die determistische Wellenausbreitung auf den gesamten Frequenzbereich angewandt wird, können die Variabilitäten, die durch parametrische Unsicherheiten in der Quellbeschreibung entstehen, beziffert werden. Zahlreiche Simulationen für ein M=6 Beben zeigen, dass die Rauigkeit der Quelle und die Slipverteilung durch Minderung der Direktivitätseffekte die simulierte Variabilität der Bodenbewegung geringfügig verringern. Dagegen haben die Bruchgeschwindigkeit und die Lage des Hypozentrums einen stärkeren Einfluss auf die Variabilität. Die Unsicherheit in der Energie-Magnitude dagegen führt zu großen Unterschieden zwischen verschiedenen Erdbebensimulationen, welche größer sind als die beobachtete Variabilität von Bodenbewegungen. In Bezug auf die vorgestellte Methode zeigt diese Arbeit (i) den Nachweis der Richtigkeit des Computerprogramms, (ii) die Eignung zur Modellierung beobachteter Bodenbewegung und (iii) den Vergleich der simulierten Variabilität von Bodenbewegung mit der beobachteten. Dies sind die ersten drei Schritte auf dem Weg zur Nutzbarkeit von Bodenbewegungssimulationen in Maßnahmen zur Verminderung des seismischen Risikos. KW - ground motions KW - earthquake KW - simulation KW - seismic risk KW - ground motion variability KW - Bodenbewegung KW - Erdbeben KW - seismisches Risiko KW - Simulation KW - Variabilität von Bodenbewegung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85989 ER - TY - THES A1 - Kniepert, Juliane T1 - Correlation between dynamic parameters and device performance of organic solar cells T1 - Zusammenhang zwischen den dynamischen Größen und der Effizienz Organischer Solarzellen N2 - Organic bulk heterojunction (BHJ) solar cells based on polymer:fullerene blends are a promising alternative for a low-cost solar energy conversion. Despite significant improvements of the power conversion efficiency in recent years, the fundamental working principles of these devices are yet not fully understood. In general, the current output of organic solar cells is determined by the generation of free charge carriers upon light absorption and their transport to the electrodes in competition to the loss of charge carriers due to recombination. The object of this thesis is to provide a comprehensive understanding of the dynamic processes and physical parameters determining the performance. A new approach for analyzing the characteristic current-voltage output was developed comprising the experimental determination of the efficiencies of charge carrier generation, recombination and transport, combined with numerical device simulations. Central issues at the beginning of this work were the influence of an electric field on the free carrier generation process and the contribution of generation, recombination and transport to the current-voltage characteristics. An elegant way to directly measure the field dependence of the free carrier generation is the Time Delayed Collection Field (TDCF) method. In TDCF charge carriers are generated by a short laser pulse and subsequently extracted by a defined rectangular voltage pulse. A new setup was established with an improved time resolution compared to former reports in literature. It was found that charge generation is in general independent of the electric field, in contrast to the current view in literature and opposed to the expectations of the Braun-Onsager model that was commonly used to describe the charge generation process. Even in cases where the charge generation was found to be field-dependend, numerical modelling showed that this field-dependence is in general not capable to account for the voltage dependence of the photocurrent. This highlights the importance of efficient charge extraction in competition to non-geminate recombination, which is the second objective of the thesis. Therefore, two different techniques were combined to characterize the dynamics and efficiency of non-geminate recombination under device-relevant conditions. One new approach is to perform TDCF measurements with increasing delay between generation and extraction of charges. Thus, TDCF was used for the first time to measure charge carrier generation, recombination and transport with the same experimental setup. This excludes experimental errors due to different measurement and preparation conditions and demonstrates the strength of this technique. An analytic model for the description of TDCF transients was developed and revealed the experimental conditions for which reliable results can be obtained. In particular, it turned out that the $RC$ time of the setup which is mainly given by the sample geometry has a significant influence on the shape of the transients which has to be considered for correct data analysis. Secondly, a complementary method was applied to characterize charge carrier recombination under steady state bias and illumination, i.e. under realistic operating conditions. This approach relies on the precise determination of the steady state carrier densities established in the active layer. It turned out that current techniques were not sufficient to measure carrier densities with the necessary accuracy. Therefore, a new technique {Bias Assisted Charge Extraction} (BACE) was developed. Here, the charge carriers photogenerated under steady state illumination are extracted by applying a high reverse bias. The accelerated extraction compared to conventional charge extraction minimizes losses through non-geminate recombination and trapping during extraction. By performing numerical device simulations under steady state, conditions were established under which quantitative information on the dynamics can be retrieved from BACE measurements. The applied experimental techniques allowed to sensitively analyse and quantify geminate and non-geminate recombination losses along with charge transport in organic solar cells. A full analysis was exemplarily demonstrated for two prominent polymer-fullerene blends. The model system P3HT:PCBM spincast from chloroform (as prepared) exhibits poor power conversion efficiencies (PCE) on the order of 0.5%, mainly caused by low fill factors (FF) and currents. It could be shown that the performance of these devices is limited by the hole transport and large bimolecular recombination (BMR) losses, while geminate recombination losses are insignificant. The low polymer crystallinity and poor interconnection between the polymer and fullerene domains leads to a hole mobility of the order of 10^-7 cm^2/Vs which is several orders of magnitude lower than the electron mobility in these devices. The concomitant build up of space charge hinders extraction of both electrons and holes and promotes bimolecular recombination losses. Thermal annealing of P3HT:PCBM blends directly after spin coating improves crystallinity and interconnection of the polymer and the fullerene phase and results in comparatively high electron and hole mobilities in the order of 10^-3 cm^2/Vs and 10^-4 cm^2/Vs, respectively. In addition, a coarsening of the domain sizes leads to a reduction of the BMR by one order of magnitude. High charge carrier mobilities and low recombination losses result in comparatively high FF (>65%) and short circuit current (J_SC ≈ 10 mA/cm^2). The overall device performance (PCE ≈ 4%) is only limited by a rather low spectral overlap of absorption and solar emission and a small V_OC, given by the energetics of the P3HT. From this point of view the combination of the low bandgap polymer PTB7 with PCBM is a promising approach. In BHJ solar cells, this polymer leads to a higher V_OC due to optimized energetics with PCBM. However, the J_SC in these (unoptimized) devices is similar to the J_SC in the optimized blend with P3HT and the FF is rather low (≈ 50%). It turned out that the unoptimized PTB7:PCBM blends suffer from high BMR, a low electron mobility of the order of 10^-5 cm^2/Vs and geminate recombination losses due to field dependent charge carrier generation. The use of the solvent additive DIO optimizes the blend morphology, mainly by suppressing the formation of very large fullerene domains and by forming a more uniform structure of well interconnected donor and acceptor domains of the order of a few nanometers. Our analysis shows that this results in an increase of the electron mobility by about one order of magnitude (3 x 10^-4 cm^2/Vs), while BMR and geminate recombination losses are significantly reduced. In total these effects improve the J_SC (≈ 17 mA/cm^2) and the FF (> 70%). In 2012 this polymer/fullerene combination resulted in a record PCE for a single junction OSC of 9.2%. Remarkably, the numerical device simulations revealed that the specific shape of the J-V characteristics depends very sensitively to the variation of not only one, but all dynamic parameters. On the one hand this proves that the experimentally determined parameters, if leading to a good match between simulated and measured J-V curves, are realistic and reliable. On the other hand it also emphasizes the importance to consider all involved dynamic quantities, namely charge carrier generation, geminate and non-geminate recombination as well as electron and hole mobilities. The measurement or investigation of only a subset of these parameters as frequently found in literature will lead to an incomplete picture and possibly to misleading conclusions. Importantly, the comparison of the numerical device simulation employing the measured parameters and the experimental $J-V$ characteristics allows to identify loss channels and limitations of OSC. For example, it turned out that inefficient extraction of charge carriers is a criticical limitation factor that is often disobeyed. However, efficient and fast transport of charges becomes more and more important with the development of new low bandgap materials with very high internal quantum efficiencies. Likewise, due to moderate charge carrier mobilities, the active layer thicknesses of current high-performance devices are usually limited to around 100 nm. However, larger layer thicknesses would be more favourable with respect to higher current output and robustness of production. Newly designed donor materials should therefore at best show a high tendency to form crystalline structures, as observed in P3HT, combined with the optimized energetics and quantum efficiency of, for example, PTB7. N2 - Organische Solarzellen aus Polymer-Fulleren Mischschichten sind eine vielversprechende Alternative für eine kostengünstige Quelle erneuerbarer Energien. Jedoch sind trotz intensiver Forschung und bedeutenden Verbesserungen der Effizienzen während der letzten Jahre, die fundamentalen Prozesse in diesen Solarzellen noch immer nicht vollständig verstanden. Im Allgemeinen wird der Photostrom in organischen Solarzellen durch die Generation freier Ladungsträger nach Absorption von Licht und dem anschliessenden Transport dieser Ladungsträger zu den Elektroden bestimmt, wobei ein Teil durch Rekombination verloren geht. Das Ziel dieser Dissertation ist es, zu einem umfassenden Verständnis aller dynamischen Prozesse und relevanten physikalischen Parameter und deren Zusammenhang mit der Solarzelleneffizienz beizutragen. Dabei wurde eine neue Herangehensweise zur Analyse der Strom-Spannungskennlinien entwickelt, die auf der experimentellen Bestimmung von Ladungsträgergeneration, Rekombination und Transport im Vergleich mit numerischen Simulationen beruht. Die zentralen Fragestellungen zu Beginn der Arbeit waren, in welchem Masse die Ladungsträgergeneration von der Stärke des elektrischen Feldes abhängt und in wie weit die einzelnen Prozesse Generation, Rekombination und Transport zum charakteristischen Verlauf der Strom-Spannungskennlinie beitragen. Eine elegante Methode um direkt die Feldabhängigkeit der Ladungsträgergeneration zu bestimmen, ist die Time Delayed Collection Field (TDCF) Methode. Dabei werden in der Solarzelle Ladungsträger mit einem kurzen Laserpuls erzeugt und anschliessend mit einem wohldefinierten rechteckigen Spannungspuls extrahiert. Im Rahmen dieser Arbeit wurde ein neuer Versuchsaufbau mit stark verbesserter Zeitauflösung im Vergleich zu vorangegangenen Arbeiten aufgebaut. Es hat sich gezeigt, dass die Generation im Allgemeinen nicht vom elektrischen Feld abhängt. Dies steht im Widerspruch zu dem in der Literatur häufig verwendeten Braun-Onsager Modell zur Beschreibung der Ladungsgeneration. Selbst in Fällen, in denen eine feldabhängige Generation gemessen wurde, reichte diese im Allgemeinen nicht aus, um die Spannungsabhängigkeit des Photostroms in diesen Zellen zu erklären. Dies führt zu der zunehmenden Bedeutung einer effizienten Ladungsextraktion in Konkurrenz zur nicht-geminalen Rekombination, welche die zweite wichtige Fragestellung in dieser Arbeit war. Dazu wurden zwei neue Herangehensweisen zur Messung der Rekombinationsdynamik unter Solarzellen-relevanten Messbedingungen erarbeitet. Zum Einen wurde zum ersten Mal TDCF zur Messung von Rekombination und Transport verwendet. Der Vorteil ist, dass die Messung aller drei relevanten Prozesse in einem Versuchsaufbau zu einer höheren Genauigkeit führt, da experimentelle Fehler durch unterschiedliche Probenpräparation und Messbedingungen ausgeschlossen werden können. Es wurde ein analytisches Modell zur Beschreibung der TDCF Transienten entwickelt, welches direkt Rückschlüsse auf die notwendigen Messbedingungen erlaubt, unter denen zuverlässige Ergebnisse erzielt werden können. Insbesondere hat sich dabei gezeigt, dass die RC-Zeit des Aufbaus, die hauptsächlich durch die Probengeometrie bestimmt wird, einen wesentlichen Einfluss auf die Transienten hat, welcher in der Datenauswertung nicht vernachlässigt werden darf. Zum Anderen wurde eine komplementäre Methode zur Messung der Rekombination im Gleichgewicht benutzt, die auf der genauen Bestimmung der statischen Ladungsträgerdichte unter Beleuchtung basiert. Es zeigte sich, dass die in der Literatur etablierten Methoden zur Ladungsträgerbestimmung nicht ausreichend genau waren. Daher wurde eine neue, sensitive Technik entwickelt, die Bias Assisted Charge Extraction (BACE) Methode. Dabei werden die unter kontinuierlicher Beleuchtung generierten Ladungsträger mit einem hohen angelegten elektrischen Feld extrahiert. Dies führt zu einer beschleunigten Extraktion im Vergleich zur konventionellen Charge Extraction Methode, welche die Verluste durch Rekombination und Trapping deutlich reduziert. Mit Hilfe von numerischen Simulationen wurden Bedingungen festgelegt, unter denen zuverlässige Messungen mit BACE möglich sind. Mit den vorgestellten Methoden können alle relevanten Parameter für Generation, Rekombination und Transport experimentell sehr genau bestimmt und analysiert werden. Dies wurde exemplarisch für zwei in der Literatur bedeutende Materialsysteme durchgeführt. Das Modellsystem P3HT:PCBM, hergestellt aus dem Lösungsmittel Chloroform, weist direkt nach der Präparation nur sehr niedrige Effizienzen im Bereich von 0.5% auf, die vor allem durch niedrige Ströme und Füllfaktoren (FF) gekennzeichnet sind. Es konnte gezeigt werden, dass die Effizienz dieser Zellen durch den sehr langsamen Lochtransport und die starke bimolekulare Rekombination begrenzt wird, während Verluste durch geminale Rekombination eher unbedeutend sind. Eine geringe Kristallinität des Polymers und schlechte Verbindungen zwischen den Polymerdomänen führt zu einer Lochmobilität von nur 10^7 cm^2/Vs. Diese ist mehrere Grössenordnungen kleiner als die Elektronenmobilität in diesen Zellen, was den Aufbau von Raumladungen zur Folge hat und damit die Extraktion von beiden Ladungsträgern behindert und bimolekulare Rekombination begünstigt. Die thermische Behandlung der P3HT:PCBM Proben direkt nach dem Spin Coating verbessert sowohl die Kristallinität als auch die Vernetzung der Polymer- und Fullerenphasen. Dies führt zu vergleichsweise hohen Mobilitäten für Elektronen (10^3 cm^2/Vs) und Löcher (10^4 cm^2/Vs). Zusätzlich reduziert eine Vergrösserung der Domänenstruktur die bimolekulare Rekombination um eine Grössenordnung. Die hohen Mobilitäten und niedrigen Rekombinationverluste resultieren in vergleichsweise hohen FF (> 65%) und Strömen (J_SC ≈ 10 mA/cm^2). Die Effizienz (≈ 4%) wird dabei nur durch den eher geringen spektralen Überlapp zwischen Absorptions- und Sonnenemissionsspektrum begrenzt und einer geringen Leerlaufspannung (V_OC), verursacht durch die ungünstige Energetik des P3HT. Aus dieser Perspektive ist die Kombination des Low-Bandgap Polymers PTB7 mit dem Fullerenderivat PCBM ein vielversprechender Ansatz. Aufgrund der angepassten Energetik führt diese Kombination in Mischschichtsolarzellen zu einer höheren V_OC. Jedoch ist der Kurzschlussstrom (J_SC) in den unoptimierten Zellen gegenüber dem der optimierten P3HT:PCBM Zellen nicht erhöht und die FF sind niedrig (≈ 50%). Die Untersuchungen ergaben, dass die Dynamik in den unoptimierten PTB7:PCBM Zellen durch hohe bimolekulare Rekombination (BMR), eine niedrige Elektronenmobilität im Bereich von 10^5 cm^2/Vs und nicht-geminalen Rekombinationsverslusten aufgrund einer feldabhängigen Generation geprägt ist. Die Zugabe des Lösungsmitteladditivs DIO bei der Probenpräparation optimiert die Morphologie in der Schicht. Dabei wird hauptsächlich die Formation von sehr grossen Fullerendomänen unterdrückt und eine gleichmässige Struktur von gut vernetzten, nanometergrossen Donor- und Akzeptordomänen ausgebildet. Unsere Analyse zeigt, dass dadurch die Elektronenmobilität um ca eine Grössenordnung erhöht wird (auf 3 x 10^4 cm^2/Vs), während BMR und geminale Rekombination deutlich unterdrückt werden. Zusammen genommen verbessern diese Effekte sowohl den J_SC (≈ 17 mA/cm^2) als auch den FF (> 70%). Im Jahr 2012 führten die optimierten PTB7:PCBM Solarzellen damit zu einer Rekordeffizienz für organische Solarzellen von 9.2%. Von grösserer Bedeutung ist jedoch, dass der Vergleich zwischen den gemessenen und simulierten Strom-Spannungskennlinien, mit experimentell bestimmten Eingangsparametern, Rückschlüsse auf die entsprechenden Verlustkanäle in den jeweiligen Solarzellen erlaubt. Hierbei zeigte sich, dass die effiziente Extraktion von Ladungsträgern ein kritischer Faktor ist, der in der Literatur oft unterschätzt wird. Der effiziente und schnelle Transport von Ladungen wird aber gerade im Hinblick auf neue Low-Bandgap Materialien mit sehr hohen internen Quanteneffizienzen immer wichtiger. Moderate Mobilitäten limitieren die möglichen Schichtdicken auf ca 100 nm. Grössere Schichtdicken wären jedoch vorteilhafter im Hinblick auf höhere Ausgangsströme und der Robustheit des Produktionsprozesses. Neu entwickelte Donormaterialien sollten daher sowohl möglichst kristalline Strukturen ausbilden mit einhergehenden hohen Mobilitäten, wie beim P3HT, als auch optimierte Energieniveaus und Quanteneffizienzen aufweisen, wie beispielsweise PTB7. KW - organic solar cells KW - optoelectronic measurements KW - transient methods KW - numeric device simulations KW - organische Solarzellen KW - optoelektronische Messungen KW - transiente Messmethoden KW - numerische Bauteilsimulationen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90087 ER - TY - THES A1 - Krause, Tobias Alexander T1 - Erklärungsfaktoren für die Managementautonomie in kommunalen Mehrheitsbeteiligungen T1 - Determinants of management autonomy in municipally owned companies BT - Eine empirische Studie BT - An empirical study N2 - In den letzten Jahrzehnten ist der Trend der Verselbstständigung in vielen Kommunen zu beobachten. Ein Großteil der öffentlichen Leistungserbringer wird mittlerweile als privatrechtliche Gesellschaften in einem wettbewerbsorientierten Umfeld geführt. Während viele Forscher Ausgliederungen in Form von nachgeordneten Behörden auf Bundesebene untersuchen und diese Reformwelle als einen faktischen Autonomisierungsprozess beschreiben, gibt es nur einige wenige Studien, die sich explizit mit den Autonomisierungstendenzen auf Kommunalebene auseinandersetzen. Daher fehlt es an empirischen Erkenntnissen zur Steuerung der kommunalen Beteiligungen. In dieser Arbeit werden die Steuerungsarrangements deutscher Großstädte erstmals aus Sicht der Gesteuerten beleuchtet. Das Untersuchungsziel der vorliegenden Forschungsarbeit besteht darin, Flexibilisierungstendenzen in mehrheitlich kommunalen Unternehmen zu identifizieren und hierfür Erklärungsfaktoren zu identifizieren. Die Forschungsfrage lautet: Welche instrumentellen und relationalen Faktoren beeinflussen die Managementautonomie in kommunalen Mehrheitsbeteiligungen? Dabei interessiert insbesondere die Einflussnahme der Kommunen auf verschiedene Tätigkeitsbereiche ihrer Ausgliederungen. Über diese unternehmensspezifischen Sachverhalte ist in Deutschland fast nichts und international nur sehr wenig Empirisches bekannt. Zur Beantwortung der Forschungsfrage hat der Autor auf Basis der Transaktionskosten- und der Social-Exchange-Theorie einen Analyserahmen erstellt. Die aufgestellten Hypothesen wurden mit einer großflächigen Umfrage bei 243 Unternehmen in den 39 größten deutschen Städten empirisch getestet. Im Ergebnis zeigen sich mehrere empirische Erkenntnisse: Erstens konnten mittels Faktorenanalyse vier unabhängige Faktoren von Managementautonomie in kommunalen Unternehmen identifiziert werden: Personalautonomie, Generelles Management, Preisautonomie und Strategische Fragen. Während die Kommunen ihren Beteiligungen einen hohen Grad an Personalautonomie zugestehen, unterliegen vor allem strategische Investitionsentscheidungen wie die finanzielle Beteiligung an Tochterfirmen, große Projektvorhaben, Diversifikationsentscheidungen oder Kreditautfnahmen einem starken politischen Einfluss. Zweitens führt eine Rechtsformänderung und die Platzierung in einem Wettbewerbsumfeld (auch bekannt als Corporatisation) vor allem zu einer größeren Flexibilisierung der Personal- und Preispolitik, wirkt sich allerdings wenig auf die weiteren Faktoren der Managementautonomie, Generelles Management und Strategische Entscheidungen, aus. Somit behalten die Kommunen ihre Möglichkeit, auf wichtige Unternehmensfragen der Beteiligung Einfluss zu nehmen, auch im Fall einer Formalprivatisierung bei. Letztlich können zur Erklärung der Autonomiefaktoren transaktionskostenbasierte und relationale Faktoren ergänzend herangezogen werden. In den Transaktionsspezifika wirken vor allem der wahrgenommene Wettbewerb in der Branche, die Messbarkeit der Leistung, Branchenvariablen, die Anzahl der Politiker im Aufsichtsrat und die eingesetzten Steuerungsmechanismen. In den relationalen Faktoren setzen sich die Variablen gegenseitiges Vertrauen, Effektivität der Aufsichtsräte, Informationsaustausch, Rollenkonflikte, Rollenambivalenzen und Geschäftsführererfahrung im Sektor durch. N2 - Striving for efficiency and budget improvements, governments at local, state or federal level in most OECD countries have been delegating service provision to private and nonprofit organizations. On the local level, new types of state owned enterprises operate as private law entities and have become equivalent competitors in increasingly demanding, dynamic environments. Their establishment is commonly referred to as corporatization. So far, there is little empirical knowledge about the governance arrangements with regard to corporatization. Analysing the governance arrangements of municipalities as perceived by 243 steered organizations, the author investigates on the issue of management autonomy. Research is driven by the following research question: Which characteristics of the relationship between state owned enterprises and the government impact the level and type of management autonomy of those enterprises? Based on Transaction Cost and Social Exchange Theory, the author develops an analytical framework and formulates several hypotheses. These hypotheses are tested on a sample of 243 municipally owned enterprises in the 39 biggest German cities. The author arrives at several empirical results: Firstly, different types of autonomy are identified. An exploratory factor analysis reveals four distinct factors termed HRM, General Managerial, Pricing and Strategy Autonomy. While municipal governments concede a reasonably high amount of HRM autonomy to their enterprises, strategic decisions like diversification issues, taking loans or larger investments are subject to political influence. Secondly, corporatization which is the tranfer from public to private law fosters HRM and pricing autonomy in the German sample. However, the author does not detect any significant relationship with trategic and general managerial issues. Lastly, there is evidence for both some of the transaction cost and social exchange driven hypotheses. With regard to transaction characteristics, the study reveals that the perceived degree of competition, the measurability of output, the branch,the number of politicians in the board as well as the applied steering mechanisms covary management autonomy. While relational characteristics like information sharing, board effectiveness, role ambiguity and policy-profession conflict affect management autonomy in a negative way, mutual trust and former CEO experience in a public enterprise correlate positively. KW - öffentliche Unternehmen KW - Autonomie KW - Steuerung KW - kommunale Unternehmen KW - Beteiligungen KW - Social-Exchange-Theorie KW - Transaktionskosten-Theorie KW - Public Corporate Governance KW - Beteiligungssteuerung KW - SOE KW - state owned enterprises KW - governance KW - autonomy KW - management KW - municipal enterprises KW - steering KW - quango KW - corporate governance KW - corporatization KW - agencification KW - social exchange theory KW - transaction cost theory KW - new public management KW - management autonomy KW - control Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-86503 ER - TY - THES A1 - Kreitsch, Thomas T1 - Demografie und politischer Reduktionismus T1 - Demography and political reductionism BT - eine Diskursanalyse der Demografiepolitik in Deutschland BT - a discourse analysis of the demographic policy in Germany N2 - Die Dissertation mit dem Thema „Demografie und politischer Reduktionismus – eine Diskursanalyse der Demografiepolitik in Deutschland“ knüpft an die Debatte um die Demografisierung an, die sich damit beschäftigt, dass gesellschaftliche Entwicklungen häufig zu sehr aus einer demografischen Perspektive betrachtet und beschrieben werden. Sie analysiert die zum Teil noch jungen Diskurse, die durch Akteure in Wissenschaft, Politik und Publizistik zu den demografiepolitischen Strategien und Aktivitäten der Bundesregierung geführt werden. Dabei werden Teilbereiche der Gesellschaft, darunter insbesondere die soziale Sicherung, die Generationenbeziehungen sowie die ökonomische Entwicklung und auch räumliche Aspekte der Demografie, in den Blick genommen. Es werden ausgewählte Zusammenhänge zwischen gesellschaftlichen Entwicklungen und demografischen Veränderungen reflektiert, denen ein kausales Beziehungsverhältnis bescheinigt wird. Es wird aufgezeigt, wo mit Verweis auf die Demografie lediglich Deutungsangebote geschaffen und Kausalbehauptungen aufgestellt werden. Von besonderem Untersuchungsinteresse ist hierbei die Demografie als Argument, um politisches, wirtschaftliches und soziales Handeln zu legitimieren und ein gesellschaftliches Klima der Akzeptanz zu erzeugen. Wo erweist sich die Demografie als ein Spekulationsobjekt – wo ist sie erwiesene, überprüfbare Kausalität? Und wo ist die Grenze zur Instrumentalisierung der Demografie zu ziehen? Es wird belegt, dass eine Gelegenheitsdemografie vor allem aus drei Gründen praktiziert wird: Sie verschafft organisierten Interessen Gehör, sie bietet Orientierung in komplexen Gesellschaften und sie dient als Beurteilungsmaßstab der Bewertung von gesellschaftlichen Entwicklungen. Die aktuelle Konjunktur von Diskursen zum demografischen Wandel sorgt dafür, dass die Gelegenheiten, mit Demografie zu argumentieren, immer wieder reproduziert werden. In der Folge werden nicht nur gesellschaftliche Entwicklungen zu sehr auf demografische Komponenten zurückgeführt. Auch das familien-, sozial-, migrations- und wirtschaftspolitische Denken und Handeln wird häufig über das Maß tatsächlicher Ursache-Wirkungs-Zusammenhänge hinaus auf vermeintliche demografische Gesetzmäßigkeiten reduziert (Reduktionismus). Die Diskursanalyse der Demografiepolitik in Deutschland will die Bedeutung des demografischen Wandels für die Gesellschaft dabei nicht in Frage stellen. Sie soll für einen kritischeren Umgang mit der Demografie sensibilisieren. Dazu gehört auch, aufzuzeigen, dass die Demografie ein Faktor unter vielen ist. N2 - The dissertation on the subject of "Demography and political reductionism - a discourse analysis of the demographic policy in Germany" continues the debate on the Demografisierung, which deals with the fact that social developments are often highly regarded and described from a demographic perspective. It analyzes the partially still young discourses that are performed by actors in academia, politics and journalism to the demographic policies and activities of the Federal Government. Parts of the society, including in particular the social security, the intergenerational relations, the economic development and spatial aspects of demography, are taken into account. Selected correlations between social developments and demographic changes are reflected, certifying causal relationships. The dissertation shows where with reference to the demographics only interpretation deals are created and causal claims are made. Of particular interest in this study are demographics as an argument to legitimize political, economic and social action and to create a social climate of acceptance. Where does demography prove an object of speculation - where it is proven, verifiable causality? And where is the balance to be drawn regarding the instrumentalization of demography? There is evidence that an occasional argumentation with demographics is practiced mainly for three reasons: It gives organized interests heard, it provides orientation in complex societies and it serves as a yardstick of evaluation of social developments. The current boom of discourses on demographic change ensures that the opportunities to argue with demographics are being reproduced repeatedly. As a result, social developments are attributed too intense to demographic components. The thinking and acting within family, social, migration and economic policies are also often reduced on perceived demographic regularities beyond subsistent cause-effect relationships (reductionism). The discourse analysis of demographic policy in Germany does not want the significance of demographic change for the society calling into question. It should raise awareness of a more critical approach in dealing with demographics. This includes to show that demography is one factor among many. KW - demografischer Wandel KW - Reduktionismus KW - Demografisierung KW - Bevölkerungsmarketing KW - Diskurs KW - Demografiepolitik KW - demographic change KW - reductionism KW - discourse KW - demographic policy KW - population marketing Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80794 ER - TY - THES A1 - Kulikova, Galina T1 - Source parameters of the major historical earthquakes in the Tien-Shan region from the late 19th to the early 20th century T1 - Herdparameter von starken, historischen Erdbeben in der Tien-Shan Region zur Jahrhundertwende (19./20. Jahrhundert) N2 - The Tien-Shan and the neighboring Pamir region are two of the largest mountain belts in the world. Their deformation is dominated by intermontane basins bounded by active thrust and reverse faulting. The Tien-Shan mountain belt is characterized by a very high rate of seismicity along its margins as well as within the Tien-Shan interior. The study area of the here presented thesis, the western part of the Tien-Shan region, is currently seismically active with small and moderate sized earthquakes. However, at the end of the 19th beginning of the 20th century, this region was struck by a remarkable series of large magnitude (M>7) earthquakes, two of them reached magnitude 8. Those large earthquakes occurred prior to the installation of the global digital seismic network and therefore were recorded only by analog seismic instruments. The processing of the analog data brings several difficulties, for example, not always the true parameters of the recording system are known. Another complicated task is the digitization of those records - a very time-consuming and delicate part. Therefore a special set of techniques is developed and modern methods are adapted for the digitized instrumental data analysis. The main goal of the presented thesis is to evaluate the impact of large magnitude M≥7.0 earthquakes, which occurred at the turn of 19th to 20th century in the Tien-Shan region, on the overall regional tectonics. A further objective is to investigate the accuracy of previously estimated source parameters for those earthquakes, which were mainly based on macroseismic observations, and re-estimate them based on the instrumental data. An additional aim of this study is to develop the tools and methods for faster and more productive usage of analog seismic data in modern seismology. In this thesis, the ten strongest and most interesting historical earthquakes in Tien-Shan region are analyzed. The methods and tool for digitizing and processing the analog seismic data are presented. The source parameters of the two major M≥8.0 earthquakes in the Northern Tien-Shan are re-estimated in individual case studies. Those studies are published as peer-reviewed scientific articles in reputed journals. Additionally, the Sarez-Pamir earthquake and its connection with one of the largest landslides in the world, Usoy landslide, is investigated by seismic modeling. These results are also published as a research paper. With the developed techniques, the source parameters of seven more major earthquakes in the region are determined and their impact on the regional tectonics was investigated. The large magnitudes of those earthquakes are confirmed by instrumental data. The focal mechanism of these earthquakes were determined providing evidence for responsible faults or fault systems. N2 - Der Tien-Shan und die angrenzende Pamir Region sind zwei der größten Gebirgszüge der Welt. Deformation findet hier hauptsächlich an aktiven Auf- und Abschiebungszonen statt, welche intermontane Becken umschließen. Der Tien-Shan Gebirgszug ist sowohl an den Störungszonen als auch innerhalb der Becken durch eine hohe Seismizitätsrate charakterisiert. Das Untersuchungsgebiet der hier präsentierten Dissertation, der westliche Bereich der Tien-Shan Region, ist in den letzten Jahrzehnten durch das Auftreten kleiner und mittlerer Erdbeben gekennzeichnet. Jedoch wurde diese Region an der Wende zum 20. Jahrhundert von einer Reihe außergewöhnlich starker Erdbeben (M>7) heimgesucht. Zwei von ihnen erreichten sogar die Magnitude 8. Diese starken Erdbeben ereigneten sich vor der Installation eines globalen, digitalen seismischen Netzwerks und wurden daher nur von analogen seismischen Instrumenten aufgezeichnet. Die Bearbeitung von analogen Daten birgt mehrere Schwierigkeiten, z.B. sind die wahren Werte der Instrumentencharakterisitik nicht immer bekannt. Ein weiterer komplizierter Teil ist die Digitalisierung dieser Aufzeichnungen, die sehr zeitaufwändig und diffizil ist. Um diesen und weiteren Schwierigkeiten zu begegnen, wurden in der vorliegenden Arbeit spezielle Techniken zur Digitalisierung analoger, seismischer Daten und moderne Methoden der Datenanalyse speziell für digitalisierte, analoge Daten adaptiert. Das Hauptziel der hier präsentierten Dissertation ist die Auswertung der Auswirkungen von starken Erdbeben (Magnitude 7.0) auf die regionale Tektonik, welche zur Jahrhundertwende zum 20. Jahrhundert in der Tian Shan Region stattgefunden haben. Eine weitere Zielsetzung ist die Überprüfung der Genauigkeit von früher bestimmten Herdparametern dieser Erdbeben, welche hauptsächlich auf makroseismischen Untersuchungen beruhen, und deren erneute Bestimmung mithilfe instrumenteller Daten. Außerdem sollen in dieser Arbeit die notwendigen Werkzeuge und Methoden für die schnellere und produktivere Nutzung von analogen, seismischen Daten für zukünftige Studien in der modernen Seismologie entwickelt werden. In dieser Arbeit werden die zehn stärksten und interessantesten historischen Erdbeben der Tien-Shan Region analysiert. Es werden Methoden und Werkzeuge für die Digitalisierung und Bearbeitung von analogen seismischen Daten vorgestellt. Die Herdparameter der zwei bedeutendsten Erdbeben mit M~8 im nördlichen Tien-Shan werden erneut bestimmt und in separaten, detaillierten Fallstudien behandelt. Diese Studien sind als wissenschaftlich begutachtete Artikel in renommierten Fachzeitschriften publiziert. Zusätzlich wurde das Sarez-Pamir Erdbeben und seine Verbindung mit einem der größten Erdrutsche der Welt, dem Usoy Erdrutsch, basierend auf seismischer Modellierung untersucht. Diese Ergebnisse sind ebenfalls in einem wissenschaftlichen Aufsatz veröffentlicht. Mit den hier entwickelten Methoden wurden die Herdparameter der sieben stärksten Erdbeben in der Region bestimmt und ihre Auswirkung auf die regionale Tektonik untersucht. Die Magnituden dieser Erdbeben wurden mit Hilfe instrumental aufgezeichneter Daten bestätigt. Die Herdflächenlösungen dieser Erdbeben wurden bestimmt und geben Hinweise auf die möglichen verantwortlichen Störungen. KW - Seismology KW - historical earthquakes KW - Seismologie KW - historische Erdbeben Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88370 ER - TY - THES A1 - Kämpf, Lucas T1 - Extreme events in geoarchives T1 - Extremereignisse in Geoarchiven BT - deciphering processes of detrital flood layer formation in lake sediments BT - Bildung von Hochwasserlagen in Seesedimenten N2 - A main limitation in the field of flood hydrology is the short time period covered by instrumental flood time series, rarely exceeding more than 50 to 100 years. However, climate variability acts on short to millennial time scales and identifying causal linkages to extreme hydrological events requires longer datasets. To extend instrumental flood time series back in time, natural geoarchives are increasingly explored as flood recorders. Therefore, annually laminated (varved) lake sediments seem to be the most suitable archives since (i) lake basins act as natural sediment traps in the landscape continuously recording land surface processes including floods and (ii) individual flood events are preserved as detrital layers intercalated in the varved sediment sequence and can be dated with seasonal precision by varve counting. The main goal of this thesis is to improve the understanding about hydrological and sedimentological processes leading to the formation of detrital flood layers and therewith to contribute to an improved interpretation of lake sediments as natural flood archives. This goal was achieved in two ways: first, by comparing detrital layers in sediments of two dissimilar peri-Alpine lakes, Lago Maggiore in Northern Italy and Mondsee in Upper Austria, with local instrumental flood data and, second, by tracking detrital layer formation during floods by a combined hydro-sedimentary monitoring network at Lake Mondsee spanning from the rain fall to the deposition of detrital sediment at the lake floor. Successions of sub-millimetre to 17 mm thick detrital layers were detected in sub-recent lake sediments of the Pallanza Basin in the western part of Lago Maggiore (23 detrital layers) and Lake Mondsee (23 detrital layers) by combining microfacies and high-resolution micro X-ray fluorescence scanning techniques (µ-XRF). The detrital layer records were dated by detailed intra-basin correlation to a previously dated core sequence in Lago Maggiore and varve counting in Mondsee. The intra-basin correlation of detrital layers between five sediment cores in Lago Maggiore and 13 sediment cores in Mondsee allowed distinguishing river runoff events from local erosion. Moreover, characteristic spatial distribution patterns of detrital flood layers revealed different depositional processes in the two dissimilar lakes, underflows in Lago Maggiore as well as under- and interflows in Mondsee. Comparisons with runoff data of the main tributary streams, the Toce River at Lago Maggiore and the Griesler Ache at Mondsee, revealed empirical runoff thresholds above which the deposition of a detrital layer becomes likely. Whereas this threshold is the same for the whole Pallanza Basin in Lago Maggiore (600 m3s-1 daily runoff), it varies within Lake Mondsee. At proximal locations close to the river inflow detrital layer deposition requires floods exceeding a daily runoff of 40 m3s-1, whereas at a location 2 km more distal an hourly runoff of 80 m3s-1 and at least 2 days with runoff above 40 m3s-1 are necessary. A relation between the thickness of individual deposits and runoff amplitude of the triggering events is apparent for both lakes but is obviously further influenced by variable influx and lake internal distribution of detrital sediment. To investigate processes of flood layer formation in lake sediments, hydro-sedimentary dynamics in Lake Mondsee and its main tributary stream, Griesler Ache, were monitored from January 2011 to December 2013. Precipitation, discharge and turbidity were recorded continuously at the rivers outlet to the lake and compared to sediment fluxes trapped close to the lake bottom on a basis of three to twelve days and on a monthly basis in three different water depths at two locations in the lake basin, in a distance of 0.9 (proximal) and 2.8 km (distal) to the Griesler Ache inflow. Within the three-year observation period, 26 river floods of different amplitude (10-110 m3s-1) were recorded resulting in variable sediment fluxes to the lake (4-760 g m-2d-1). Vertical and lateral variations in flood-related sedimentation during the largest floods indicate that interflows are the main processes of lake internal sediment transport in Lake Mondsee. The comparison of hydrological and sedimentological data revealed (i) a rapid sedimentation within three days after the peak runoff in the proximal and within six to ten days in the distal lake basin, (ii) empirical runoff thresholds for triggering sediment flux at the lake floor increasing from the proximal (20 m3s-1) to the distal lake basin (30 m3s-1) and (iii) factors controlling the amount of detrital sediment deposition at a certain location in the lake basin. The total influx of detrital sediment is mainly driven by runoff amplitude, catchment sediment availability and episodic sediment input by local sediment sources. A further role plays the lake internal sediment distribution which is not the same for each event but is favoured by flood duration and the existence of a thermocline and, therewith, the season in which a flood occurred. In summary, the studies reveal a high sensitivity of lake sediments to flood events of different intensity. Certain runoff amplitudes are required to supply enough detrital material to form a visible detrital layer at the lake floor. Reasonable are positive feedback mechanisms between rainfall, runoff, erosion, fluvial sediment transport capacity and lake internal sediment distribution. Therefore, runoff thresholds for detrital layer formation are site-specific due to different lake-catchment characteristics. However, the studies also reveal that flood amplitude is not the only control for the amount of deposited sediment at a certain location in the lake basin even for the strongest flood events. The sediment deposition is rather influenced by a complex interaction of catchment and in-lake processes. This means that the coring location within a lake basin strongly determines the significance of a flood layer record. Moreover, the results show that while lake sediments provide ideal archives for reconstructing flood frequencies, the reconstruction of flood amplitudes is a more complex issue and requires detailed knowledge about relevant catchment and in-lake sediment transport and depositional processes. N2 - Die Erforschung von Hochwasserereignissen, ihrer Wiederkehrhäufigkeiten und Entwicklung im Zuge des prognostizierten Klimawandels wird durch die kurzen instrumentellen Datenreihen stark begrenzt. Diese umfassen selten mehr als die letzten 50 bis 100 Jahre. Das Klima verändert sich jedoch in kurzen bis hin zu sehr langen Zeiträumen, welche mehrere tausend Jahre umfassen können. Die Feststellung von Zusammenhängen zwischen Klimaänderungen und dem Auftreten von Hochwasserereignissen bedarf daher längerer Datenreihen. Aus diesem Grund sind in den letzten Jahren Geoarchive als Zeugen vergangener Hochwasserereignisse stärker in den Fokus der Forschung gerückt. Besonders geeignete Archive sind jährlich geschichtete Seesedimente, da Seen natürliche Senken für Stoffflüsse aus der Landschaft darstellen. Sedimenteinträge durch Hochwasserereignisse führen zur Bildung charakteristischer Lagen am Seeboden. Diese Eintragslagen können im Seesediment untersucht und aufgrund der Jahresschichtung mit saisonaler Präzision datiert werden. Das Ziel der vorliegenden Arbeit ist es, das Verständnis über jene Prozesse, die zur Bildung solcher Hochwasserlagen in Seesedimenten führen, zu erweitern und damit zu einer verbesserten Interpretation von Seesedimenten als natürliche Hochwasserarchive beizutragen. Dieses Ziel wurde auf zwei Wegen verfolgt. Zum einen wurden einzelne Hochwasserlagen in zwei unterschiedlichen Seen, Lago Maggiore in Norditalien und Mondsee in Oberösterreich, mit instrumentellen Hochwasserdaten verglichen und zum anderen wurden Prozesse, die zur Bildung von Hochwasserlagen führen, durch ein umfassendes Messnetz im Mondsee überwacht. Für den Vergleich der Hochwasserlagen mit instrumentellen Hochwasserdaten wurden zunächst die zum Teil unter einem Millimeter dünnen Sedimentlagen in den obersten Sedimentschichten aus dem Mondsee und der Pallanzabucht im Westen des Lago Maggiore mittels Mikroskopie und geochemischen Verfahren untersucht. Das Alter jeder einzelnen Lage wurde durch Zählung der Jahresschichten im Mondsee (23 Lagen zwischen 1976 und 2005) und im Lago Maggiore durch detaillierte Korrelation zu einer bereits datierten Kernsequenz (23 Lagen zwischen 1965 und 2006) bestimmt. Die Verbindung der einzelnen Hochwasserlagen zwischen fünf Sedimentkernen im Lago Maggiore und 13 Sedimentkernen im Mondsee zeigte verschiedene räumliche Verbreitungsmuster von Hochwasserlagen auf. Das heißt, dass die Prozesse, die zur Bildung der Hochwasserlagen führen in den beiden Seen unterschiedlich sind. Im Lago Maggiore wird das eingetragene Sediment durch Ströme am Seeboden transportiert. Dagegen erfolgt der Sedimenttransport im Mondsee im oberen Bereich der Wassersäule entlang der Sprungschicht, wo die Temperatur- und Dichteunterschiede im See am größten sind. Weiterhin wurden die Hochwasserlagen mit instrumentellen Abflusszeitreihen der Hauptzuflüsse, dem Toce am Lago Maggiore und der Griesler Ache am Mondsee, verglichen. Die Vergleiche zeigten nicht nur, dass die Hochwasserlagen zeitgleich mit erhöhten Abflüssen auftreten, sondern auch, dass die Ablagerung erst ab einem bestimmten Abflusswert wahrscheinlich wird. Die meisten Hochwasserlagen im Lago Maggiore korrelieren mit Hochwasserereignissen, die einen Tagesabfluss von 600 m3s-1 überschreiten. Im Mondsee ist der Abflusswert zum einen geringer als im Lago Maggiore und zum anderen nicht im ganzen Seebecken gleich, sondern steigt vom Delta (Tagesabfluss: 40 m3s-1) zur Seemitte hin an (stündlicher Abfluss: 80 m3s-1, 2 Tage über 40 m3s-1 Tagesabfluss). Weiterhin wurde für beide Seen eine Beziehung zwischen der Stärke des Abflusses und der Dicke der Hochwasserlagen festgestellt. Diese ist allerdings stark durch Variationen im Sedimenteintrag und in der Verbreitung innerhalb des Seebeckens beeinflusst. Um die Prozesse, welche zur Bildung von Hochwasserlagen führen, besser zu verstehen, wurden im Mondsee und dem Hauptzufluss, der Griesler Ache, verschiedene Messparameter von 2011 bis 2013 aufgezeichnet. Der Niederschlag wurde an verschiedenen Stationen im Einzugsgebiet und der Abfluss sowie die Trübung des Flusswassers am Austritt der Griesler Ache in den Mondsee kontinuierlich gemessen. Im See wurde an zwei Stellen, in 0.9 km und in 2.8 km Entfernung zum Delta der Griesler Ache, Sediment mittels Sedimentfallen gesammelt, zum einen nahe dem Seeboden mit einer zeitlichen Auflösung von drei bis zwölf Tagen und zum anderen monatlich in drei unterschiedlichen Wassertiefen. Innerhalb des dreijährigen Messzeitraums wurden 26 Hochwasserereignisse mit unterschiedlicher Abflussstärke (10-110 m3s-1) aufgezeichnet, die einen unterschiedlichen Sedimenteintrag am Seeboden auslösten (4-760 g m-2d-1). Die räumliche Verteilung des Sediments nach den Hochwasserereignissen deutet wieder auf einen Sedimenttransport im oberen Teil der Wassersäule hin. Durch den Vergleich von Abflussdaten der Griesler Ache und der gefangenen Sedimentmenge für jedes einzelne der 26 Ereignisse konnte zunächst die Zeitspanne zwischen Hochwasserereignis und Sedimentation am Seeboden ermittelt werden. Nahe dem Zufluss wird das Sediment zum größten Teil bereits innerhalb von drei Tagen nach der Hochwasserspitze abgelagert. In der Seemitte dauert die Sedimentation sechs bis zehn Tage. Des Weiteren wurden, ähnlich wie bereits bei der Untersuchung der Hochwasserlagen festgestellt, bestimmte Abflusswerte detektiert über welchen ein erhöhter Sedimenteintrag am Seeboden gemessen wurde. Nahe dem Flussdelta führen Hochwasser mit mehr als 20 m3s-1 Spitzenabfluss zum erhöhten Sedimenteintrag, während in der Seemitte ein Spitzenabfluss von 30 m3s-1 notwendig ist. Obwohl ein statistischer Zusammenhang zwischen der Hochwasserstärke und der abgelagerten Sedimentmenge besteht, wurde gezeigt, dass weitere Faktoren die Sedimentation am Seeboden beeinflussen. Der Sedimenteintrag in den See wird neben der Abflussstärke durch die Sedimentverfügbarkeit im Einzugsgebiet und episodischen Sedimenteinträgen von lokalen Quellen bestimmt. Eine weitere Rolle spielt die Verteilung des Sediments innerhalb des Seebeckens. Diese ist nicht für jedes Hochwasserereignis gleich, sondern wird durch die Dauer des Hochwasserereignisses und die Existenz der Sprungschicht in den Sommermonaten limitiert. Insgesamt zeigen die Untersuchungen, dass Seesedimente Hochwasserereignisse unterschiedlicher Stärke aufzeichnen. Eine bestimmte Hochwasserstärke ist notwendig, damit ausreichend Sediment für eine sichtbare Hochwasserlage am Seeboden abgelagert wird. Die Ursache ist der Einfluss von Niederschlags- und Abflussstärke auf Erosion, Sedimenttransport im Fluss und die Sedimentverteilung innerhalb des Seebeckens. Da diese Faktoren in unterschiedlichen Seen verschieden wirken, sind die Abflusswerte über denen es zur Hochwasserlagenbildung kommt, in jedem See verschieden. Die Untersuchungen dieser Arbeit zeigen weiterhin, dass die Menge an abgelagertem Sediment am Seeboden nicht nur durch die Abflussstärke bestimmt wird. Die Sedimentation ist vielmehr durch die komplexe Wechselwirkung von Prozessen im Einzugsgebiet und innerhalb des Sees kontrolliert. Dass bedeutet, dass jene Stelle innerhalb eines Seebeckens, an welcher ein Sedimentkern entnommen wird, die Güte eines Hochwasserarchivs maßgeblich beeinflusst. Weiterhin zeigen die Ergebnisse, dass Seesedimente für die Rekonstruktion von Hochwasserhäufigkeiten ideale Archive darstellen. Die Ableitung von Hochwasserstärken aus der Dicke einzelner Hochwasserlagen ist allerdings komplexer und setzt eine detaillierte Kenntnis der relevanten Transport- und Ablagerungsprozesse im See und seinem Einzugsgebiet voraus. KW - lake sediments KW - flood reconstruction KW - sediment transport KW - environmental monitoring KW - Seesedimente KW - Hochwasserrekonstruktion KW - Sedimenttransport KW - Umweltmonitoring Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85961 ER - TY - THES A1 - Köhler, Anke T1 - Theoriebasierte Betreuung des Schulpraktikums im Lehramtsstudium Englisch T1 - Theory based mentoring during the practical internship of student teachers in English BT - ein hochschuldidaktischer Beitrag zur Professionalisierung im Studium BT - a contribution to professionalisation during curricular studies – a perspective from higher education didactics N2 - Der Beitrag der Dissertation „Theoriebasierte Betreuung vom Schulpraktikum im Lehramtsstudium Englisch“ zum wissenschaftlichen Diskurs liegt in der Verbindung von Theoriebereichen der Professionalisierungsforschung und angewandten Linguistik mit Untersuchungen zur hochschuldidaktischen Begleitung und Betreuung im ersten Unterrichtspraktikum des Lehramtsstudiums, dem fachdidaktischen Tagespraktikum, an der Universität Potsdam. Ein interaktionsanalytisches Vorgehen wurde eingesetzt zur Weiterentwicklung des hochschuldidaktischen Settings einer disziplinenverbindenden, fachwissenschaftlichen Begleitung von Praktika im komplexen Kontext Schule. Die Implementierung entsprechender Formate ins reguläre Studium wurde in einer über drei Jahre angelegten iterativen Studie turnusmäßig evaluiert. N2 - The dissertation “Theory based mentoring during the practical internship of future English teachers” contributes to the research in the field of professionalization in teacher studies programmes. The areas of professionalisation and applied linguistics are combined with research conducted in university mentoring during the first school internship for student teachers. The researcher uses an interaction analytic approach to develop the didactic setting of the mentored internship. Student teachers pass the complex situation of the internship more focused and with higher learning outcomes than their peers without the new training. The iterative study with three adaptions takes place over a course of three years. KW - Praktikum KW - Hochschuldidaktik KW - Englisch KW - Betreuung KW - Professionalisierung KW - Schule KW - Lehrerbildung KW - higher education didactics KW - professionalisation KW - mentoring KW - internship KW - school KW - curriculum development KW - interaction analysis KW - conversation analysis KW - video analysis KW - reflection KW - student teachers KW - applied linguistics KW - theory practice KW - Videoanalyse KW - Interaktionsanalyse KW - Konversationsanalyse KW - nonverbal KW - Reflexion Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91531 ER - TY - THES A1 - Künstler, Andreas T1 - Spot evolution on the red giant star XX Triangulum T1 - Entwicklung von Sternflecken auf dem roten Riesenstern XX Triangulum N2 - Spots on stellar surfaces are thought to be stellar analogues of sunspots. Thus, starspots are direct manifestations of strong magnetic fields. Their decay rate is directly related to the magnetic diffusivity, which itself is a key quantity for the deduction of an activity cycle length. So far, no single starspot decay has been observed, and thus no stellar activity cycle was inferred from its corresponding turbulent diffusivity. We investigate the evolution of starspots on the rapidly-rotating K0 giant XX Triangulum. Continuous high-resolution and phase-resolved spectroscopy was obtained with the robotic 1.2-m STELLA telescope on Tenerife over a timespan of six years. With our line-profile inversion code iMap we reconstruct a total of 36 consecutive Doppler maps. To quantify starspot area decay and growth, we match the observed images with simplified spot models based on a Monte-Carlo approach. It is shown that the surface of XX Tri is covered with large high-latitude and even polar spots and with occasional small equatorial spots. Just over the course of six years, we see a systematically changing spot distribution with various time scales and morphology such as spot fragmentation and spot merging as well as spot decay and formation. For the first time, a starspot decay rate on another star than the Sun is determined. From our spot-decay analysis we determine an average linear decay rate of D = -0.067±0.006 Gm^2/day. From this decay rate, we infer a turbulent diffusivity of η_τ = (6.3±0.5) x 10^14 cm^2/s and consequently predict an activity cycle of 26±6 years. The obtained cycle length matches very well with photometric observations. Our time-series of Doppler maps further enables to investigate the differential rotation of XX Tri. We therefore applied a cross-correlation analysis. We detect a weak solar-like differential rotation with a surface shear of α = 0.016±0.003. This value agrees with similar studies of other RS CVn stars. Furthermore, we found evidence for active longitudes and flip-flops. Whereas the more active longitude is located in phase towards the (unseen) companion star, the weaker active longitude is located at the opposite stellar hemisphere. From their periodic appearance, we infer a flip-flop cycle of ~2 years. Both activity phenomena are common on late-type binary stars. Last but not least we redetermine several astrophysical properties of XX Tri and its binary system, as large datasets of photometric and spectroscopic observations are available since its last determination in 1999. Additionally, we compare the rotational spot-modulation from photometric and spectroscopic studies. N2 - Sternflecken gelten als stellare Analoga zu Sonnenflecken. Somit sind Sternflecken direkte Erscheinungsformen starker Magnetfelder. Ihre Zerfallsrate ist direkt mit der magnetischen Diffusivität verknüpft, welche selbst ein Maß für die Länge eines Aktivitätszyklus ist. Bislang konnte noch kein Zerfall eines einzelnen Sternflecks beobachtet werden und somit konnte noch kein stellarer Aktivitätszyklus mittels einer aus dem Fleckenzerfall abgeleiteten Diffusivität bestimmt werden. Wir untersuchen die Entwicklung von Sternflecken auf dem schnell rotierenden K0 Riesenstern XX Triangulum. Über einen Zeitraum von sechs Jahren wurden durchgängig hochauflösende Spektren mit dem 1.2-m STELLA Teleskop auf Teneriffa aufgenommen. Mit unserem Inversionscode für Linienprofile (iMap) werden insgesamt 36 Dopplerkarten der Sternoberfläche rekonstruiert. Um sowohl den Zerfall als auch die Entstehung von Sternflecken zu bestimmen, werden die rekonstruierten Dopplerkarten mit vereinfachten Fleckenmodellen mittels einer Monte-Carlo-Methode abgebildet. Es zeigt sich, dass die Oberfläche von XX Tri mit großen Flecken auf hohen und sogar polaren Breiten bedeckt ist sowie gelegentlichen kleineren Flecken nahe des Äquators. Gerade in der Zeitspanne von sechs Jahren sehen wir eine systematische Veränderung der Fleckenverteilung auf unterschiedlichen Zeitskalen und mit unterschiedlicher Morphologie, wie Fleckenaufspaltung und Fleckenvereinigung sowie Fleckenzerfall und Fleckenentstehung. Zum ersten Mal wird die Zerfallsrate eines Sternflecks auf einem anderen Stern als der Sonne bestimmt. Von unserer Fleckenzerfallsanalyse bestimmen wir eine mittlere lineare Zerfallsrate von D = -0.067±0.006 Gm^2/d. Von dieser Zerfallsrate leiten wir eine turbulente Diffusivität von η_τ = (6.3±0.5) x 10^14 cm^2/s ab, und schließen daraus einen Aktivitätszyklus von 26±6 Jahren. Diese Zykluslänge stimmt gut mit photometrischen Beobachtungen überein. Unsere Dopplerkarten ermöglichen zusätzlich die Untersuchung der differentiellen Rotation auf XX Tri, wofür eine Kreuzkorrelationsmethode angewandt wird. Wir detektieren eine schwache sonnenähnliche differentielle Rotation mit einer Oberflächenscherung von α = 0.016±0.003. Dieser Wert stimmt mit vergleichbaren Untersuchungen anderer RS CVn-Sterne überein. Zudem haben wir Anzeichen für aktive Longituden und Flip-Flops gefunden. Während sich die aktivere Longitude in Phase zu dem (nicht sichtbaren) Begleitstern befindet, liegt die schwächere aktive Longitude auf der gegenüberliegenden Hemisphäre. Aus ihrem periodischen Auftreten schließen wir auf einen Flip-Flop-Zyklus von ungefähr zwei Jahren. Beide Aktivitätserscheinungen sind häufig auf Doppelsternen späten Spektraltyps zu finden. Zu guter Letzt bestimmen wir die astrophysikalischen Eigenschaften von XX Tri neu, da seit der letzten Bestimmung im Jahre 1999 große neue Datensätze unterschiedlicher Beobachtungen vorhanden sind. Zusätzlich vergleichen wir die periodische Fleckenmodulation aus photometrischen und spektroskopischen Analysen. KW - stellar physics KW - stellar activity KW - Doppler imaging KW - Sternphysik KW - Sternaktivität KW - Doppler Imaging Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84008 ER - TY - THES A1 - Kütter, Sissy T1 - Magnetotelluric measurements across the southern Barberton Greenstone Belt, South Africa T1 - Magnetotellurische Messungen am südlichen Barberton Grünsteingürtel, Südafrika N2 - Der Barberton Grünsteingürtel (BGB) in Südafrika gehört zu den wenigen Regionen mit noch gut erhaltener Archaischer Kruste. Seit Jahrhunderten wurde der BGB eingehend untersucht und seine geologischen und tektonischen Strukturen detailliert kartiert. Über die tiefere Struktur des BGB ist hingegen wenig bekannt. Zahlreiche Evolutionsmodelle, die auf Altersbestimmungsdaten und strukturellen Informationen beruhen wurden über die Jahre aufgestellt. Diese Theorien sind zumeist widersprüchlich. Sie konzentrieren sich im Wesentlichen auf die Frage, ob plattentektonische Prozesse bereits bei der Entwicklung der frühen Erde eine Rolle spielten oder ob vertikale Tektonik, angetrieben durch die im Archaikum höheren Temperaturen, die Bildung der heutigen Kontinente bestimmt hat. Um neue Erkenntnisse über die interne Struktur und Entwicklungsgeschichte des BGB zu erhalten, wurden im Rahmen der Deutsch-Südafrikanischen Forschungsinitiative Inkaba yeAfrica magnetotellurische (MT) Messungen durchgeführt. Entlang von sechs Profilen, die den gesamten südlichen Teil des BGB’s überdecken, wurden nahezu 200 MT-Stationen installiert. Tektonische Strukturen wie z. B. (fossile) Verwerfungszonen können erhöhte Leitfähigigkeiten haben, wenn sich leitfähige Mineralisationen innerhalb der Scherzonen gebildet haben. Durch die Abbildung der elektrischen Leitfähigkeitsverteilung des Untergrundes mit Hilfe von MT Messungen kann der Verlauf tektonischer Strukturen nachvollzogen werden, woraus Schlüsse über möglicherweise abgelaufene tektonische Prozesse gezogen werden können. Der gesamte MT Datensatz weist starke Störeinflüsse durch künstliche elektromagnetische Signale auf, die bspw. von Stromleitungen und elektrischen Zäunen stammen. Insbesondere langperiodische Daten (>1 s) sind davon betroffen, die für die Auflösung tieferer Strukturen notwendig sind. Die Anwendung etablierter Ansätze wie Verschiebungsfiltern und der Remote Reference-Methode, führte zu Verbesserungen vorrangig für Perioden < 1 s. Der langperiodische Bereich ist durch impulsartige Störsignale in den magnetischen und dazugehörigen Stufen in den elektrischen Feldkomponenten geprägt. Im Rahmen dieser Arbeit wurde ein neuartiger Zeitbereichs-Filter entwickelt, welcher auf einer abgewandelten Form des Wiener Filters beruht und diese Art von Störsignalen aus den Daten entfernt. Durch den Vergleich der Datenvarianz einer lokalen Station mit der einer Referenzstation können gestörte Zeitsegmente identifiziert werden. Anschließend wird ein Wiener-Filter-Algorithmus angewendet, um für diese Segmente mithilfe der Referenzdaten physikalisch sinnvolle Zeitreihen zu berechnen, mit denen die Daten der lokalen Station ersetzt werden. Während impulsartige Störsignale in den magnetischen Datenkanälen relativ einfach erfasst werden können, ist die Detektion von Versätzen in den elektrischen Zeitreihen je nach Versatzhöhe problematischer. Um dieses Problem zu umgehen, habe ich einen Algorithmus entwickelt, bei dem die Zeitreihen differenziert, gefiltert und im letzten Schritt integriert werden. In einer zweiten von mir entwickelten Filtermethode werden die Störsignale durch den Vergleich des kurzzeitigen und des langzeitigen Datenmittelwerts ausfindig gemacht. Bei diesem Filter werden die Störsignale aus den Zeitreihen entfernt und durch eine lineare Interpolation ersetzt. Durch die beiden Filtermethoden wurde eine deutliche Verbesserung der Datenqualität bis zu 10 und teilweise 100 s erreicht. Zur Interpretation des MT-Datensatzes wurden 2D und 3D Inversionen durchgeführt. Die so erhaltenen elektrischen Leitfähigkeitsmodelle zeigen eine gute Übereinstimmung mit den kartierten, geologischen Strukturen. Die Gesteine des BGB weisen in den Modellen hohe Widerstände auf und sind deutlich von leitfähigen benachbarten geologischen Strukturen abgegrenzt. Verwerfungszonen korrelieren mit leitfähigen Strukturen, die sich bis in eine Tiefe von 5 bis 10 km erstrecken. Eine Fortsetzung der Verwerfungszonen über die südliche Grenze des BGB wird in den 2D-Ergebnissen angedeutet. Insgesamt zeigen die Inversionsmodelle, dass vermutlich sowohl plattentektonische als auch vertikaltektonische Prozesse bei der Entstehung des BGB eine wichtige Rolle spielten. N2 - The Barberton Greenstone Belt (BGB) in the northwestern part of South Africa belongs to the few well-preserved remnants of Archean crust. Over the last centuries, the BGB has been intensively studied at surface with detailed mapping of its surfacial geological units and tectonic features. Nevertheless, the deeper structure of the BGB remains poorly understood. Various tectonic evolution models have been developed based on geo-chronological and structural data. These theories are highly controversial and centre on the question whether plate tectonics - as geoscientists understand them today - was already evolving on the Early Earth or whether vertical mass movements driven by the higher temperature of the Earth in Archean times governed continent development. To get a step closer to answering the questions regarding the internal structure and formation of the BGB, magnetotelluric (MT) field experiments were conducted as part of the German-South African research initiative Inkaba yeAfrica. Five-component MT data (three magnetic and two electric channels) were collected at ~200 sites aligned along six profiles crossing the southern part of the BGB. Tectonic features like (fossil) faults and shear zones are often mineralized and therefore can have high electrical conductivities. Hence, by obtaining an image of the conductivity distribution of the subsurface from MT measurements can provide useful information on tectonic processes. Unfortunately, the BGB MT data set is heavily affected by man-made electromagnetic noise caused, e.g. by powerlines and electric fences. Aperiodic spikes in the magnetic and corresponding offsets in the electric field components impair the data quality particularly at periods >1 s which are required to image deep electrical structures. Application of common methods for noise reduction like delay filtering and remote reference processing, only worked well for periods <1 s. Within the framework of this thesis two new filtering approaches were developed to handle the severe noise in long period data and obtain reliable processing results. The first algorithm is based on the Wiener filter in combination with a spike detection algorithm. Comparison of data variances of a local site with those of a reference site allows the identification of disturbed time series windows for each recorded channel at the local site. Using the data of the reference site, a Wiener filter algorithm is applied to predict physically meaningful data to replace the disturbed windows. While spikes in the magnetic channels are easily recognized and replaced, steps in the electric channels are more difficult to detect depending on their offset. Therefore, I have implemented a novel approach based on time series differentiation, noise removal and subsequent integration to overcome this obstacle. A second filtering approach where spikes and steps in the time series are identified using a comparison of the short and long time average of the data was also implemented as part of my thesis. For this filtering approach the noise in the form of spikes and offsets in the data is treated by an interpolation of the affected data samples. The new developments resulted in a substantial data improvement and allowed to gain one to two decades of data (up to 10 or 100 s). The re-processed MT data were used to image the electrical conductivity distribution of the BGB by 2D and 3D inversion. Inversion models are in good agreement with the surface geology delineating the highly resistive rocks of the BGB from surrounding more conductive geological units. Fault zones appear as conductive structures and can be traced to depths of 5 to 10 km. 2D models suggest a continuation of the faults further south across the boundary of the BGB. Based on the shallow tectonic structures (fault system) within the BGB compared to deeply rooted resistive batholiths in the area, tectonic models including both vertical mass transport and in parts present-day style plate tectonics seem to be most likely for the evolution of the BGB. KW - Magnetotellurik KW - magnetotellurics KW - Zeitreihenanalyse KW - time series analysis KW - Datenfilter KW - data filtering KW - Paläotektonik KW - early earth tectonics Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-83198 ER - TY - THES A1 - Lamanna, Francesco T1 - Adaptive radiation and speciation in African weakly-electric fish T1 - Adaptive Radiation und Artbildung von elektrischen Fischen Afrikas BT - a phylogenetic and transcriptomic perspective BT - eine phylogenetische und transkriptomische Perspektive N2 - The rise of evolutionary novelties is one of the major drivers of evolutionary diversification. African weakly-electric fishes (Teleostei, Mormyridae) have undergone an outstanding adaptive radiation, putatively owing to their ability to communicate through species-specific Electric Organ Discharges (EODs) produced by a novel, muscle-derived electric organ. Indeed, such EODs might have acted as effective pre-zygotic isolation mechanisms, hence favoring ecological speciation in this group of fishes. Despite the evolutionary importance of this organ, genetic investigations regarding its origin and function have remained limited. The ultimate aim of this study is to better understand the genetic basis of EOD production by exploring the transcriptomic profiles of the electric organ and of its ancestral counterpart, the skeletal muscle, in the genus Campylomormyrus. After having established a set of reference transcriptomes using “Next-Generation Sequencing” (NGS) technologies, I performed in silico analyses of differential expression, in order to identify sets of genes that might be responsible for the functional differences observed between these two kinds of tissues. The results of such analyses indicate that: i) the loss of contractile activity and the decoupling of the excitation-contraction processes are reflected by the down-regulation of the corresponding genes in the electric organ; ii) the metabolic activity of the electric organ might be specialized towards the production and turnover of membrane structures; iii) several ion channels are highly expressed in the electric organ in order to increase excitability, and iv) several myogenic factors might be down-regulated by transcription repressors in the EO. A secondary task of this study is to improve the genus level phylogeny of Campylomormyrus by applying new methods of inference based on the multispecies coalescent model, in order to reduce the conflict among gene trees and to reconstruct a phylogenetic tree as closest as possible to the actual species-tree. By using 1 mitochondrial and 4 nuclear markers, I was able to resolve the phylogenetic relationships among most of the currently described Campylomormyrus species. Additionally, I applied several coalescent-based species delimitation methods, in order to test the hypothesis that putatively cryptic species, which are distinguishable only from their EOD, belong to independently evolving lineages. The results of this analysis were additionally validated by investigating patterns of diversification at 16 microsatellite loci. The results suggest the presence of a new, yet undescribed species of Campylomormyrus. N2 - Das übergreifende Ziel dieser Arbeit ist das bessere Verständnis der Bedeutung der schwachen Elektrizität für die adaptive radiation der Mormyriden Afrikas. Das gewählte Modell-Taxon, die Mormyriden-Gattung Campylomormyrus, zeigt eine große Vielfalt an elektrischen Entladungsformen. Diese Entladungsformen sind artspezifisch. Die genetische Basis dieses Merkmales ist allerdings noch unbekannt. In dieser Arbeit habe ich transkriptomische Untersuchungen vom elektrischen Organ und Skelettmuskel durchgeführt. Die Ergebnisse dieser Analysen zeigen, dass die phenotypischen Unterschiede zwischen dem elektrischen Organ und dem Skelettmusckel in den jeweiligen transkriptomen gespiegelt sind. Ich habe auch einen phylogenetischen Stammbaum für die Gattung Campylomormyrus hergestellt, durch die Anwendung von „Multispecies Coalescent Models“-basierten Methoden. Außerdem, durch die Anwendung von Mikrosatellitdaten, die als unabhängiger Beweis dienten, konnte ich zeigen, dass die identifizierten phylogenetischen Gruppen reproduktiv isolierte biologische Arten sind. Auf diese Weise konnte ich ein neuen, noch unbeschriebenen Art nachweisen. KW - evolution KW - transcriptomics KW - phylogeny KW - Evolution KW - Transkriptomik KW - Phylogenese Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80097 ER -