TY - THES A1 - Hutter, Anne T1 - Unveiling the epoch of reionization by simulations and high-redshift galaxies T1 - Untersuchungen der Epoche der Reionisation mithilfe von Simulationen und Beobachtungen hoch rotverschobener Galaxien N2 - The Epoch of Reionization marks after recombination the second major change in the ionization state of the universe, going from a neutral to an ionized state. It starts with the appearance of the first stars and galaxies; a fraction of high-energy photons emitted from galaxies permeate into the intergalactic medium (IGM) and gradually ionize the hydrogen, until the IGM is completely ionized at z~6 (Fan et al., 2006). While the progress of reionization is driven by galaxy evolution, it changes the ionization and thermal state of the IGM substantially and affects subsequent structure and galaxy formation by various feedback mechanisms. Understanding this interaction between reionization and galaxy formation is further impeded by a lack of understanding of the high-redshift galactic properties such as the dust distribution and the escape fraction of ionizing photons. Lyman Alpha Emitters (LAEs) represent a sample of high-redshift galaxies that are sensitive to all these galactic properties and the effects of reionization. In this thesis we aim to understand the progress of reionization by performing cosmological simulations, which allows us to investigate the limits of constraining reionization by high-redshift galaxies as LAEs, and examine how galactic properties and the ionization state of the IGM affect the visibility and observed quantities of LAEs and Lyman Break galaxies (LBGs). In the first part of this thesis we focus on performing radiative transfer calculations to simulate reionization. We have developed a mapping-sphere-scheme, which, starting from spherically averaged temperature and density fields, uses our 1D radiative transfer code and computes the effect of each source on the IGM temperature and ionization (HII, HeII, HeIII) profiles, which are subsequently mapped onto a grid. Furthermore we have updated the 3D Monte-Carlo radiative transfer pCRASH, enabling detailed reionization simulations which take individual source characteristics into account. In the second part of this thesis we perform a reionization simulation by post-processing a smoothed-particle hydrodynamical (SPH) simulation (GADGET-2) with 3D radiative transfer (pCRASH), where the ionizing sources are modelled according to the characteristics of the stellar populations in the hydrodynamical simulation. Following the ionization fractions of hydrogen (HI) and helium (HeII, HeIII), and temperature in our simulation, we find that reionization starts at z~11 and ends at z~6, and high density regions near sources are ionized earlier than low density regions far from sources. In the third part of this thesis we couple the cosmological SPH simulation and the radiative transfer simulations with a physically motivated, self-consistent model for LAEs, in order to understand the importance of the ionization state of the IGM, the escape fraction of ionizing photons from galaxies and dust in the interstellar medium (ISM) on the visibility of LAEs. Comparison of our models results with the LAE Lyman Alpha (Lya) and UV luminosity functions at z~6.6 reveals a three-dimensional degeneracy between the ionization state of the IGM, the ionizing photons escape fraction and the ISM dust distribution, which implies that LAEs act not only as tracers of reionization but also of the ionizing photon escape fraction and of the ISM dust distribution. This degeneracy does not even break down when we compare simulated with observed clustering of LAEs at z~6.6. However, our results show that reionization has the largest impact on the amplitude of the LAE angular correlation functions, and its imprints are clearly distinguishable from those of properties on galactic scales. These results show that reionization cannot be constrained tightly by exclusively using LAE observations. Further observational constraints, e.g. tomographies of the redshifted hydrogen 21cm line, are required. In addition we also use our LAE model to probe the question when a galaxy is visible as a LAE or a LBG. Within our model galaxies above a critical stellar mass can produce enough luminosity to be visible as a LBG and/or a LAE. By finding an increasing duty cycle of LBGs with Lya emission as the UV magnitude or stellar mass of the galaxy rises, our model reveals that the brightest (and most massive) LBGs most often show Lya emission. Predicting the Lya equivalent width (Lya EW) distribution and the fraction of LBGs showing Lya emission at z~6.6, we reproduce the observational trend of the Lya EWs with UV magnitude. However, the Lya EWs of the UV brightest LBGs exceed observations and can only be reconciled by accounting for an increased Lya attenuation of massive galaxies, which implies that the observed Lya brightest LAEs do not necessarily coincide with the UV brightest galaxies. We have analysed the dependencies of LAE observables on the properties of the galactic and intergalactic medium and the LAE-LBG connection, and this enhances our understanding of the nature of LAEs. N2 - Die Epoche der Reionisation markiert die nach der Rekombination zweite grundlegende Änderung des Ionisationszustandes des Universums, nämlich den Übergang von einem neutralen zu einem ionisierten Zustand. Die Epoche der Reionisation beginnt mit dem Erscheinen der ersten Sterne und Galaxien. Von den Galaxien ausgesendete energiereiche Photonen durchdringen das intergalaktische Medium (IGM) und ionisieren den vorhandenen Wasserstoff schrittweise, bis das IGM bei z~6 (Fan et al., 2006) vollständig ionisiert ist. Während der Verlauf der Reionisation zum einen durch die Galaxienentwicklung bestimmt wird, verändert die Reionisation zum anderen den Ionisations- und thermischen Zustand des IGMs und beeinflusst damit die darauffolgende Struktur- und Galaxienentwicklung durch verschiedene Rückkopplungsmechanismen. Die geringen Kenntnisse der Eigenschaften von Galaxien bei hohen Rotverschiebungen wie der Staubverteilung und des Anteils an ionisierenden Photonen, die die Galaxien verlassen können, erschweren jedoch das Verständnis des Wechselspiels zwischen Reionisation und Galaxienentwicklung. Lyman Alpha Emitter (LAE) stellen Galaxien bei hoher Rotverschiebung dar, deren Sichtbarkeit diesen Eigenschaften und den Effekten der Reionisa\-tion unterliegen. Diese Arbeit zielt darauf ab, den Verlauf der Reionisation anhand von kosmologischen Simulationen zu verstehen. Insbesondere interessiert, inwieweit der Verlauf der Reionisation durch Galaxien bei hohen Rotverschiebungen eingeschränkt werden kann, und wie die Eigenschaften der Galaxien und der Ionisationszustand des IGMs die Sichtbarkeit und die beobachtbaren Größen der LAE und Lyman Break Galaxien (LBG) beeinflussen können. Im ersten Teil dieser Arbeit werden verschiedene Ansätze zur Lösung des Strahlungstransportes neu- und weiterentwickelt mit dem Ziel, die Epoche der Reionisation zu simulieren. Dazu wurde zum einen eine Methode entwickelt, die als Berechnungsgrundlage sphärisch gemittelte Temperatur- und Dichtefelder benutzt. Mithilfe des in dieser Arbeit entwickelten eindimensionalen Strahlungstransportcodes werden die Auswirkungen jeder Quelle auf die dementsprechenden Temperatur- und Ionisa\-tionsprofile (HII, HeII, HeIII) berechnet und diese auf ein Gitter abgebildet. Zum anderen wurde der dreidimensionale Monte-Carlo-Strahlungstransportcode pCRASH so erweitert, sodass detaillierte Reionisationsimulationen, die individulle Quelleneigenschaften berücksichtigen, durchgeführt werden können. Im zweiten Teil dieser Arbeit wird die Epoche der Reionisation in sich konsistent simuliert, indem aufbauend auf einer gasdynamischen Simulation (smoothed particle hydrodynamics (SPH), GADGET-2) mithilfe von pCRASH Strahlungstransportrechnungen ausgeführt werden. Dabei werden die ionisierenden Quellen gemäß der Eigenschaften der Sternpopulationen in der gasdynamischen Simulation modelliert. Die Entwicklung der IGM-Ionisationsanteile an Wasserstoff (HII) und Helium (HeII, HeIII) sowie der Temperatur werden in der Simulation verfolgt. Es zeigt sich, dass Reionisation erstens bei z~11 beginnt und bei z~6 endet, und zweitens von überdichten zu unterdichten Gebieten des Kosmos hin verläuft. Im dritten Teil der Arbeit werden kosmologische SPH - und Strahlungstransportsimulationen mit einem physikalisch motivierten, selbst-konsistenten Modell für LAEs kombiniert, um den Einfluss des Ionisationszustandes des IGMs, des Anteils der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im interstellaren Medium (ISM) auf die sichtbaren Eigenschaften der LAEs zu verstehen. Der Vergleich der Simulationsergebnisse mit den beobachteten LAE Lyman Alpha- und UV-Leuchtkraftfunktionen bei z~6.6 offenbart eine dreidimensionale Entartung zwischen dem Ionisationszustand des IGMs, dem Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM. Dies bedeutet, dass die Sichtbarkeit von LAEs nicht nur ein Indikator für den Ionisationszustand des IGM ist, sondern auch für den Anteil an ionisierenden Photonen, die die Galaxien verlassen können, und für die Staubverteilung im ISM. Diese Entartung lässt sich auch nicht auflösen, wenn Simulations- und Beobachtungsdaten der räumlichen Verteilung der LAEs bei z~6.6 gemessen mit der winkelabhängigen Zweipunktkorrelationsfunktion verglichen werden. Jedoch zeigt unser Modell, dass die Reionisation den größten Effekt auf die Amplitude der Winkelkorrelation hat und dass sich ihre Spuren klar von den Effekten auf galaktischen Skalen (den Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM) unterscheiden lassen. Somit kann Reionisation nicht alleine durch LAE Beobachtungen eingeschränkt werden, und es werden weitere Beobachtungen, wie z.B. die Tomographie der rotverschobenen 21cm Wasserstofflinie, benötigt. KW - cosmology KW - reionization KW - high-redshift galaxies KW - radiative transfer KW - simulation KW - Kosmologie KW - Reionisation KW - hoch rotverschobene Galaxien KW - Strahlungstransport KW - Simulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76998 ER - TY - THES A1 - Sen, Ali Tolga T1 - Inversion of seismic source parameters for weak mining-induced and natural earthquakes T1 - Inversion von seismischen Quellparametern für schwache Bergbau-induzierte und natürliche Erdbeben N2 - The purpose of this thesis is to develop an automated inversion scheme to derive point and finite source parameters for weak earthquakes, here intended with the unusual meaning of earthquakes with magnitudes at the limit or below the bottom magnitude threshold of standard source inversion routines. The adopted inversion approaches entirely rely on existing inversion software, the methodological work mostly targeting the development and tuning of optimized inversion flows. The resulting inversion scheme is tested for very different datasets, and thus allows the discussion on the source inversion problem at different scales. In the first application, dealing with mining induced seismicity, the source parameters determination is addressed at a local scale, with source-sensor distance of less than 3 km. In this context, weak seismicity corresponds to event below magnitude MW 2.0, which are rarely target of automated source inversion routines. The second application considers a regional dataset, namely the aftershock sequence of the 2010 Maule earthquake (Chile), using broadband stations at regional distances, below 300 km. In this case, the magnitude range of the target aftershocks range down to MW 4.0. This dataset is here considered as a weak seismicity case, since the analysis of such moderate seismicity is generally investigated only by moment tensor inversion routines, with no attempt to resolve source duration or finite source parameters. In this work, automated multi-step inversion schemes are applied to both datasets with the aim of resolving point source parameters, both using double couple (DC) and full moment tensor (MT) models, source duration and finite source parameters. A major result of the analysis of weaker events is the increased size of resulting moment tensor catalogues, which interpretation may become not trivial. For this reason, a novel focal mechanism clustering approach is used to automatically classify focal mechanisms, allowing the investigation of the most relevant and repetitive rupture features. The inversion of the mining induced seismicity dataset reveals the repetitive occurrence of similar rupture processes, where the source geometry is controlled by the shape of the mined panel. Moreover, moment tensor solutions indicate a significant contribution of tensile processes. Also the second application highlights some characteristic geometrical features of the fault planes, which show a general consistency with the orientation of the slab. The additional inversion for source duration allowed to verify the empirical correlation for moment normalized earthquakes in subduction zones among a decreasing rupture duration with increasing source depth, which was so far only observed for larger events. N2 - Ziel dieser Dissertation ist es ein automatisches Inversionsschema zur Ableitung von Parametern für Punkt- und finite Quellen von "schwachen" Erdbeben im Sinne von aussergewöhnlich kleinen Erdbeben an oder unterhalb der Magnitudenschwelle für Standard-Inversionsroutinen zu entwickeln. Der verwendete Inversionsansatz baut auf bestehender Inversionssoftware auf, die methodische Arbeit zielt hauptsächlich auf die Entwicklung und das Tuning des optimierten Inversionsablaufs. Das resultierende Inversionsverfahren ist für verschiedene Datensätze getestet und erlaubt somit eine Diskussion über das Herdinversionsproblem auf unterschiedlichen Skalierungen. In der ersten Anwendung, die sich mit induzierter Seismizität in Minen beschäftigt, werden die Herdparameter im lokalen Bereich mit einer Herd-Empfänger Entfernung von weniger als 3 km bestimmt. In diesem Zusammenhang bezieht sich die "schwache" Seismizität auf Ereignisse mit Magnituden unter Mw 2.0, welche sehr selten das Ziel von automatisierten Herdinversionsroutinen sind. Die zweite Anwendung berücksichtigt den regionalen Datensatz der Nachbebesequenz des Maule (Chile) Erdbebens von 2010, aufgezeichnet durch Breitband-Stationen in einer maximalen Entfernung von 300 km. In diesem Fall umfasst der Magnitudenbereich Ereignisse mit Magnituden kleiner als Mw 4.0. Auch dieser Datensatz wird hier als "schwache" Seismizität interpretiert, da die Analyse solch moderater Seismizität normalerweise nur durch Routinen für Momententensorinversion erfolgt, welche keinerlei Auflösung für die Herddauer oder finite Herdparameter beinhaltet. In dieser Arbeit wird ein automatisiertes, mehrstufiges Inversionsverfahren auf beide Datensätze angewendet mit dem Ziel sowohl Punktquellen-Herdparameter für double-couple (DC) und volle Momententensor (MT) Modelle als auch für Herddauer und finite Herdparameter zu bestimmen. Ein Hauptergebnis dieser Analyse von schwachen Ereignissen ist die Vergrößerung von Momententensor-Katalogen, deren Interpretation wichtig werden könnte. Aus diesem Grund wurde ein neuartiger Cluster-Ansatz für Herdmechanismen angewendet um diese automatisch zu klassifizieren, der somit die Untersuchung der wichtigsten und sich wiederholenden Bruchprozessen erlaubt. Die Inversion des Datensatzes von induzierter Seismizität in Minen enthüllt das sich wiederholende Auftreten von ähnlichen Bruchprozessen, wobei die Herdgeometrie von der Form der Minentäfelung kontrolliert wird. Darüber hinaus deuten die Momententensorlösungen einen signifikanten Beitrag von tensilen Prozessen an. Auch die zweite Anwendung zeigt einige charackteristische, geometrische Besonderheiten der Bruchflächen auf, welche prinzipiell konsistent zur Orientierung der subduzierten Platte sind. Die zusätzliche Inversion nach der Herdzeit erlaubt die Verifizierung von empirischen Korrelationen von momentennormalisierten Erdbeben in Subduktionszonen zwischen einer abnehmenden Bruchdauer mit zunehmender Herdtiefe, welche bisher nur für größere Ereignisse beobachtet wurde. KW - Seismologie KW - induzierten Seismizität KW - Quellenumkehr KW - Momententensor KW - Aufenthaltsdauer KW - seismology KW - induced seismicity KW - source inversion KW - moment tensor KW - source duration Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71914 ER - TY - THES A1 - Jüppner, Jessica T1 - Characterization of metabolomic dynamics in synchronized Chlamydomonas reinhardtii cell cultures and the impact of TOR inhibition on cell cycle, proliferation and growth T1 - Charakterisierung der metabolischen Dynamik in synchronisierten Chlamydomonas reinhardtii Zellkulturen und der Einfluss der TOR-Inhibition auf Zellzyklus, Proliferation und Wachstum N2 - The adaptation of cell growth and proliferation to environmental changes is essential for the surviving of biological systems. The evolutionary conserved Ser/Thr protein kinase “Target of Rapamycin” (TOR) has emerged as a major signaling node that integrates the sensing of numerous growth signals to the coordinated regulation of cellular metabolism and growth. Although the TOR signaling pathway has been widely studied in heterotrophic organisms, the research on TOR in photosynthetic eukaryotes has been hampered by the reported land plant resistance to rapamycin. Thus, the finding that Chlamydomonas reinhardtii is sensitive to rapamycin, establish this unicellular green alga as a useful model system to investigate TOR signaling in photosynthetic eukaryotes. The observation that rapamycin does not fully arrest Chlamydomonas growth, which is different from observations made in other organisms, prompted us to investigate the regulatory function of TOR in Chlamydomonas in context of the cell cycle. Therefore, a growth system that allowed synchronously growth under widely unperturbed cultivation in a fermenter system was set up and the synchronized cells were characterized in detail. In a highly resolved kinetic study, the synchronized cells were analyzed for their changes in cytological parameters as cell number and size distribution and their starch content. Furthermore, we applied mass spectrometric analysis for profiling of primary and lipid metabolism. This system was then used to analyze the response dynamics of the Chlamydomonas metabolome and lipidome to TOR-inhibition by rapamycin The results show that TOR inhibition reduces cell growth, delays cell division and daughter cell release and results in a 50% reduced cell number at the end of the cell cycle. Consistent with the growth phenotype we observed strong changes in carbon and nitrogen partitioning in the direction of rapid conversion into carbon and nitrogen storage through an accumulation of starch, triacylglycerol and arginine. Interestingly, it seems that the conversion of carbon into triacylglycerol occurred faster than into starch after TOR inhibition, which may indicate a more dominant role of TOR in the regulation of TAG biosynthesis than in the regulation of starch. This study clearly shows, for the first time, a complex picture of metabolic and lipidomic dynamically changes during the cell cycle of Chlamydomonas reinhardtii and furthermore reveals a complex regulation and adjustment of metabolite pools and lipid composition in response to TOR inhibition. N2 - Die Anpassung der Wachstumsrate an Umweltveränderungen ist essentiell für das Überleben biologischer Systeme. Mit der Identifikation der evolutionär konservierten Serin/Threonin Kinase “Target of Rapamycin” (TOR) war ein zentraler Regulator gefunden, der in Abhängigkeit einer Vielzahl von Wachstumsfaktoren den zellulären Metabolismus und das Wachstum reguliert. Während zum heutigen Zeitpunkt schon relativ gute Kenntnisse über die Funktionen und Signalwege dieser Kinase in heterotrophen Organismen gewonnen werden konnten, wurden die Untersuchungen des TOR-Signalweges in photoautotrophen Organismen durch deren Resistenz gegenüber dem TOR-spezifischen Inhibitor Rapamycin für lange Zeit erschwert. Daher bietet die Entdeckung, dass die einzelligen Grünalge Chlamydomonas reinhardtii eine natürliche Sensitivität gegenüber Rapamycin aufweist, eine gute Grundlage zur Erforschung des TOR-Signalweges in photosynthetisch aktiven Eukaryoten. Aufgrund der Beobachtung, dass das Wachstum von Chlamydomonas nicht vollständig durch Rapamycin inhibiert werden konnte, was im Gegensatz zu Beobachtungen in anderen Organismen steht, entschieden wir uns für eine detailliertere Analyse des Einflusses von TOR auf den Zellzyklus. Dazu wurde ein System etabliert das eine Synchronisation der Zellen unter weitestgehend ungestörten Bedingungen in einem Fermenter-system erlaubte. Dieses System wurde dann für eine detaillierte Charakterisierung der synchronisierten Zellen genutzt. Mittels einer hochaufgelösten Zeitreihe wurden Veränderungen zytologischer Parameter (Zellzahl und Zellgrößenverteilung) und des Stärkegehalts analysiert. Zusätzlich wurden massenspektrometrische Verfahren zur Analyse des Primär- und Lipidmetabolismus verwendet. Dieses System wurde des Weiteren dazu genutzt dynamische Veränderungen im Metabolom und Lipidom von Chlamydomonas nach Inhibition der TOR Kinase durch Rapamycin zu untersuchen Die Ergebnisse der TOR-Inhibition zeigen ein vermindertes Wachstum, eine Verzögerung in der Zellteilung und der Entlassung der Tochterzellen und resultieren in einer um 50% verringerten Zellzahl am Ende des Zellzyklus. Des Weiteren konnte eine Akkumulation von Kohlenstoff– und Stickstoff-Reserven in Form von Stärke und Triacylglyceriden, sowie Arginin beobachtet werden. Dabei ist vor allem interessant, dass die der Einbau von Kohlenstoff in Triacylglyceride offenbar schneller erfolgt als der in Stärke, was auf eine dominantere Rolle von TOR in der Regulation der Triacylglycerid-Biosynthese gegenüber der Stärkesynthese hindeutet. Diese Studie zeigt zum ersten Mal eine komplexe Analyse der dynamischen Veränderungen im Primär- und Lipidmetabolismus im Verlauf des Zellzyklus von Chlamydomonas und zeigt weiterhin die komplexe Regulation und Adjustierung des Metabolit-Pools und der Lipidzusammensetzung als Antwort auf die Inhibition von TOR. KW - chlamydomonas reinhardtii KW - metabolites KW - Metaboliten KW - lipids KW - Lipide Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76923 ER - TY - THES A1 - Meissner, Sven T1 - Implications of Microcystin Production in Microcystis aeruginosa PCC 7806 T1 - Effekte der Produktion von Microcystin in Microcystis aeruginosa PCC 7806 N2 - Cyanobacteria produce about 40 percent of the world’s primary biomass, but also a variety of often toxic peptides such as microcystin. Mass developments, so called blooms, can pose a real threat to the drinking water supply in many parts of the world. This study aimed at characterizing the biological function of microcystin production in one of the most common bloom-forming cyanobacterium Microcystis aeruginosa. In a first attempt, the effect of elevated light intensity on microcystin production and its binding to cellular proteins was studied. Therefore, conventional microcystin quantification techniques were combined with protein-biochemical methods. RubisCO, the key enzyme for primary carbon fixation was a major microcystin interaction partner. High light exposition strongly stimulated microcystin-protein interactions. Up to 60 percent of the total cellular microcystin was detected bound to proteins, i.e. inaccessible for standard quantification procedures. Underestimation of total microcystin contents when neglecting the protein fraction was also demonstrated in field samples. Finally, an immuno-fluorescence based method was developed to identify microcystin producing cyanobacteria in mixed populations. The high light induced microcystin interaction with proteins suggested an impact of the secondary metabolite on the primary metabolism of Microcystis by e.g. modulating the activity of enzymes. For addressing that question, a comprehensive GC/MS-based approach was conducted to compare the accumulation of metabolites in the wild-type of Microcystis aeruginosa PCC 7806 and the microcystin deficient ΔmcyB mutant. From all 501 detected non-redundant metabolites 85 (17 percent) accumulated significantly different in either of both genotypes upon high light exposition. Accumulation of compatible solutes in the ΔmcyB mutant suggests a role of microcystin in fine-tuning the metabolic flow to prevent stress related to excess light, high oxygen concentration and carbon limitation. Co-analysis of the widely used model cyanobacterium Synechocystis PCC 6803 revealed profound metabolic differences between species of cyanobacteria. Whereas Microcystis channeled more resources towards carbohydrate synthesis, Synechocystis invested more in amino acids. These findings were supported by electron microscopy of high light treated cells and the quantification of storage compounds. While Microcystis accumulated mainly glycogen to about 8.5 percent of its fresh weight within three hours, Synechocystis produced higher amounts of cyanophycin. The results showed that the characterization of species-specific metabolic features should gain more attention with regard to the biotechnological use of cyanobacteria. N2 - Cyanobakterien produzieren etwa 40 Prozent der primären Biomasse auf der Welt aber auch giftige Peptide wie das leberschädigende Microcystin. Massenvorkommen, so genannte Blaualgenblüten, gefährden vielerorts regelmäßig die Trinkwasserversorgung. Diese Arbeit hatte zum Ziel, den Einfluss der Microcystinproduktion auf physiologische Abläufe in dem weit verbreiteten blütenbildenden Cyanobakterium Microcystis aeruginosa zu charakterisieren. Zum einen, wurde hierfür der Einfluss der Beleuchtungsintensität auf die Produktion von Microcystin und dessen Bindung an zelluläre Proteine ermittelt. Hierzu wurden etablierte Quantifizierungstechniken mit biochemischen Methoden kombiniert. RubisCO, das Schlüsselenzym zur primären Kohlenstofffixierung, war ein Hauptinteraktionspartner von Microcystin. Hohe Beleuchtungsintensität erhöhte die Menge von an Proteine gebundenem Microcystin. Bis zu 60 Prozent des gesamten zellulären Microcystins lag an Proteine gebunden vor, d.h. es wurde durch Standardquantifizierungsmethoden nicht erfasst. Die Notwendigkeit, zur Quantifizierung des gesamten Microcystins die Proteinfraktion mit einzubeziehen, wurde auch in Freilandproben demonstriert. Die Entwicklung einer immunofluoreszenzbasierten Methode erlaubte die Unterscheidung von toxischen und nichttoxischen Microcystis-Kolonien in Freilandproben. Die starklichtinduzierte Interaktion von Microcystin mit Proteinen deutete auf einen möglichen Einfluss des Sekundärmetabolits auf den Primärstoffwechsel von Microcystis hin. Um dieser Frage nachzugehen, wurde ein umfassender GC/MS-basierter Versuch durchgeführt, um die Akkumulation von Metaboliten im Microcystin produzierenden Stamm Microcystis aeruginosa PCC 7806 und dessen microcystinfreier ΔmcyB-mutierten Variante vergleichen zu können. Es zeigte sich, dass Microcystin einen Einfluss auf die Akkumulation von 85 (17 Prozent) aller 501 detektierten Metaboliten unter erhöhter Beleuchtungsstärke hatte. Besonders die vermehrte Synthese osmotisch aktiver Substanzen in der ΔmcyB Mutante, verstanden als generelle Reaktion auf allgemeinen Stress, deutete auf eine Beteiligung von Microcystin in der metabolischen Justierung von Microcystis hin. Die Parallelanalyse des Modellstamms Synechocystis PCC 6803 offenbarte grundsätzliche metabolische Unterschiede zwischen verschiedenen Cyanobakterienspezies. Demnach produzierte Microcystis vor allem Kohlehydrate und Synechocystis eher Aminosäuren. Die GC/MS-basierten Ergebnisse wurden durch elektronmikroskopische Aufnahmen und die Quantifizierung von Speichermetaboliten gestützt. Innerhalb drei Stunden bewirkte Starklicht die Akkumulation von Glykogen in Microcystis auf ca. 8.5 Prozent des Frischgewichts, wohingegen Synechocystis mehr Cyanophycin produzierte. Die Ergebnisse zeigten, dass im Hinblick auf die biotechnologische Nutzung von Cyanobakterien, die Charakterisierung speziesspezifischer metabolischer Eigenschaften mehr Beachtung finden sollte. KW - microcystin KW - Microcystin KW - cyanobacteria KW - Cyanobakterien Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75199 ER - TY - THES A1 - Schmidt, Lukas T1 - Aerosols and boundary layer structure over Arctic sea ice based on airborne lidar and dropsonde measurements T1 - Aerosol und Grenzschichtstruktur über arktischem Meereis anhand von Flugzeuggetragenen Lidar- und Dropsonden- Messungen N2 - The atmosphere over the Arctic Ocean is strongly influenced by the distribution of sea ice and open water. Leads in the sea ice produce strong convective fluxes of sensible and latent heat and release aerosol particles into the atmosphere. They increase the occurrence of clouds and modify the structure and characteristics of the atmospheric boundary layer (ABL) and thereby influence the Arctic climate. In the course of this study aircraft measurements were performed over the western Arctic Ocean as part of the campaign PAMARCMIP 2012 of the Alfred Wegener Institute for Polar and Marine Research (AWI). Backscatter from aerosols and clouds within the lower troposphere and the ABL were measured with the nadir pointing Airborne Mobile Aerosol Lidar (AMALi) and dropsondes were launched to obtain profiles of meteorological variables. Furthermore, in situ measurements of aerosol properties, meteorological variables and turbulence were part of the campaign. The measurements covered a broad range of atmospheric and sea ice conditions. In this thesis, properties of the ABL over Arctic sea ice with a focus on the influence of open leads are studied based on the data from the PAMARCMIP campaign. The height of the ABL is determined by different methods that are applied to dropsonde and AMALi backscatter profiles. ABL heights are compared for different flights representing different conditions of the atmosphere and of sea ice and open water influence. The different criteria for ABL height that are applied show large variation in terms of agreement among each other, depending on the characteristics of the ABL and its history. It is shown that ABL height determination from lidar backscatter by methods commonly used under mid-latitude conditions is applicable to the Arctic ABL only under certain conditions. Aerosol or clouds within the ABL are needed as a tracer for ABL height detection from backscatter. Hence an aerosol source close to the surface is necessary, that is typically found under the present influence of open water and therefore convective conditions. However it is not always possible to distinguish residual layers from the actual ABL. Stable boundary layers are generally difficult to detect. To illustrate the complexity of the Arctic ABL and processes therein, four case studies are analyzed each of which represents a snapshot of the interplay between atmosphere and underlying sea ice or water surface. Influences of leads and open water on the aerosol and clouds within the ABL are identified and discussed. Leads are observed to cause the formation of fog and cloud layers within the ABL by humidity emission. Furthermore they decrease the stability and increase the height of the ABL and consequently facilitate entrainment of air and aerosol layers from the free troposphere. N2 - Die Verteilung von Meereis und offenem Wasser hat einen starken Einfluss auf die Atmosphäre über dem arktischen Ozean. Eisrinnen (sog. Leads) verursachen konvektive Flüsse von latenter und sensibler Wärme und führen zum Eintrag von Aerosolpartikeln in die Atmosphäre. Dadurch führen sie zum vermehrten Auftreten von Wolken und modifizieren die Struktur und die Eigenschaften der atmosphärischen Grenzschicht (ABL), wodurch das arktische Klima beeinflusst wird. Im Rahmen der Messkampagne PAMARCMIP 2012 des Alfred-Wegener-Instituts (AWI) wurden als Teil dieser Arbeit über dem westlichen arktischen Ozean Flugzeugmessungen durchgeführt. Mithilfe des nach unten gerichteten Airborne Mobile Aerosol Lidar (AMALi) wurde die Rückstreuung von Aerosolen und Wolken in der unteren Troposphäre und ABL gemessen. Dropsonden wurden verwendet, um Profile meteorologischer Größen zu erhalten. Zudem wurden in situ Messungen von Aerosoleigenschaften, meteorologischen Variablen und der Turbulenz durchgeführt. In dieser Arbeit werden die Eigenschaften der ABL über arktischem Meereis basierend auf den Daten der PAMARCMIP Kampagne untersucht. Dabei liegt der Fokus auf dem Einfluss offener Leads auf die ABL. Aus den gewonnenen Dropsondendaten und AMALi Rückstreuprofilen wird die Höhe der ABL mithilfe verschiedener Methoden bestimmt. Die für verschiedene Messflüge und somit unterschiedliche atmosphärische Bedingungen sowie Meereisverteilungen berechneten ABL Höhen werden miteinander verglichen, und somit der Einfluss von offenem Wasser auf die ABL untersucht. Die verschiedenen Methoden zur Bestimmung der ABL Höhe führen zu unterschiedlichen Ergebnissen, je nach Eigenschaften der ABL und ihrer Geschichte. Es wird gezeigt, dass die Methoden für die ABL Höhen-Bestimmung aus der Lidar Rückstreuung, die gewöhnlich für die mittleren Breiten verwendet werden, nur bedingt für arktische Bedingungen geeignet ist. Um die ABL Höhe aus der Rückstreuung ableiten zu können, müssen Aerosole oder Wolken in der Grenzschicht als Tracer vorhanden sein. Dazu ist eine Aerosolquelle nahe der Oberfläche notwendig, welche typischerweise unter dem Einfluss von offenem Wasser und konvektiven Bedingungen vorliegt. Dennoch ist es nicht immer möglich, die aktuelle Grenzschicht von residualen Schichten zu unterscheiden. Stabile Grenzschichten sind im Allgemeinen schwer zu detektieren. Um die Komplexität der arktischen Grenzschicht und die beteiligten Prozesse zu veranschaulichen, werden vier Fallstudien detailliert analysiert, welche jeweils eine Momentaufnahme des Zusammenspiels von Atmosphäre und Meereis oder Wasseroberfläche darstellen. Der Einfluss von Leads und offenem Wasser auf Aerosol und Wolken in der ABL werden identifiziert und diskutiert. Die Bildung von Wolken- und Nebelschichten, verursacht durch den Feuchteeintrag über offenen Leads, wird beobachtet. Zudem verringern leads die Stabilität der ABL, führen zu einer Zunahme ihrer Höhe und begünstigen dadurch Entrainment von Luft und Aerosolschichten aus der freien Troposphäre. KW - polar KW - atmosphere KW - AMALi KW - Polar 5 KW - lead KW - polar KW - Atmosphäre KW - AMALi KW - Polar 5 KW - Eisrinne Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75076 ER - TY - THES A1 - Sarkar, Saswati T1 - Holocene variations in the strength of the Indian Monsoon system T1 - Holozäne Schwankungen in der Stärke des Indischen Monsunsystems BT - a combined biomarker and stable isotope approach BT - ein kombinierter Ansatz mit Biomarkern und stabilen Isotopen N2 - The monsoon is an important component of the Earth’s climate system. It played a vital role in the development and sustenance of the largely agro-based economy in India. A better understanding of past variations in the Indian Summer Monsoon (ISM) is necessary to assess its nature under global warming scenarios. Instead, our knowledge of spatiotemporal patterns of past ISM strength, as inferred from proxy records, is limited due to the lack of high-resolution paleo-hydrological records from the core monsoon domain. In this thesis I aim to improve our understanding of Holocene ISM variability from the core ‘monsoon zone’ (CMZ) in India. To achieve this goal, I tried to understand modern and thereafter reconstruct Holocene monsoonal hydrology, by studying surface sediments and a high-resolution sedimentary record from the saline-alkaline Lonar crater lake, central India. My approach relies on analyzing stable carbon and hydrogen isotope ratios from sedimentary lipid biomarkers to track past hydrological changes. In order to evaluate the relationship of the modern ecosystem and hydrology of the lake I studied the distribution of lipid biomarkers in the modern ecosystem and compared it to lake surface sediments. The major plants from dry deciduous mixed forest type produced a greater amount of leaf wax n-alkanes and a greater fraction of n-C31 and n-C33 alkanes relative to n-C27 and n-C29. Relatively high average chain length (ACL) values (29.6–32.8) for these plants seem common for vegetation from an arid and warm climate. Additionally I found that human influence and subsequent nutrient supply result in increased lake primary productivity, leading to an unusually high concentration of tetrahymanol, a biomarker for salinity and water column stratification, in the nearshore sediments. Due to this inhomogeneous deposition of tetrahymanol in modern sediments, I hypothesize that lake level fluctuation may potentially affect aquatic lipid biomarker distributions in lacustrine sediments, in addition to source changes. I reconstructed centennial-scale hydrological variability associated with changes in the intensity of the ISM based on a record of leaf wax and aquatic biomarkers and their stable carbon (δ13C) and hydrogen (δD) isotopic composition from a 10 m long sediment core from the lake. I identified three main periods of distinct hydrology over the Holocene in central India. The period between 10.1 and 6 cal. ka BP was likely the wettest during the Holocene. Lower ACL index values (29.4 to 28.6) of leaf wax n-alkanes and their negative δ13C values (–34.8‰ to –27.8‰) indicated the dominance of woody C3 vegetation in the catchment, and negative δDwax (average for leaf wax n-alkanes) values (–171‰ to –147‰) argue for a wet period due to an intensified monsoon. After 6 cal. ka BP, a gradual shift to less negative δ13C values (particularly for the grass derived n-C31) and appearance of the triterpene lipid tetrahymanol, generally considered as a marker for salinity and water column stratification, marked the onset of drier conditions. At 5.1 cal. ka BP increasing flux of leaf wax n-alkanes along with the highest flux of tetrahymanol indicated proximity of the lakeshore to the center due to a major lake level decrease. Rapid fluctuations in abundance of both terrestrial and aquatic biomarkers between 4.8 and 4 cal. ka BP indicated an unstable lake ecosystem, culminating in a transition to arid conditions. A pronounced shift to less negative δ13C values, in particular for n-C31 (–25.2‰ to –22.8‰), over this period indicated a change of dominant vegetation to C4 grasses. Along with a 40‰ increase in leaf wax n-alkane δD values, which likely resulted from less rainfall and/or higher plant evapotranspiration, I interpret this period to reflect the driest conditions in the region during the last 10.1 ka. This transition led to protracted late Holocene arid conditions and the establishment of a permanently saline lake. This is supported by the high abundance of tetrahymanol. A late Holocene peak of cyanobacterial biomarker input at 1.3 cal. ka BP might represent an event of lake eutrophication, possibly due to human impact and the onset of cattle/livestock farming in the catchment. The most intriguing feature of the mid-Holocene driest period was the high amplitude and rapid fluctuations in δDwax values, probably due to a change in the moisture source and/or precipitation seasonality. I hypothesize that orbital induced weakening of the summer solar insolation and associated reorganization of the general atmospheric circulation were responsible for an unstable hydroclimate in the mid-Holocene in the CMZ. My findings shed light onto the sequence of changes during mean state changes of the monsoonal system, once an insolation driven threshold has been passed, and show that small changes in solar insolation can be associated to major environmental changes and large fluctuations in moisture source, a scenario that may be relevant with respect to future changes in the ISM system. N2 - Der Monsun ist ein wichtiger Bestandteil des Klimasystems der Erde. Er spielte in der Entwicklung und im Lebensunterhalt der weitgehend agrarisch geprägten Wirtschaft in Indien eine wesentliche Rolle. Ein besseres Verständnis von vergangenen Schwankungen im Indischen Sommermonsun (ISM) ist notwendig, um dessen Wesen unter dem Einfluss globaler Erwärmungsszenarien zu bewerten. Stattdessen ist unser Wissen über räumlich-zeitliche Muster der vergangenen ISM Intensität, wie sie aus Proxydaten abgeleitet wird, aufgrund des Mangels an hochauflösenden paläohydrologischen Datensätzen aus der Kernmonsunregion sehr eingeschränkt. In dieser Arbeit versuche ich unser Verständnis über die ISM Variabilität im Holozän in der Kernmonsunregion in Indien zu verbessern. Um dieses Ziel zu erreichen habe ich versucht, zunächst die rezente und danach die holozäne monsunale Hydrologie durch das Studium von Oberflächensedimenten und eines hochaufgelösten Sedimentkerns aus dem salzhaltigen-alkalischen Lonar Kratersee, Zentralindien zu verstehen. Mein Ansatz stützt sich auf der Analyse stabiler Wasserstoff- und Kohlenstoffisotopenverhältnisse von sedimentären Lipid Biomarkern, um vergangene hydrologische Veränderungen zu verfolgen. Um die Beziehung des modernen Ökosystems mit der Hydrologie des Sees zu bewerten, untersuchte ich die Verteilung von Lipid Biomarkern im rezenten Ökosystem und verglich sie mit den Oberflächensedimenten des Sees. Die bedeutendsten Pflanzen aus dem trockenen Laubmischwaldtyp erzeugten eine größere Menge an Blattwachs n-Alkanen und einen größeren Anteil von n-C31 und n-C33 Alkanen im Verhältnis zu n-C27 und n-C29. Die relativ hohen durchschnittlichen Werte der Kettenlängen (29.6–32.8) für diese Pflanzen scheinen für die Vegetation in einem ariden und warmen Klima weit verbreitet zu sein. Zusätzlich fand ich heraus, dass der menschliche Einfluss und eine nachfolgende Nährstoffzufuhr zu einer Erhöhung der Primärproduktion im See führen, die in einer ungewöhnlich hohen Konzentration von Tetrahymanol, einem Biomarker für Salzgehalt und Schichtung der Wassersäule, in den Sedimenten des Uferbereichs resultiert. Aufgrund dieser inhomogenen Ablagerung von Tetrahymanol in rezenten Sedimenten vermute ich, dass Seespiegelschwankungen möglicherweise aquatische Lipid Biomarker Verteilungen in limnischen Sedimenten, zusätzlich zu Änderungen in deren Herkunft, potentiell beeinflussen. Ich habe die hundertjährig-lange hydrologische Variabilität, die mit Veränderungen in der Intensität des ISM verbunden ist, auf der Basis von Blattwachs Lipid Biomarkern und ihrer stabilen Kohlenstoff- (δ13C) und Wasserstoffisotopenzusammensetzung (δD) ausgehend von einem 10 m langen Sedimentkern aus dem See rekonstruiert. Ich habe drei Hauptphasen von signifikanter Hydrologie im Holozän in Zentralindien identifiziert. Die Periode zwischen 10.1 und 6 cal. ka BP war wahrscheinlich die feuchteste während des Holozäns. Geringere durchschnittliche Kettenlängen Indexwerte (29.4 bis 28.6) von Blattwachs n-Alkanen und ihre negativen δ13C Werte (–34.8‰ bis –27.8‰) wiesen auf die Dominanz von holziger C3 Vegetation im Einzugsgebiet hin, und negative δDwax (Durchschnitt für Blattwachs n-Alkane) Werte (–171‰ bis –147‰) stehen für eine feuchte Periode in Verbindung mit einem verstärkten Monsun. Nach 6 cal. ka BP führte eine allmähliche Verschiebung zu weniger negativen δ13C Werten (insbesondere für Gras abgeleitete n-C31) und das Vorkommen von Triterpen Lipid Tetrahymanol, allgemein als Indikator für Salzgehalt und Wassersäulenstratifizierung verwendet, zum Beginn von trockeneren Bedingungen. Um 5.1 cal. ka BP deutete ein erhöhter Fluss von Blattwachs n-Alkanen in Zusammenhang mit dem höchsten Fluss von Tetrahymanol auf eine bedeutende Absenkung des Seeufers durch den Rückgang im Seespiegel. Rasche Schwankungen in der Menge von terrestrischen und aquatischen Biomarkern zwischen 4.8 und 4 cal. ka BP wiesen auf ein instabiles Seeökosystem hin, das in einem Übergang zu ariden Bedingungen kulminiert. Eine bedeutende Verschiebung zu weniger negativen δ13C Werten in dieser Periode, insbesondere für n-C31 (–25.2‰ bis –22.8‰), zeigte einen Wandel in der dominanten Vegetation hin zu C4 Gräsern. Zusammen mit einem 40‰ Anstieg in den δD Werten der Blattwachs n-Alkane, der wahrscheinlich von weniger Niederschlag und/oder höherer Evapotranspiration der Pflanzen ausgelöst wurde, interpretiere ich diese Periode als die trockenste der letzten 10.1 ka. Dieser Übergang führte zu lang anhaltenden spätholozänen ariden Bedingungen und zur Ausbildung eines dauerhaften salzhaltigen Sees. Dies wird durch ein hohes Vorkommen von Tetrahymanol unterstützt. Ein spätholozäner Höchstwert in der Zufuhr blaualgenhaltiger Biomarker um 1.3 cal. ka BP könnte ein Ereignis der Eutrophierung des Sees darstellen, wahrscheinlich in Verbindung mit dem menschlichen Einfluss und dem Beginn der Rinder- und Viehzucht im Einzugsgebiet. Die faszinierendsten Merkmale der trockensten Periode im mittleren Holozän waren die hohe Amplitude und rasche Fluktuationen in den δDwax Werten, wahrscheinlich in Verbindung mit einer Veränderung in der Herkunft der Feuchtigkeit und/oder Saisonalität im Niederschlag. Ich vermute, dass eine orbital induzierte Abschwächung der sommerlichen Solarstrahlung und eine damit verbundene Umstellung der allgemeinen atmosphärischen Zirkulation für ein instabiles Hydroklima im mittleren Holozän in der Kernmonsunregion verantwortlich waren. Meine Ergebnisse liefern den Aufschluss über die Abfolge von Veränderungen während der mittleren Zustandsänderungen des Monsunsystems, sobald ein einstrahlungsgetriebener Schwellenwert überschritten ist, und sie zeigen, dass kleine Änderungen in der solaren Einstrahlung mit markanten Umweltveränderungen und großen Schwankungen in der Herkunft der Feuchtigkeit einhergehen, ein Szenario, das in Bezug zu zukünftigen Veränderungen des ISM Systems relevant sein könnte. KW - Indian Monsoon KW - indischer Monsun KW - holocene KW - Holozän Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74905 ER - TY - THES A1 - Strauß, Jens T1 - Organic carbon in ice-rich permafrost T1 - Organischer Kohlenstoff in eisreichen Permafrostablagerungen BT - characteristics, quantity, and availability BT - stoffliche Charakteristik, Bilanzierung und Verfügbarkeit N2 - Permafrost, defined as ground that is frozen for at least two consecutive years, is a distinct feature of the terrestrial unglaciated Arctic. It covers approximately one quarter of the land area of the Northern Hemisphere (23,000,000 km²). Arctic landscapes, especially those underlain by permafrost, are threatened by climate warming and may degrade in different ways, including active layer deepening, thermal erosion, and development of rapid thaw features. In Siberian and Alaskan late Pleistocene ice-rich Yedoma permafrost, rapid and deep thaw processes (called thermokarst) can mobilize deep organic carbon (below 3 m depth) by surface subsidence due to loss of ground ice. Increased permafrost thaw could cause a feedback loop of global significance if its stored frozen organic carbon is reintroduced into the active carbon cycle as greenhouse gases, which accelerate warming and inducing more permafrost thaw and carbon release. To assess this concern, the major objective of the thesis was to enhance the understanding of the origin of Yedoma as well as to assess the associated organic carbon pool size and carbon quality (concerning degradability). The key research questions were: - How did Yedoma deposits accumulate? - How much organic carbon is stored in the Yedoma region? - What is the susceptibility of the Yedoma region's carbon for future decomposition? To address these three research questions, an interdisciplinary approach, including detailed field studies and sampling in Siberia and Alaska as well as methods of sedimentology, organic biogeochemistry, remote sensing, statistical analyses, and computational modeling were applied. To provide a panarctic context, this thesis additionally includes results both from a newly compiled northern circumpolar carbon database and from a model assessment of carbon fluxes in a warming Arctic. The Yedoma samples show a homogeneous grain-size composition. All samples were poorly sorted with a multi-modal grain-size distribution, indicating various (re-) transport processes. This contradicts the popular pure loess deposition hypothesis for the origin of Yedoma permafrost. The absence of large-scale grinding processes via glaciers and ice sheets in northeast Siberian lowlands, processes which are necessary to create loess as material source, suggests the polygenetic origin of Yedoma deposits. Based on the largest available data set of the key parameters, including organic carbon content, bulk density, ground ice content, and deposit volume (thickness and coverage) from Siberian and Alaskan study sites, this thesis further shows that deep frozen organic carbon in the Yedoma region consists of two distinct major reservoirs, Yedoma deposits and thermokarst deposits (formed in thaw-lake basins). Yedoma deposits contain ~80 Gt and thermokarst deposits ~130 Gt organic carbon, or a total of ~210 Gt. Depending on the approach used for calculating uncertainty, the range for the total Yedoma region carbon store is ±75 % and ±20 % for conservative single and multiple bootstrapping calculations, respectively. Despite the fact that these findings reduce the Yedoma region carbon pool by nearly a factor of two compared to previous estimates, this frozen organic carbon is still capable of inducing a permafrost carbon feedback to climate warming. The complete northern circumpolar permafrost region contains between 1100 and 1500 Gt organic carbon, of which ~60 % is perennially frozen and decoupled from the short-term carbon cycle. When thawed and reintroduced into the active carbon cycle, the organic matter qualities become relevant. Furthermore, results from investigations into Yedoma and thermokarst organic matter quality studies showed that Yedoma and thermokarst organic matter exhibit no depth-dependent quality trend. This is evidence that after freezing, the ancient organic matter is preserved in a state of constant quality. The applied alkane and fatty-acid-based biomarker proxies including the carbon-preference and the higher-land-plant-fatty-acid indices show a broad range of organic matter quality and thus no significantly different qualities of the organic matter stored in thermokarst deposits compared to Yedoma deposits. This lack of quality differences shows that the organic matter biodegradability depends on different decomposition trajectories and the previous decomposition/incorporation history. Finally, the fate of the organic matter has been assessed by implementing deep carbon pools and thermokarst processes in a permafrost carbon model. Under various warming scenarios for the northern circumpolar permafrost region, model results show a carbon release from permafrost regions of up to ~140 Gt and ~310 Gt by the years 2100 and 2300, respectively. The additional warming caused by the carbon release from newly-thawed permafrost contributes 0.03 to 0.14°C by the year 2100. The model simulations predict that a further increase by the 23rd century will add 0.4°C to global mean surface air temperatures. In conclusion, Yedoma deposit formation during the late Pleistocene was dominated by water-related (alluvial/fluvial/lacustrine) as well as aeolian processes under periglacial conditions. The circumarctic permafrost region, including the Yedoma region, contains a substantial amount of currently frozen organic carbon. The carbon of the Yedoma region is well-preserved and therefore available for decomposition after thaw. A missing quality-depth trend shows that permafrost preserves the quality of ancient organic matter. When the organic matter is mobilized by deep degradation processes, the northern permafrost region may add up to 0.4°C to the global warming by the year 2300. N2 - Permafrost, definiert als mehr als zwei aufeinander folgende Jahre gefrorenes Bodenmaterial, ist eines der prägenden Merkmale der unvergletscherten arktischen Landgebiete. Verursacht durch extrem kalte Wintertemperaturen und geringe Schneebedeckung nimmt das Permafrost-Verbreitungsgebiet mit ~23.000.000 km² rund ein Viertel der Landfläche der Nordhemisphäre ein. Von Permafrost unterlagerte arktische Landschaften sind besonders anfällig hinsichtlich einer Erwärmung des Klimas. Verglichen mit der globalen Mitteltemperatur prognostizieren Klimamodelle für die Arktis einen doppelt so starken Anstieg der Temperatur. In einer sich erwärmenden Arktis bewirken Störungen des thermisch-hydrologischen Gleichgewichts eine Degradation von Permafrost und Veränderungen des Oberflächenreliefs. Diese Störungen können zum Beispiel zu einer Vertiefung der saisonalen Auftauschicht, zu thermisch bedingter Erosion sowie zu schneller Oberflächenabsenkung und Thermokarst führen. Im Verbreitungsgebiet der spätpleistozänen eisreichen Permafrost-Ablagerungen Sibiriens und Alaskas, bezeichnet als Yedoma, können Thermokarstprozesse auch mehr als 3 m tiefe organischen Kohlenstoffspeicher verfügbar machen, wenn durch schmelzendes Grundeis und Schmelzwasserdrainage die Oberfläche abgesenkt wird. So kann das Tauen von Permafrost eine globale Bedeutung entwickeln, indem vorher eingefrorener Kohlenstoff wieder dem aktiven Kohlenstoffkreislauf zugeführt wird. Dies kann durch Treibhausgasfreisetzung aus Permafrost zu einer sich selbst verstärkenden weiteren Erwärmung und somit zu fortschreitendem Tauen mit weiterer Kohlenstofffreisetzung führen. Diesen Prozess nennt man Permafrost-Kohlenstoff Rückkopplung. Um das Verständnis der Permafrostkohlenstoffdynamik grundlegend zu verbessern, wurde in dieser Doktorarbeit die Entstehung der Yedoma-Ablagerungen eingeschlossen des darin - Wie wurden die Yedoma-Sedimente abgelagert? - Wie viel Kohlenstoff ist in der Yedoma Region gespeichert? - Wie ist die Anfälligkeit dieses Kohlenstoffs für eine Degradation in der Zukunft? Um die oben genannten drei Forschungsfragen zu beantworten, wurde ein interdisziplinärer Forschungsansatz gewählt. In Sibirien und Alaska wurden detaillierte Felduntersuchungen durchgeführt und Methoden der Sedimentologie, der organischen Biogeochemie, der Fernerkundung sowie der statistischen Analyse und computergestützten Modellierung angewendet. Um diese Ergebnisse in den panarktische Kontext zu setzen, enthält diese Doktorarbeit ebenfalls Ergebnisse einer Studie, welche auf Grundlage einer neu zusammengestellten Datenbank den gesamten Kohlenstoff des arktischen Permafrosts abschätzt. Eine Modellierungsstudie ergänzt die Arbeit bezüglich einer Abschätzung der Kohlenstoffflüsse der Permafrostregion und deren Einfluss auf die globale Erwärmung. Die Ergebnisse zur Yedoma-Entstehung zeigen, dass die Korngrößenverteilungen dieser Ablagerungen, tiefenabhängig betrachtet, sehr homogen sind. Alle gemessenen Korngrößenverteilungen sind schlecht sortiert. Dies deutet auf eine Vielzahl von Transportprozessen hin und widerspricht der populären Hypothese einer reinen Löß-Ablagerung. Interpretiert im Kontext mit der Abwesenheit von Gletschern sowie Eisschilden, als Ausgangsgebiete von Löß-Ablagerungen, in den sibirischen Tiefländern des Spätpleistozäns, zeigt diese Arbeit, dass Yedoma-Ablagerungen polygenetischen Ursprungs sind. Basierend auf dem größten verfügbaren Datensatz der Schlüsselparameter Kohlenstoffgehalt, Lagerungsdichte, Grundeis und Volumen der Ablagerungen von über 20 Untersuchungsgebieten in Sibirien und Alaska zeigt diese Arbeit mit Yedoma- und Thermokarstablagerungen zwei wesentliche Kohlenstoffspeicher der Yedoma Region auf. Yedoma-Ablagerungen enthalten ~80 Gt und Thermokarstablagerungen ~130 Gt organischen Kohlenstoffs, was einer Gesamtmenge von ~210 Gt organischen Kohlenstoffs entspricht. Abhängig vom gewählten Ansatz der Fehlerberechnung liegt der Unsicherheitsbereich dieser Quantitätsabschätzung bei ±75 % (einfaches Bootstrapping) oder ±20 % (wiederholtes Bootstrapping). Obwohl diese Zahlen die bisherigen Berechnungen des Yedoma-Region-Kohlenstoffspeichers vorhergehender Studien halbieren, stellen 210 Gt organischen Kohlenstoffs noch immer einen großen Kohlenstoffspeicher dar, der eine positive Rückkopplung zur globalen Klimaerwärmung bewirken könnte. Die gesamte Permafrostregion beinhaltet zwischen 1100 und 1500 Gt Kohlenstoff, wovon ~60 % dauerhaft gefroren und somit dem derzeitigen Kohlenstoffkreislauf entzogen sind. Wenn dieser Kohlenstoff freigesetzt wird, ist ein weiterer Faktor, die Kohlenstoffqualität, relevant. Die Untersuchungen zur Kohlenstoffqualität zeigen keinen tiefenabhängigen Trend in Yedoma- und Thermokarstablagerungen. Dies belegt, dass nach dem Einfrieren die fossile organische Substanz konserviert wurde. Die genutzten Biomarkerdaten, z.B. der 'carbon preference' Index und der 'higher land plant fatty acid' Index zeigen sowohl für Yedoma- als auch für Thermokarstablagerungen keine signifikanten Unterschiede der Kohlenstoffqualität. Das bedeutet, dass der Kohlenstoffabbau nach dem Auftauen von unterschiedlichen Faktoren abhängig ist. Dazu gehören verschiedene Abbauwege oder schon vor dem Einfrieren geschehener Abbau. Um die Bedeutung des aufgetauten Kohlenstoffs abzuschätzen, wurden Thermokarstprozesse in ein Permafrost-Kohlenstoff-Modell einbezogen. Unter Berücksichtigung verschiedener Erwärmungsszenarien könnte die zirkumarktische Permafrostregion bis zum Jahr 2100 ~140 Gt Kohlenstoff und bis 2300 ~310 Gt in die Atmosphäre freisetzen. Dies entspricht einer Erwärmung der mittleren globalen Oberflächentemperatur von ~0,03 bis ~0,14°C bis 2100 und bis zu ~0,4°C bis 2300. Zusammenfassend stellt diese Dissertation heraus, dass die Yedoma-Ablagerungen während des Spätpleistozäns durch eine Kombination verschiedener aquatischer (alluviale, fluviale, lakustrine) sowie äolische Prozesse entstanden sind. Die zirkumarktische Region, inklusive der Yedoma Region, beinhaltet eine erhebliche Menge an derzeit eingefrorenem organischen Kohlenstoffs. Dieser Kohlenstoff ist gut erhalten und damit nach dem Auftauen für den mikrobiellen Abbau verfügbar. Eine fehlende Tiefenabhängigkeit der Kohlenstoffqualität zeigt, dass Permafrost die Qualität zum Einfrierzeitpunkt bewahrt. Wenn auch der tiefliegende organische Kohlenstoff durch Thermokarstprozesse verfügbar gemacht wird, kann die Permafrostregion bis zum Jahr 2300 bis zu 0,4°C zur mittleren globalen Oberflächentemperatur beitragen. KW - permafrost KW - Arctic KW - climate change KW - vulnerability KW - Dauerfrostboden KW - Arktis KW - Klimawandel KW - Vulnerabilität Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75236 ER - TY - THES A1 - Goldshteyn, Jewgenij T1 - Frequency-resolved ultrafast dynamics of phonon polariton wavepackets in the ferroelectric crystals LiNbO₃ and LiTaO₃ N2 - During this work I built a four wave mixing setup for the time-resolved femtosecond spectroscopy of Raman-active lattice modes. This setup enables to study the selective excitation of phonon polaritons. These quasi-particles arise from the coupling of electro-magnetic waves and transverse optical lattice modes, the so-called phonons. The phonon polaritons were investigated in the optically non-linear, ferroelectric crystals LiNbO₃ and LiTaO₃. The direct observation of the frequency shift of the scattered narrow bandwidth probe pulses proofs the role of the Raman interaction during the probe and excitation process of phonon polaritons. I compare this experimental method with the measurement where ultra-short laser pulses are used. The frequency shift remains obscured by the relative broad bandwidth of these laser pulses. In an experiment with narrow bandwidth probe pulses, the Stokes and anti-Stokes intensities are spectrally separated. They are assigned to the corresponding counter-propagating wavepackets of phonon polaritons. Thus, the dynamics of these wavepackets was separately studied. Based on these findings, I develop the mathematical description of the so-called homodyne detection of light for the case of light scattering from counter propagating phonon polaritons. Further, I modified the broad bandwidth of the ultra-short pump pulses using bandpass filters to generate two pump pulses with non-overlapping spectra. This enables the frequency-selective excitation of polariton modes in the sample, which allows me to observe even very weak polariton modes in LiNbO₃ or LiTaO₃ that belong to the higher branches of the dispersion relation of phonon polaritons. The experimentally determined dispersion relation of the phonon polaritons could therefore be extended and compared to theoretical models. In addition, I determined the frequency-dependent damping of phonon polaritons. N2 - Während dieser Arbeit habe ich ein optisches Vier-Wellen-Misch-Experiment aufgebaut, um zeitaufgelöste Femtosekunden-Spektroskopie von Raman-aktiven Gittermoden durchzuführen. Dieser Aufbau erlaubt die Untersuchung selektiv angeregter Phonon Polaritonen. Diese Quasiteilchen entstehen durch die Kopplung von elektromagnetischen Wellen und transversal-optischer Gittermoden, den sogenannten Phononen. Die Phonon Polaritonen wurden in den optisch nichtlinearen, ferroelektrischen Kristallen LiNbO₃ und LiTaO₃ untersucht. Durch die direkte Beobachtung der Frequenzverschiebung der gestreuten, schmalbandigen Abfragepulse konnte die Raman-Wechselwirkung im Abfrage- und Erzeugungsprozess von Phonon Polaritonen nachgewießen werden. Diese experimentelle Methode vergleiche ich mit der Messung mittels ultrakurzen Laserpulsen. Hierbei ist die Frequenzverschiebung wegen der relativ großen Bandbreite der Laserpulse nicht auflösbar. Die Stokes und Anti-Stokes-Intensitäten sind hingegen in einem Experiment mit schmalbandigen Abfragepulsen spektral getrennt. Diese konnten den jeweiligen, entgegengesetzt propagierenden Wellenpaketen der Phonon Polaritonen zugeordnet werden. Deshalb war es moeglich, die Dynamik dieser Wellenpakete einzeln zu untersuchen. Basierend auf diesen Erkenntnissen konnte ich eine mathematische Beschreibung der sogenannten homodynen Detektion des Lichtes für den Fall von Lichtstreuung an entgegengesetzt propagierenden Phonon Polaritonen entwickeln. Desweiteren habe ich die breitbandigen, ultrakurzen Pumppulse mithilfe von zwei Bandpassfiltern so modifiziert, dass zwei spektral unterschiedliche und spektral nicht überlappende Anregepulse zur Verfügung standen. Dadurch wurde die frequenz-selektive Anregung von Polariton-Moden in der Probe ermöglicht. Diese Technik erlaubt mir die Untersuchung auch sehr schwacher Gittermoden in LiNbO₃ und LiTaO₃, die zu den höheren Ästen der Dispersionsrelation der Phonon Polaritonen gehören. Die experimentell bestimmte Dispersionsrelation der Phonon Polaritonen wurde erweitert und mit theoretischen Modellen verglichen. Zusätzlich habe ich die frequenzabhängige Dämpfung der Phonon Polaritonen bestimmt. T2 - Frequenzaufgelöste ultraschnelle Dynamik von Phonon Polariton Wellenpaketen in ferroelektrischen Kristallen LiNbO₃ und LiTaO₃ KW - transient grating KW - time resolved spectroskopy KW - non-linear optics KW - phonon polariton KW - impulsive stimulated Raman scattering KW - transientes Gitter KW - zeitaufgelöste Spektroskopie KW - nichtlineare Optik KW - Phonon-Polariton KW - impulsive stimulierte Raman Streuung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71623 ER - TY - THES A1 - Mallonn, Matthias T1 - Ground-based transmission spectroscopy of three inflated Hot Jupiter exoplanets T1 - Bodengebundene Transmissionsspektroskopie von drei ausgedehnten Hot Jupiter Exoplaneten N2 - The characterization of exoplanets is a young and rapidly expanding field in astronomy. It includes a method called transmission spectroscopy that searches for planetary spectral fingerprints in the light received from the host star during the event of a transit. This techniques allows for conclusions on the atmospheric composition at the terminator region, the boundary between the day and night side of the planet. Observationally a big challenge, first attempts in the community have been successful in the detection of several absorption features in the optical wavelength range. These are for example a Rayleighscattering slope and absorption by sodium and potassium. However, other objects show a featureless spectrum indicative for a cloud or haze layer of condensates masking the probable atmospheric layers. In this work, we performed transmission spectroscopy by spectrophotometry of three Hot Jupiter exoplanets. When we began the work on this thesis, optical transmission spectra have been available for two exoplanets. Our main goal was to advance the current sample of probed objects to learn by comparative exoplanetology whether certain absorption features are common. We selected the targets HAT-P-12b, HAT-P-19b and HAT-P-32b, for which the detection of atmospheric signatures is feasible with current ground-based instrumentation. In addition, we monitored the host stars of all three objects photometrically to correct for influences of stellar activity if necessary. The obtained measurements of the three objects all favor featureless spectra. A variety of atmospheric compositions can explain the lack of a wavelength dependent absorption. But the broad trend of featureless spectra in planets of a wide range of temperatures, found in this work and in similar studies recently published in the literature, favors an explanation based on the presence of condensates even at very low concentrations in the atmospheres of these close-in gas giants. This result points towards the general conclusion that the capability of transmission spectroscopy to determine the atmospheric composition is limited, at least for measurements at low spectral resolution. In addition, we refined the transit parameters and ephemerides of HAT-P-12b and HATP- 19b. Our monitoring campaigns allowed for the detection of the stellar rotation period of HAT-P-19 and a refined age estimate. For HAT-P-12 and HAT-P-32, we derived upper limits on their potential variability. The calculated upper limits of systematic effects of starspots on the derived transmission spectra were found to be negligible for all three targets. Finally, we discussed the observational challenges in the characterization of exoplanet atmospheres, the importance of correlated noise in the measurements and formulated suggestions on how to improve on the robustness of results in future work. N2 - Die Charakterisierung von Exoplaneten ist ein junger und sich schnell entwickelnder Zweig der Astronomie. Eine ihrer Methoden ist die Transmissionsspektroskopie, welche nach spektralen Abdrücken der Planetenatmosphäre im Licht des Muttersterns sucht. Diese Technik macht sich den Umstand zunutze, dass Planeten mit niedriger Bahnneigung einmal pro Umlauf vor ihrem Stern vorbeiziehen, wobei das Sternlicht Teile der Planetenatmosphäre durchläuft. Durch die Auswertung solcher Transitbeobachtungen lässt sich auf die chemische Zusammensetzung der Planetenatmosphäre schließen. Trotz der groβen Herausforderung an die benötigte Messgenauigkeit konnten bereits erste vielversprechende Ergebnisse erzielt werden und Entdeckungen wie zum Beispiel Rayleighstreuung und Absorption von Natrium und Kalium vermeldet werden. Andere Beobachtungen zeigten aber auch gänzlich flache Spektren ohne wellenlängenabhängige Absorption, welche auf eine Wolkenschicht oder Dunst in den Atmosphären hinweisen. In dieser Arbeit führten wir Transmissionsspektroskopie für drei extrasolare Planeten aus der Klasse der heißen Jupiter-artigen Gasriesen durch. Als wir mit unserer Studie begannen, waren erst zwei derartige Objekte erfolgreich auf ihr Spektrum im optischen Wellenlängenbereich untersucht worden. Unser Ziel war es, diese Anzahl zu erhöhen, um herauszufinden, welche spektralen Eigenschaften typisch für diese Exoplaneten sind. Wir wählten drei Objekte aus, für welche die zu erwartenden Messgenauigkeiten ausreichend für signifikante Ergebnisse sind: HAT-P-12b, HAT-P-19b und HAT-P-32b. Zusätzlich unternahmen wir Langzeitbeobachtungen der Muttersterne dieser Planeten, um die Transitbeobachtungen auf einen möglichen Einfluss von Sternaktivität zu korrigieren. Die erzielten Messungen der drei Planeten deuten alle auf Spektren ohne Absorptionslinien hin. Das Fehlen dieser Linien kann durch verschiedene Möglichkeiten zustande kommen, welche für die einzelnen Objekte individuell variieren können. Der Umstand jedoch, dass allen Objekten diese Linien fehlen und dass ähnliche Ergebnisse für weitere Objekte kürzlich in der Literatur publiziert wurden, deutet darauf hin, dass für einen bedeutenden Teil der Exoplaneten die Atmosphären nicht transparent, sondern durch kondensiertes Material optisch undurchlässig sind. Sollte sich dieses Ergebnis durch zukünftige Beobachtungen bestätigen, bedeutet es, dass die Transmissionsspektroskopie als Beobachtungstechnik nur sehr begrenzt für die Charakterisierung dieser Planetenatmosphären nützlich ist. Nur Beobachtungen hochaufgelöster Spektroskopie könnten dann verwertbare Informationen liefern. Weiterhin konnten wir in unserer Arbeit die Transitparameter und Ephemeriden von HAT-P-12b und HAT-P-19b genauer vermessen als es vorherigen Analysen möglich war. Durch unsere Langzeitbeobachtungen konnte die Rotationsperiode von HAT-P-19 bestimmt, sowie das Alter dieses Muttersterns neu berechnet werden. Ebenso leiteten wir Höchstwerte für eine mögliche Veränderlichkeit von HAT-P-12 und HAT-P-32 ab. Wir errechneten die Korrekturen der Transitparameter auf die Einflüsse von Sternaktivität und stellten fest, dass diese die Messergebnisse nicht wesentlich beeinflussen. Unsere Arbeit erlaubte tiefe Einblicke in die technischen Herausforderungen, welche diese Wissenschaft an die Sternbeobachtungen stellt. Wir diskutierten den Einfluss von systematischen Fehlern in den Messreihen und erarbeiteten Empfehlungen, wie die Messergebnisse weiter verbessert werden können. KW - extrasolar planets KW - atmospheric characterization KW - transmission spectroscopy KW - stellar variability KW - stellar activity KW - extrasolare Planeten KW - Charakterisierung Planetenatmosphären KW - Sternaktivität Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74403 ER - TY - THES A1 - Yeldesbay, Azamat T1 - Complex regimes of synchronization T1 - Komplexe Synchronisationszustände BT - modeling and analysis N2 - Synchronization is a fundamental phenomenon in nature. It can be considered as a general property of self-sustained oscillators to adjust their rhythm in the presence of an interaction. In this work we investigate complex regimes of synchronization phenomena by means of theoretical analysis, numerical modeling, as well as practical analysis of experimental data. As a subject of our investigation we consider chimera state, where due to spontaneous symmetry-breaking of an initially homogeneous oscillators lattice split the system into two parts with different dynamics. Chimera state as a new synchronization phenomenon was first found in non-locally coupled oscillators system, and has attracted a lot of attention in the last decade. However, the recent studies indicate that this state is also possible in globally coupled systems. In the first part of this work, we show under which conditions the chimera-like state appears in a system of globally coupled identical oscillators with intrinsic delayed feedback. The results of the research explain how initially monostable oscillators became effectivly bistable in the presence of the coupling and create a mean field that sustain the coexistence of synchronized and desynchronized states. Also we discuss other examples, where chimera-like state appears due to frequency dependence of the phase shift in the bistable system. In the second part, we make further investigation of this topic by modeling influence of an external periodic force to an oscillator with intrinsic delayed feedback. We made stability analysis of the synchronized state and constructed Arnold tongues. The results explain formation of the chimera-like state and hysteric behavior of the synchronization area. Also, we consider two sets of parameters of the oscillator with symmetric and asymmetric Arnold tongues, that correspond to mono- and bi-stable regimes of the oscillator. In the third part, we demonstrate the results of the work, which was done in collaboration with our colleagues from Psychology Department of University of Potsdam. The project aimed to study the effect of the cardiac rhythm on human perception of time using synchronization analysis. From our part, we made a statistical analysis of the data obtained from the conducted experiment on free time interval reproduction task. We examined how ones heartbeat influences the time perception and searched for possible phase synchronization between heartbeat cycles and time reproduction responses. The findings support the prediction that cardiac cycles can serve as input signals, and is used for reproduction of time intervals in the range of several seconds. N2 - Synchronisation ist ein fundamentales Naturphänomen. Es ist die grundlegende Eigenschaft sich selbsterhaltender Oszillatoren, in Gegenwart einer Wechselwirkung, danach zu streben, ihre Rhythmen anzupassen. In dieser Arbeit betrachten wir komplexe Synchronisationszustände sowohl mit Hilfe analytischer Methoden als auch durch numerische Simulation und in experimentellen Daten. Unser Untersuchungsobjekt sind die sogenannten Chimera Zustände, in welchen sich Ensemble von gekoppelten, identischen Oszillatoren auf Grund eines Symmetriebruches spontan in Gruppen mit unterschiedlicher Dynamik aufteilen. Die Entdeckung von Chimeras in zunächst nichtlokal gekoppelten Systemen hat in den letzten zehn Jahren ein großes Interesse an neuartigen Synchronisationsphänomenen geweckt. Neueste Forschungsergebnisse belegen, dass diese Zustände unter bestimmten Bedingungen auch in global gekoppelten Systemen existieren können. Solche Bedingungen werden im ersten Teil der Arbeit in Ensemblen global gekoppelter Oszillatoren mit zusätzlicher, zeitverzögerter Selbstkopplung untersucht. Wir zeigen, wie zunächst monostabile Oszillatoren in Gegenwart von dem Treiben der globalen Kopplung effektiv bistabil werden, und sich so in zwei Gruppen organisieren. Das mittlere Feld, welches durch diese Gruppen aufgebaut wird, ist quasiperiodisch wodurch der Chimera Zustand sich selbst stabilisiert. In einem anderen Beispiel zeigen wir, dass der Chimera Zustand auch durch einen frequenzabhängigen Phasenunterschied in der globalen Kopplung erreicht werden kann. Zur genaueren Untersuchung der Mechanismen, die zur effektiven Bistabilität führen, betrachten wir im zweiten Teil der Arbeit den Einfluss einer externen periodischen Kraft auf einzelne Oszillatoren mit zeitverzögerter Selbstkopplung. Wir führen die Stabilitätanalyse des synchronen Zustands durch, und stellen die Arnoldzunge dar. Im dritten Teil der Arbeit stellen wir die Ergebnisse einer Synchronisationsanalyse vor, welche in Kooperation mit Wissenschaftlern der Psychologischen Fakultät der Universität Potsdam durchgeführt wurde. In dem Projekt wurde die Auswirkung des Herzrhythmus auf die menschliche Zeitwahrnehmung erforscht. Unsere Aufgabe war es, die experimentellen Daten statistisch zu analysieren. Im Experiment sollten Probanden ein gegebenes Zeitintervall reproduzieren während gleichzeitig ihr Herzschlag aufgezeichnet wurde. Durch eine Phasenanalyse haben wir den Zusammenhang zwischen dem Herzschlag und der Start- bzw. Stoppzeit der zu reproduzierenden Zeitintervalle untersucht. Es stellt sich heraus, dass Herzschläge bei Zeitintervallen über einige Sekunden als Taktgeber dienen können. KW - synchronization KW - phase oscillators KW - chimera state KW - time perception KW - Synchronisation KW - Phasen Oszillatoren KW - chimera Zustände KW - zeitverzögerte Selbstkopplung KW - Synchronisationsanalyse KW - Zeitwahrnehmung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73348 ER - TY - THES A1 - Feld, Christian T1 - Crustal structure of the Eratosthenes Seamount, Cyprus and S. Turkey from an amphibian wide-angle seismic profile T1 - Die Krustenstruktur von dem Eratosthenes Seeberg, Zypern und der Süd-Türkei anhand eines amphibischen seismischen Weitwinkel Profils N2 - In March 2010, the project CoCoCo (incipient COntinent-COntinent COllision) recorded a 650 km long amphibian N-S wide-angle seismic profile, extending from the Eratosthenes Seamount (ESM) across Cyprus and southern Turkey to the Anatolian plateau. The aim of the project is to reveal the impact of the transition from subduction to continent-continent collision of the African plate with the Cyprus-Anatolian plate. A visual quality check, frequency analysis and filtering were applied to the seismic data and reveal a good data quality. Subsequent first break picking, finite-differences ray tracing and inversion of the offshore wide-angle data leads to a first-arrival tomographic model. This model reveals (1) P-wave velocities lower than 6.5 km/s in the crust, (2) a variable crustal thickness of about 28 - 37 km and (3) an upper crustal reflection at 5 km depth beneath the ESM. Two land shots on Turkey, also recorded on Cyprus, airgun shots south of Cyprus and geological and previous seismic investigations provide the information to derive a layered velocity model beneath the Anatolian plateau and for the ophiolite complex on Cyprus. The analysis of the reflections provides evidence for a north-dipping plate subducting beneath Cyprus. The main features of this layered velocity model are (1) an upper and lower crust with large lateral changes of the velocity structure and thickness, (2) a Moho depth of about 38 - 45 km beneath the Anatolian plateau, (3) a shallow north-dipping subducting plate below Cyprus with an increasing dip and (4) a typical ophiolite sequence on Cyprus with a total thickness of about 12 km. The offshore-onshore seismic data complete and improve the information about the velocity structure beneath Cyprus and the deeper part of the offshore tomographic model. Thus, the wide-angle seismic data provide detailed insights into the 2-D geometry and velocity structures of the uplifted and overriding Cyprus-Anatolian plate. Subsequent gravity modelling confirms and extends the crustal P-wave velocity model. The deeper part of the subducting plate is constrained by the gravity data and has a dip angle of ~ 28°. Finally, an integrated analysis of the geophysical and geological information allows a comprehensive interpretation of the crustal structure related to the collision process. N2 - Im März 2010 wurden im Rahmen des "CoCoCo"-Projektes ein 650km langes amphibisches, seismisches Weitwinkel Profil aufgenommen. Dieses erstreckte sich von dem Eratosthenes Seeberg (ESM) über Zypern und der Süd-Türkei bis zum anatolischen Plateau. Das Hauptziel des Projektes ist es, den Einfluss zu untersuchen, der von dem Übergang eines Subduktion Prozesses hin zu einer Kontinent-Kontinent Kollision der afrikanischen Platte mit der zyprisch-anatolischen Platte hervorgerufen wird. Die seismischen Daten wurden einer visuelle Qualitätsüberprüfung, Frequenz-Analyse und Filterung unterzogen und zeigten eine gute Qualität. Das darauf folgende Picken der Ersteinstätze, eine Finite-Differenzen Raytracing und eine Inversion der offshore Weitwinkel Daten, führte zu einem Laufzeit Tomographie Model. Das Modell zeigt (1) P-Wellengeschwindigkeiten kleiner als 6.5 km/s in der Kruste, (2) eine variable Krustenmächtigkeit von 28 - 37 km und (3) eine obere Krustenreflektion in 5 km Tiefe unter dem ESM. Zwei Landschüsse in der Türkei, ebenfalls aufgenommen auf Zypern, Luftkanonen-Schüsse südlich von Zypern und vorausgegangene geologische und seismische Untersuchungen lieferten die Grundlage, um ein geschichtetes Geschwindigkeitsmodell für das anatolische Plateau und für den Ophiolith-Komplex auf Zypern abzuleiten. Die Analyse der Reflexionen liefert den Beweis für eine nach Norden einfallende Platte welche unter Zypern subduziert. Die Hauptkennzeichen dieses geschichteten Geschwindigkeitsmodelles sind (1) eine obere und untere Kruste mit starken lateral Änderungen in Geschwindigkeit und Mächtigkeit, (2) eine Mohotiefe in 38 - 45 km unter dem anatolischen Plateau, (3) eine flach nach Norden einfallende Platte unter Zypern mit ansteigendem Einfallwinkel und (4) eine typische Ophiolith Sequenz auf Zypern mit einer Gesamtmächtigkeit von 12 km. Die seismischen offshore / onshore Daten komplettieren und verbessern die bisherigen Kenntnisse über die Geschwindigkeitsstruktur unter Zypern und des tieferen Bereiches der offshore Tomographie. Damit liefert die Weitwinkel Seismik detaillierte Einblicke in die 2-D Geometrie und die Geschwindigkeitsstrukturen der angehobenen und überlagerten zyprisch-anatolischen Platte. Die darauf folgende Gravimetrie Modellierung bestätigt und erweitert das P-Wellen Krusten-Geschwindigkeits Modell. Der tiefere Teil der subduzierten Platte, welche einen Einfallswinkel von ~ 28° hat, wurde durch die Gravimetrie Daten belegt. Letztlich erlaubt eine ganzheitliche Analyse von geophysikalischen und geologischen Informationen die umfassende Interpretation der Krustenstruktur welche in Verbindung mit dem Kollisions Prozess steht. KW - incipient continent-continent collision KW - crustal structure of the Eratosthenes Seamount KW - controlled source wide angle seismic KW - crustal structure of south central Turkey KW - Cyprus arc KW - aktive Weitewinkel-Seismik KW - Krustenstruktur des Eratosthenes Seeberges KW - beginnende Kontinent-Kontinent Kollision KW - Krustenstruktur der Süd-Türkei KW - Zypernbogen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73479 ER - TY - THES A1 - Schulz, Anneli T1 - Search for gamma-ray emission from bow shocks of runaway stars T1 - Suche nach Gammastrahlungsemission aus Bugwellen von Schnellläufersternen N2 - The mystery of the origin of cosmic rays has been tackled for more than hundred years and is still not solved. Cosmic rays are detected with energies spanning more than 10 orders of magnitude and reaching energies up to ~10²¹ eV, far higher than any man-made accelerator can reach. Different theories on the astrophysical objects and processes creating such highly energetic particles have been proposed. A very prominent explanation for a process producing highly energetic particles is shock acceleration. The observation of high-energy gamma rays from supernova remnants, some of them revealing a shell like structure, is clear evidence that particles are accelerated to ultrarelativistic energies in the shocks of these objects. The environments of supernova remnants are complex and challenge detailed modelling of the processes leading to high-energy gamma-ray emission. The study of shock acceleration at bow shocks, created by the supersonic movement of individual stars through the interstellar medium, offers a unique possibility to determine the physical properties of shocks in a less complex environment. The shocked medium is heated by the stellar and the shock excited radiation, leading to thermal infrared emission. 28 bow shocks have been discovered through their infrared emission. Nonthermal radiation in radio and X-ray wavelengths has been detected from two bow shocks, pointing to the existence of relativistic particles in these systems. Theoretical models of the emission processes predict high-energy and very high-energy emission at a flux level in reach of current instruments. This work presents the search for gamma-ray emission from bow shocks of runaway stars in the energy regime from 100MeV to ~100TeV. The search is performed with the large area telescope (LAT) on-board the Fermi satellite and the H.E.S.S. telescopes located in the Khomas Highland in Namibia. The Fermi-LAT was launched in 2008 and is continuously scanning the sky since then. It detects photons with energies from 20MeV to over 300 GeV and has an unprecedented sensitivity. The all-sky coverage allows us to study all 28 bow shocks of runaway stars listed in the E-BOSS catalogue of infrared bow shocks. No significant emission was detected from any of the objects, although predicted by several theoretical models describing the non-thermal emission of bow shocks of runaway stars. The H.E.S.S. experiment is the most sensitive system of imaging atmospheric Cherenkov telescopes. It detects photons from several tens of GeV to ~100TeV. Seven of the bow shocks have been observed with H.E.S.S. and the data analysis is presented in this thesis. The analyses of the very-high energy data did not reveal significant emission from any of the sources either. This work presents the first systematic search for gamma-ray emission from bow shocks of runaway stars. For the first time Fermi-LAT data was specifically analysed to reveal emission from bow shocks of runaway stars. In the TeV regime no searches for emission from theses objects have been published so far, the study presented here is the first in this energy regime. The level of the gamma-ray emission from bow shocks of runaway stars is constrained by the calculated upper limits over six orders in magnitude in energy. The upper limits calculated for the bow shocks of runaway stars in the course of this work, constrain several models. For the best candidate, ζ Ophiuchi, the upper limits in the Fermi-LAT energy range are lower than the predictions by a factor ~5. This challenges the assumptions made in this model and gives valuable input for further modelling approaches. The analyses were performed with the software packages provided by the H.E.S.S. and Fermi collaborations. The development of a unified analysis framework for gamma-ray data, namely GammaLib/ctools, is rapidly progressing within the CTA consortium. Recent implementations and cross-checks with current software frameworks are presented in the Appendix. N2 - Das Rätsel des Ursprungs der kosmischen Strahlung wird seit über 100 Jahren angegangen und ist noch immer nicht gelöst. Kosmische Strahlung wird mit Energien die zehn Größenordnungen überspannen gemessen und erreicht Energien bis zu ~10²¹ eV, weit höher als irgendein menschengemachter Beschleuniger erzeugen kann. Verschiedene Theorien über die astrophysikalischen Objekte und Prozesse, die solch hochenergetische Teilchen erzeugen können, wurden vorgeschlagen. Eine prominente Erklärung für einen Prozess, der hochenergetische Teilchen erzeugt ist Schockbeschleunigung. Die Detektion von hochenergetischer Gammastrahlung von Supernovaüberresten, von denen einige schalenförmige Strukturen offenbarten, ist ein klarer Beweis für die Beschleunigung von Teilchen zu ultrarelativistischen Energien in den Schocks dieser Objekte. Die Umgebung von Supernovaüberresten ist komplex und das detaillierte Modellieren der Prozesse die zu hochenergetischer Gammastrahlung führen herausfordernd. Die Untersuchung von Schockbeschleunigung an Bugwellen, die durch individuelle Sterne erzeugt werden, die sich mit Überschallgeschwindigkeit durch das interstellare Medium bewegen, bietet die einmalige Gelegenheit die physikalischen Eigenschaften von Schocks in einer weniger komplexen Umgebung zu bestimmen. Das komprimierte ("geschockte") Medium wird durch die Strahlung des Sterns und die durch den Schock angeregte Strahlung erhitzt und sendet infolgedessen thermische Infrarot-Strahlung aus. Nichtthermische Strahlung, die auf die Existenz von relativistischen Teilchen hinweist, wurde von zwei Bugwellen in Radio- und Röntgen-Wellenlängen gemessen. Theoretische Modelle der Strahlungsprozesse sagen hochenergetische und sehr hochenergetische Strahlung auf einem Niveau, welches mit aktuellen Instrumenten gemessen werden kann, voraus. Diese Arbeit präsentiert die Suche nach hochenergetischer Gammastrahung von Bugwellen von Schnellläufersternen in einem Energiebereich von 100MeV bis ~100TeV. Diese Suche wird mit dem "large area telescope"(LAT) an Bord des Fermi Satelliten und den H.E.S.S. Teleskopen, die im Khomas Hochland in Namibia in Betrieb sind, durchgeführt. Der Fermi Satellit wurde 2008 gestartet und das Fermi-LAT durchmustert seitdem kontinuierlich den Himmel. Es detektiert Photonen im Energiebereich von 20MeV bis über 300GeV und hat eine noch nie dagewesene Sensitivität. Die Abdeckung des gesamten Himmels erlaubt es alle 28 Bugwellen von Schnellläufersternen, die im E-BOSS Katalog aufgelistet sind, zu untersuchen. Von keiner der Bugwellen der Schnellläufersterne konnte signifikante Strahlung nachgewiesen werden, obwohl diese von theoretischen Modellen, die die nichtthermische Emission von Bugwellen von Schnellläufersternen beschreiben, vorausgesagt wurde. Das H.E.S.S. Experiment ist das sensitivste System von abbildenden Cherenkovteleskopen. Es kann Photonen mit Energien von einigen zehn GeV bis zu ~100TeV nachweisen. Sieben der Bugwellen von Schnellläufersternen wurden mit H.E.S.S. beobachtet und die Analyse der Daten wird in dieser Arbeit präsentiert. Auch die Analysen der sehr hochenergetischen Strahlung enthüllten keine signifikante Strahlung aus den Bugwellen der Schnellläufersterne. Diese Arbeit stellt die erste systematische Suche nach Gammastrahlung aus Bugwellen von Schnellläufersternen vor. Zum ersten Mal wurden Fermi-LAT Daten speziell zur Suche nach Emission von diesen Objekten analysiert. Im TeV-Energiebereich wurden bisher noch keine Suchen nach Gammastrahlung von Schnellläufersternen publiziert, die hier vorgestellte Studie ist also die erste in diesem Energiebereich. Das Niveau des Gammastrahlungflusses von Schnellläufersternen wird über einen sechs Größenordnungen überspannenden Energiebereich eingeschränkt. Die oberen Grenzen des Gammastrahlungs usses aus Bugwellen von Schnellläufersternen schränken verschiedene Modelle ein. Für den besten Kandidaten, ζ Ophiuchi, liegen die berechneten oberen Grenzen im Fermi-LAT Energiebereich einen Faktor ~5 unter den Vorhersagen. Dies fordert die Annahmen des Modells heraus und liefert wertvolle Bedingungen für weitere Modellierungsansätze. Die präsentierten Analysen wurden mit den Softwarepakten, die von den Fermi und H.E.S.S. Kollaborationen zur Verfügung gestellt werden, durchgeführt. Die Entwicklung einer gemeinsamen Analyseumgebung namens GammaLib/ctools wird im Rahmen des CTA Konsortiums umgesetzt. Neue Implementierungen und Gegenproben zu den momentanen Analyseumgebungen werden im Anhang präsentiert. KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - GammaLib/ctools KW - Bugwellenschocks KW - Schnellläufersterne KW - gamma-ray astronomy KW - Fermi KW - H.E.S.S KW - gammalib/ctools KW - bow shocks KW - runaway stars Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73905 ER - TY - THES A1 - Lindauer, T. Marius T1 - Algorithm selection, scheduling and configuration of Boolean constraint solvers N2 - Boolean constraint solving technology has made tremendous progress over the last decade, leading to industrial-strength solvers, for example, in the areas of answer set programming (ASP), the constraint satisfaction problem (CSP), propositional satisfiability (SAT) and satisfiability of quantified Boolean formulas (QBF). However, in all these areas, there exist multiple solving strategies that work well on different applications; no strategy dominates all other strategies. Therefore, no individual solver shows robust state-of-the-art performance in all kinds of applications. Additionally, the question arises how to choose a well-performing solving strategy for a given application; this is a challenging question even for solver and domain experts. One way to address this issue is the use of portfolio solvers, that is, a set of different solvers or solver configurations. We present three new automatic portfolio methods: (i) automatic construction of parallel portfolio solvers (ACPP) via algorithm configuration,(ii) solving the $NP$-hard problem of finding effective algorithm schedules with Answer Set Programming (aspeed), and (iii) a flexible algorithm selection framework (claspfolio2) allowing for fair comparison of different selection approaches. All three methods show improved performance and robustness in comparison to individual solvers on heterogeneous instance sets from many different applications. Since parallel solvers are important to effectively solve hard problems on parallel computation systems (e.g., multi-core processors), we extend all three approaches to be effectively applicable in parallel settings. We conducted extensive experimental studies different instance sets from ASP, CSP, MAXSAT, Operation Research (OR), SAT and QBF that indicate an improvement in the state-of-the-art solving heterogeneous instance sets. Last but not least, from our experimental studies, we deduce practical advice regarding the question when to apply which of our methods. N2 - Bool'sche Solver Technologie machte enormen Fortschritt im letzten Jahrzehnt, was beispielsweise zu industrie-relevanten Solvern auf der Basis von Antwortmengenprogrammierung (ASP), dem Constraint Satisfcation Problem (CSP), dem Erfüllbarkeitsproblem für aussagenlogische Formeln (SAT) und dem Erfüllbarkeitsproblem für quantifizierte boolesche Formeln (QBF) führte. Allerdings gibt es in all diesen Bereichen verschiedene Lösungsstrategien, welche bei verschiedenen Anwendungen unterschiedlich effizient sind. Dabei gibt es keine einzelne Strategie, die alle anderen Strategien dominiert. Das führt dazu, dass es keinen robusten Solver für das Lösen von allen möglichen Anwendungsprobleme gibt. Die Wahl der richtigen Strategie für eine neue Anwendung ist eine herausforderne Problemstellung selbst für Solver- und Anwendungsexperten. Eine Möglichkeit, um Solver robuster zu machen, sind Portfolio-Ansätze. Wir stellen drei automatisch einsetzbare Portfolio-Ansätze vor: (i) automatische Konstruktion von parallelen Portfolio-Solvern (ACPP) mit Algorithmen-Konfiguration, (ii) das Lösen des $NP$-harten Problems zur Algorithmen-Ablaufplanung (aspeed) mit ASP, und (iii) ein flexibles Algorithmen-Selektionsframework (claspfolio2), was viele Techniken von Algorithmen-Selektion parametrisiert implementiert und eine faire Vergleichbarkeit zwischen Ihnen erlaubt. Alle drei Methoden verbessern die Robustheit des Solvingprozesses für heterogenen Instanzmengen bestehend aus unterschiedlichsten Anwendungsproblemen. Parallele Solver sind zunehmend der Schlüssel zum effektiven Lösen auf multi-core Maschinen. Daher haben wir all unsere Ansätze auch für den Einsatz auf parallelen Architekturen erweitert. Umfangreiche Experimente auf ASP, CSP, MAXSAT, Operation Research (OR), SAT und QBF zeigen, dass der Stand der Technik durch verbesserte Performanz auf heterogenen Instanzmengen verbessert wurde. Auf Grundlage dieser Experimente leiten wir auch Ratschläge ab, in welchen Anwendungsszenarien welches unserer Verfahren angewendet werden sollte. T2 - Algorithmen-Selektion, -Ablaufplanung und -Konfiguration von Bool'schen Constraint Solvern KW - algorithm configuration KW - algorithm scheduling KW - algorithm selection KW - parallel solving KW - Boolean constraint solver KW - Algorithmenselektion KW - Algorithmenablaufplanung KW - Algorithmenkonfiguration KW - paralleles Lösen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71260 ER - TY - THES A1 - Loersch, Christian T1 - Business start-ups and the effect of coaching programs N2 - Entrepreneurship is known to be a main driver of economic growth. Hence, governments have an interest in supporting and promoting entrepreneurial activities. Start-up subsidies, which have been analyzed extensively, only aim at mitigating the lack of financial capital. However, some entrepreneurs also lack in human, social, and managerial capital. One way to address these shortcomings is by subsidizing coaching programs for entrepreneurs. However, theoretical and empirical evidence about business coaching and programs subsidizing coaching is scarce. This dissertation gives an extensive overview of coaching and is the first empirical study for Germany analyzing the effects of coaching programs on its participants. In the theoretical part of the dissertation the process of a business start-up is described and it is discussed how and in which stage of the company’s evolvement coaching can influence entrepreneurial success. The concept of coaching is compared to other non-monetary types of support as training, mentoring, consulting, and counseling. Furthermore, national and international support programs are described. Most programs have either no or small positive effects. However, there is little quantitative evidence in the international literature. In the empirical part of the dissertation the effectiveness of coaching is shown by evaluating two German coaching programs, which support entrepreneurs via publicly subsidized coaching sessions. One of the programs aims at entrepreneurs who have been employed before becoming self-employed, whereas the other program is targeted at former unemployed entrepreneurs. The analysis is based on the evaluation of a quantitative and a qualitative dataset. The qualitative data are gathered by intensive one-on-one interviews with coaches and entrepreneurs. These data give a detailed insight about the coaching topics, duration, process, effectiveness, and the thoughts of coaches and entrepreneurs. The quantitative data include information about 2,936 German-based entrepreneurs. Using propensity score matching, the success of participants of the two coaching programs is compared with adequate groups of non-participants. In contrast to many other studies also personality traits are observed and controlled for in the matching process. The results show that only the program for former unemployed entrepreneurs has small positive effects. Participants have a larger survival probability in self-employment and a larger probability to hire employees than matched non-participants. In contrast, the program for former employed individuals has negative effects. Compared to individuals who did not participate in the coaching program, participants have a lower probability to stay in self-employment, lower earned net income, lower number of employees and lower life satisfaction. There are several reasons for these differing results of the two programs. First, former unemployed individuals have more basic coaching needs than former employed individuals. Coaches can satisfy these basic coaching needs, whereas former employed individuals have more complex business problems, which are not very easy to be solved by a coaching intervention. Second, the analysis reveals that former employed individuals are very successful in general. It is easier to increase the success of former unemployed individuals as they have a lower base level of success than former employed individuals. An effect heterogeneity analysis shows that coaching effectiveness differs by region. Coaching for previously unemployed entrepreneurs is especially useful in regions with bad labor market conditions. In summary, in line with previous literature, it is found that coaching has little effects on the success of entrepreneurs. The previous employment status, the characteristics of the entrepreneur and the regional labor market conditions play a crucial role in the effectiveness of coaching. In conclusion, coaching needs to be well tailored to the individual and applied thoroughly. Therefore, governments should design and provide coaching programs only after due consideration. N2 - Da Unternehmensgründungen für gesamtwirtschaftliches Wachstum wichtig sind, bieten Regierungen verschiedene Fördermöglichkeiten für junge Unternehmen an. Während die Auswirkungen finanzieller Förderprogramme für Gründer schon häufig untersucht wurden, gibt es kaum Studien zu der Wirkungsweise von Coachingprogrammen. Eine Förderung von Coachingmaßnahmen kann sinnvoll sein, da es Gründern meist nicht nur an finanziellen Mitteln, sondern auch an Problemlösungskompetenz mangelt. Diese Dissertation ist die erste Forschungsarbeit, die einen umfassenden Überblick über das Thema Coaching gibt und erste empirische Ergebnisse für Deutschland liefert. Im theoretischen Teil der Arbeit werden die verschiedenen Phasen eines Unternehmens beschrieben und erläutert in welcher dieser Phasen Coaching am sinnvollsten ist. Außerdem wird das Konzept des Coachings mit anderen Methoden wie Training, Mentoring, Consulting und Counseling verglichen. Ein Überblick von nationalen und internationalen Förderprogrammen zeigt, dass die meisten Programme keine oder nur geringe positive Auswirkungen haben. Insgesamt gibt es jedoch nur sehr wenige quantitative Studien in diesem Bereich. Im empirischen Teil werden zwei deutsche Coachingprogramme evaluiert. Eines der Programme ist auf Gründer ausgerichtet, die unmittelbar vor ihrer Gründung einer abhängigen Beschäftigung nachgegangen sind, während das andere Programm vormals arbeitslose Gründer adressiert. Die empirische Analyse verwendet sowohl qualitative als auch quantitative Daten. Die qualitativen Daten wurden durch persönliche Interviews mit Coaches und Gründern erhoben. Anhand dieser Daten wird ein sehr detailliertes Bild der Coachingprozesse gezeichnet. Die quantitativen Daten wurden durch 2.936 Telefoninterviews mit in Deutschland tätigen Gründern generiert. Anhand eines „Propensity Score Matching“ Ansatzes wird der Erfolg von Programmteilnehmern und Nichtteilnehmern verglichen. Bei dieser Analyse werden auch Merkmale - insbesondere Persönlichkeitseigenschaften - berücksichtigt, die in vielen anderen Studien nicht beobachtet werden können. Es wird gezeigt, dass lediglich das Programm für vormals arbeitslose Gründer leicht positive Effekte aufweist. Gründer, die an diesem Coachingprogramm teilgenommen haben, haben eine höhere Wahrscheinlichkeit selbstständig zu bleiben und Mitarbeiter einzustellen als Gründer, die nicht an dem Coachingprogramm teilgenommen haben. Das Programm für vormals abhängig beschäftigte Gründer hingegen hat negative Effekte. Verglichen mit Gründern, die nicht an dem Programm teilgenommen haben, haben Coachingteilnehmer eine geringere Wahrscheinlichkeit selbstständig zu bleiben, ein geringeres Nettoerwerbseinkommen, weniger Mitarbeiter und sind nicht so zufrieden mit ihrem Leben. Für diese sehr unterschiedlichen Ergebnisse der beiden Programme gibt es mehrere Gründe. Grundsätzlich haben vormals arbeitslose Gründer einfachere Coachingbedarfe als vormals beschäftigte Gründer. Diese einfacheren Probleme in der Anfangsphase der Unternehmung sind durch ein Coaching zu lösen, wohingegen die ohnehin recht erfolgreichen Entrepreneure, die vorher nicht arbeitslos waren, komplexere Coachingbedarfe haben. Angesichts dieser schwieriger zu lösenden unternehmerischen Probleme von vormals beschäftigten Programmteilnehmern und des höheren ursprünglichen Erfolgslevels hat das Programm für vormals arbeitslose Gründer bessere Auswirkungen als das Programm für vormals beschäftigte Gründer. Nur vormals arbeitslose Gründer können ihre – noch geringer ausgeprägten – unternehmerischen Fähigkeiten durch die Teilnahme am Coaching verbessern, so dass hier leicht positive Programmeffekte entstehen. Die ausführliche Effektheterogenitätsanalyse zeigt, dass Coaching für vormals arbeitslose Gründer insbesondere in Regionen mit schlechter Arbeitsmarktlage sinnvoll ist. Zusammenfassend zeigt die Dissertation, dass Coaching nur geringe Auswirkungen auf den Erfolg von Gründern hat. Die Wirksamkeit hängt insbesondere von dem vorigen Beschäftigungsstatus, den persönlichen Eigenschaften des Gründers und der regionalen Arbeitsmarktlage ab. Die Dissertation zeigt somit, dass Coaching zur Unterstützung Selbstständiger nur seine Wirkung entfaltet, wenn es sehr gezielt eingesetzt wird. Staatliche Programme in diesem Bereich sollten deshalb vor Einführung ausführlich diskutiert werden, so dass ein Programmdesign entsteht, welches seine Wirkung nicht verfehlt. T2 - Unternehmensgründungen und der Effekt von Coachingprogrammen KW - coaching KW - business start‐up KW - self-­employed KW - entrepreneur KW - program effect KW - propensity score matching KW - labor market policy KW - policy evaluation KW - impact analysis KW - subsidy KW - Coaching KW - Unternehmensgründung KW - Selbstständige KW - Entrepreneur KW - Programmeffekt KW - Propensity Score Matching KW - Arbeitsmarktpolitik KW - Politik Evaluation KW - Wirkungsanalyse KW - Subvention Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72605 ER - TY - THES A1 - Munack, Henry T1 - From phantom blocks to denudational noise BT - downwearing of the Himalaya-Tibet orogen from a multi-scale perspective BT - die Abtragung des Himalaya-Tibet Orogens aus multiskaliger Perspektive N2 - Knowing the rates and mechanisms of geomorphic process that shape the Earth’s surface is crucial to understand landscape evolution. Modern methods for estimating denudation rates enable us to quantitatively express and compare processes of landscape downwearing that can be traced through time and space—from the seemingly intact, though intensely shattered, phantom blocks of the catastrophically fragmented basal facies of giant rockslides up to denudational noise in orogen-wide data sets averaging over several millennia. This great variety of spatiotemporal scales of denudation rates is both boon and bane of geomorphic process rates. Indeed, processes of landscape downwearing can be traced far back in time, helping us to understand the Earth’s evolution. Yet, this benefit may turn into a drawback due to scaling issues if these rates are to be compared across different observation timescales. This thesis investigates the mechanisms, patterns and rates of landscape downwearing across the Himalaya-Tibet orogen. Accounting for the spatiotemporal variability of denudation processes, this thesis addresses landscape downwearing on three distinctly different spatial scales, starting off at the local scale of individual hillslopes where considerable amounts of debris are generated from rock instantaneously: Rocksliding in active mountains is a major impetus of landscape downwearing. Study I provides a systematic overview of the internal sedimentology of giant rockslide deposits and thus meets the challenge of distinguishing them from macroscopically and microscopically similar glacial deposits, tectonic fault-zone breccias, and impact breccias. This distinction is important to avoid erroneous or misleading deduction of paleoclimatic or tectonic implications. -> Grain size analysis shows that rockslide-derived micro-breccia closely resemble those from meteorite impact or tectonic faults. -> Frictionite may occur more frequently that previously assumed. -> Mössbauer-spectroscopy derived results indicate basal rock melting in the absence of water, involving short-term temperatures of >1500°C. Zooming out, Study II tracks the fate of these sediments, using the example of the upper Indus River, NW India. There we use river sand samples from the Indus and its tributaries to estimate basin-averaged denudation rates along a ~320-km reach across the Tibetan Plateau margin, to answer the question whether incision into the western Tibetan Plateau margin is currently active or not. -> We find an about one-order-of-magnitude upstream decay—from 110 to 10 mm kyr^-1—of cosmogenic Be-10-derived basin-wide denudation rates across the morphological knickpoint that marks the transition from the Transhimalayan ranges to the Tibetan Plateau. This trend is corroborated by independent bulk petrographic and heavy mineral analysis of the same samples. -> From the observation that tributary-derived basin-wide denudation rates do not increase markedly until ~150–200 km downstream of the topographic plateau margin we conclude that incision into the Tibetan Plateau is inactive. -> Comparing our postglacial Be-10-derived denudation rates to long-term (>10^6 yr) estimates from low-temperature thermochronometry, ranging from 100 to 750 mm kyr^-1, points to an order- of-magnitude decay of rates of landscape downwearing towards present. We infer that denudation rates must have been higher in the Quaternary, probably promoted by the interplay of glacial and interglacial stages. Our investigation of regional denudation patterns in the upper Indus finally is an integral part of Study III that synthesizes denudation of the Himalaya-Tibet orogen. In order to identify general and time-invariant predictors for Be-10-derived denudation rates we analyze tectonic, climatic and topographic metrics from an inventory of 297 drainage basins from various parts of the orogen. Aiming to get insight to the full response distributions of denudation rate to tectonic, climatic and topographic candidate predictors, we apply quantile regression instead of ordinary least squares regression, which has been standard analysis tool in previous studies that looked for denudation rate predictors. -> We use principal component analysis to reduce our set of 26 candidate predictors, ending up with just three out of these: Aridity Index, topographic steepness index, and precipitation of the coldest quarter of the year. -> Topographic steepness index proves to perform best during additive quantile regression. Our consequent prediction of denudation rates on the basin scale involves prediction errors that remain between 5 and 10 mm kyr^-1. -> We conclude that while topographic metrics such as river-channel steepness and slope gradient—being representative on timescales that our cosmogenic Be-10-derived denudation rates integrate over—generally appear to be more suited as predictors than climatic and tectonic metrics based on decadal records. N2 - Die Kenntnis von Raten und Mechanismen geomorphologischer Prozesse, die die Erdoberfläche gestalten, ist entscheidend für das Verständnis von quartärer Landschaftsgeschichte. Denudationsraten sind dabei das Mittel zur Quantifizierung und zum Vergleich von Oberflächenabtrag; hinweg über zeitliche und räumliche Größenordnungen – von den optisch unversehrten, jedoch durchgehend zerrütteten “Phantom Blocks” der basalen Fazies katastrophaler Bergstürze bis hin zum “Denudational Noise”, dem durchaus informativen Rauschen in Datensätzen, die über ganze Orogene und tausende Jahre von Landschaftsgeschichte integrieren. Diese große räumlich-zeitliche Variabilität von Denudationsprozessen ist Chance und Herausforderung zugleich. Zum einen können Denudationsprozesse weit in der Zeit zurückverfolgt werden, was hilft, Landschaftsgeschichte nachzuvollziehen. Andererseits hat es sich gezeigt, dass geomorphologische Prozessraten mit dem Zeitraum ihrer Beobachtung skalieren, was einen Vergleich über zeitliche Größenordnungen hinweg erschwert. Diese Dissertation untersucht in drei Studien die Mechanismen, Muster und Raten von Denudation im Himalaja-Tibet Orogen. Der räumlichen (und zeitlichen) Variabilität von Denudationsprozessen folgend beginnt diese Arbeit dort, wo bedeutende Mengen von Festgestein schlagartig in erodierbaren Schutt umgewandelt werden: Bergstürze sind ein Hauptantrieb der Abtragung von aktiven Gebirgen. Studie I systematisiert die interne Sedimentologie gigantischer Bergsturzablagerungen. Sie adressiert damit Herausforderungen durch die makro- und mikroskopische Ähnlichkeit von Bergsturzablagerungen mit glazialen Ablagerungen, tektonischen Störungsbrekkzien und Impaktbrekkzien. Ziel einer solchen Systematisierung ist die Vermeidung fehlerhafter paläoklimatischer oder -tektonischer Interpretationen. -> Bergsturzbrekkzien sind auf mikroskopischer Ebene nicht von tektonischen oder Impaktbrekkzien unterscheidbar. -> Friktionit könnte weit häufiger vorkommen, als bisher angenommen. -> Mössbauer-Spektroskopie deutet auf Temperaturen ≥ 1500° C sowie die Abwesenheit von Wasser als Schmiermittel hin. Auf der mesoskaligen Ebene von Einzugsgebieten verfolgt Studie II, am Beispiel des oberen Indus in NW Indien den Weg dieser Sedimente, denn sie geben Auskunft über beckenweite Denudationsraten, sowie Pfade und Muster des Sedimenttransports am westlichen Tibetplateaurand. Diese Informationen sollen helfen, die Mechanismen der Einschneidung großer Flüsse in das Tibetplateau, sowie den gegenwärtigen erosionalen Status des Plateaurandes zu verstehen. -> Die beckenweiten Denudationsraten in den Tributären des Indus nehmen stromabwärts – und damit über den morphologischen Tibetplateaurand hinweg – von 10 auf 110 mm kyr^-1 zu. Dieser Trend wird durch unabhängige Petrographie- und Schwermineralanalysen aus denselben Proben nachgezeichnet. -> Es zeigt sich allerdings, dass der morphologische Plateaurand und der hierfür erwartbare Anstieg der Denudationsraten um ~150–200 km versetzt sind. Hieraus schließen wir, dass der westliche Rand des Tibetischen Plateaus rezent nicht maßgeblich erodiert wird. -> Ein Vergleich unserer postglazialen Denudationsraten von kosmogenem Be-10 mit Langzeit- (>10^6 yr)-Thermochronometriedaten von 100 bis 750 mm kyr^-1 deutet auf einen spätquartären Rückgang von Denudationsraten im Transhimalaya hin. Folglich muss es früher während des Quartärs Zeiten höherer erosionaler Effizienz gegeben haben. Studie III fokussiert schließlich, in einer Analyse beckenweiter Be-10-Denudationsraten, auf Denudationsmuster und -mechanismen für das gesamte Himalaja-Tibet Orogen. Auf der Suche nach zeit-invarianten tektonischen, klimatischen oder topographischen Prädiktoren für Denudationsraten wird ein Datensatz von 297 orogenweit verteilten Einzugsgebieten untersucht. Um Einblicke in die gesamte Response-Verteilung zwischen Denudationsrate und Prädiktor zu erhalten nutzen wir – anstelle der in diesem Zusammenhang vielbenutzten Methode der kleinsten Quadrate – Quantil-Regression. -> Dafür reduzieren wir einen Satz von 26 möglichen Prädiktoren, unter Nutzung der Hauptkomponentenanalyse, auf drei Prädiktoren: Ariditätsindex, topographischer Steilheitsindex und Niederschlag des kältesten Quartals. -> Die additive Quantil-Regression dieser drei Prädiktoren zeigt, dass der Steilheitsindex die besten Ergebnisse im Sinne einer zeit-invarianten Beziehung zwischen Denudationsrate und Prädiktoren liefert. -> Zusammenfassend zeigt sich, dass topographisch basierte Prädiktoren geeigneter für die Vorhersage von kosmogenen beckenweiten Denudationsraten sind als klimatische oder tektonische Prädiktoren. Wir erklären dieses Resultat mit den jeweils über Jahrtausende integrierenden Maßzahlen für Topographie und kosmogenen Denudationsraten, und der daraus folgenden Inkompatibilität der kosmogenen Denudationsraten mit den tektonischen und klimatischen Prädiktoren, die lediglich auf Jahrzehnten von Messungen beruhen. T2 - Von Phantomblöcken zu Denudationsrauschen KW - geomorphology KW - quaternary KW - denudation KW - Himalaya-Tibet orogen KW - cosmogenic nuclides KW - rockslide KW - Geomorphologie KW - Quartär KW - Denudation KW - Himalaya-Tibet Orogen KW - kosmogene Nuklide KW - Bergsturz Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72629 ER - TY - THES A1 - Albrecht, Steve T1 - Generation, recombination and extraction of charges in polymer T1 - Generierung, Rekombination und Extraktion von Ladungen in Polymer BT - fullerene bulk heterojunction solar cells BT - Fulleren Mischsolarzellen N2 - A dramatic efficiency improvement of bulk heterojunction solar cells based on electron-donating conjugated polymers in combination with soluble fullerene derivatives has been achieved over the past years. Certified and reported power conversion efficiencies now reach over 9% for single junctions and exceed the 10% benchmark for tandem solar cells. This trend brightens the vision of organic photovoltaics becoming competitive with inorganic solar cells including the realization of low-cost and large-area organic photovoltaics. For the best performing organic materials systems, the yield of charge generation can be very efficient. However, a detailed understanding of the free charge carrier generation mechanisms at the donor acceptor interface and the energy loss associated with it needs to be established. Moreover, organic solar cells are limited by the competition between charge extraction and free charge recombination, accounting for further efficiency losses. A conclusive picture and the development of precise methodologies for investigating the fundamental processes in organic solar cells are crucial for future material design, efficiency optimization, and the implementation of organic solar cells into commercial products. In order to advance the development of organic photovoltaics, my thesis focuses on the comprehensive understanding of charge generation, recombination and extraction in organic bulk heterojunction solar cells summarized in 6 chapters on the cumulative basis of 7 individual publications. The general motivation guiding this work was the realization of an efficient hybrid inorganic/organic tandem solar cell with sub-cells made from amorphous hydrogenated silicon and organic bulk heterojunctions. To realize this project aim, the focus was directed to the low band-gap copolymer PCPDTBT and its derivatives, resulting in the examination of the charge carrier dynamics in PCPDTBT:PC70BM blends in relation to by the blend morphology. The phase separation in this blend can be controlled by the processing additive diiodooctane, enhancing domain purity and size. The quantitative investigation of the free charge formation was realized by utilizing and improving the time delayed collection field technique. Interestingly, a pronounced field dependence of the free carrier generation for all blends is found, with the field dependence being stronger without the additive. Also, the bimolecular recombination coefficient for both blends is rather high and increases with decreasing internal field which we suggest to be caused by a negative field dependence of mobility. The additive speeds up charge extraction which is rationalized by the threefold increase in mobility. By fluorine attachment within the electron deficient subunit of PCPDTBT, a new polymer F-PCPDTBT is designed. This new material is characterized by a stronger tendency to aggregate as compared to non-fluorinated PCPDTBT. Our measurements show that for F-PCPDTBT:PCBM blends the charge carrier generation becomes more efficient and the field-dependence of free charge carrier generation is weakened. The stronger tendency to aggregate induced by the fluorination also leads to increased polymer rich domains, accompanied in a threefold reduction in the non-geminate recombination coefficient at conditions of open circuit. The size of the polymer domains is nicely correlated to the field-dependence of charge generation and the Langevin reduction factor, which highlights the importance of the domain size and domain purity for efficient charge carrier generation. In total, fluorination of PCPDTBT causes the PCE to increase from 3.6 to 6.1% due to enhanced fill factor, short circuit current and open circuit voltage. Further optimization of the blend ratio, active layer thickness, and polymer molecular weight resulted in 6.6% efficiency for F-PCPDTBT:PC70BM solar cells. Interestingly, the double fluorinated version 2F-PCPDTBT exhibited poorer FF despite a further reduction of geminate and non-geminate recombination losses. To further analyze this finding, a new technique is developed that measures the effective extraction mobility under charge carrier densities and electrical fields comparable to solar cell operation conditions. This method involves the bias enhanced charge extraction technique. With the knowledge of the carrier density under different electrical field and illumination conditions, a conclusive picture of the changes in charge carrier dynamics leading to differences in the fill factor upon fluorination of PCPDTBT is attained. The more efficient charge generation and reduced recombination with fluorination is counterbalanced by a decreased extraction mobility. Thus, the highest fill factor of 60% and efficiency of 6.6% is reached for F-PCPDTBT blends, while 2F-PCPDTBT blends have only moderate fill factors of 54% caused by the lower effective extraction mobility, limiting the efficiency to 6.5%. To understand the details of the charge generation mechanism and the related losses, we evaluated the yield and field-dependence of free charge generation using time delayed collection field in combination with sensitive measurements of the external quantum efficiency and absorption coefficients for a variety of blends. Importantly, both the yield and field-dependence of free charge generation is found to be unaffected by excitation energy, including direct charge transfer excitation below the optical band gap. To access the non-detectable absorption at energies of the relaxed charge transfer emission, the absorption was reconstructed from the CT emission, induced via the recombination of thermalized charges in electroluminescence. For a variety of blends, the quantum yield at energies of charge transfer emission was identical to excitations with energies well above the optical band-gap. Thus, the generation proceeds via the split-up of the thermalized charge transfer states in working solar cells. Further measurements were conducted on blends with fine-tuned energy levels and similar blend morphologies by using different fullerene derivatives. A direct correlation between the efficiency of free carrier generation and the energy difference of the relaxed charge transfer state relative to the energy of the charge separated state is found. These findings open up new guidelines for future material design as new high efficiency materials require a minimum energetic offset between charge transfer and the charge separated state while keeping the HOMO level (and LUMO level) difference between donor and acceptor as small as possible. N2 - Die Effizienz von organischen Mischsolarzellen ist in den letzten Jahren durch die Entwicklung neuer halbleitender Materialen beträchtlich gestiegen. Die besten organischen Mischsolarzellen zeigen heute sehr effiziente Ladungsgeneration. Dennoch ist die genaue Funktionsweise der fundamentalen Ladungsgenerationsschritte nicht bis ins Detail verstanden. Zur weiteren Steigerung der Wirkungsgrade und für die kommerzielle Nutzung organischer Mischsolarzellen, sind ein übergreifendes Verständnis der Funktionsweise und die Entwicklung neuer Messmethoden unumgänglich. Die vorliegende Arbeit ist auf diese Fragestellung fokussiert: die Arbeit soll helfen, fundierte Kenntnisse der Ladungsträgererzeugung, der Rekombination und der Extraktion freier Ladungsträger in organischen Mischsolarzellen zu erlangen. Zuerst wurde der Fokus auf Mischsolarzellen mit dem Polymer PCPDTBT gelegt. Dieses Polymer durchmischt stark mit dem Fulleren-Derivat PCBM. Durch Verwendung eines Lösungsmitteladditives kann die Phasenentmischung und damit der Wirkungsgrad deutlich gesteigert werden. Die Generations- und Rekombinationsprozesse wurden mittels zeitverzögerter Sammelfeld-Methode untersucht. Dabei wurde zum ersten Mal eine signifikante Feldabhängigkeit der Ladungsträger-erzeugung entdeckt. Interessanterweise korreliert diese Feldabhängigkeit mit der Domänengröße also dem Grad der Entmischung. In größeren und reineren Polymerphasen ist die Feldabhängigkeit kleiner und die Extraktion verbessert, was zum höheren Wirkungsgrad führt. In einem weiteren Schritt wurde untersucht, wie sich die Fluorinierung des Polymers PCPDTBT auf das Bauteilverhalten auswirkt. Durch Fluorinierung des Polymer-Rückgrats von PCPDTBT wurden zum einen die Energieniveaus abgesenkt, ohne dass sich das Absorptionsverhalten geändert hat. Zum anderen wurde die Phasenentmischung beeinflusst. Mit Fluorinierung entstehen größere, reinere und kristallinere Polymerphasen. Dadurch wird die Generation der Ladungsträger effizienter und die Rekombination stärker unterdrückt. Eindeutige Korrelationen zwischen Phasengröße und Generationseffizienz konnten hierbei gefunden werden. Insgesamt steigt die Bauteileffizienz bei Verwendung von fluoriniertem PCPDTBT von 3.6 auf 6.1% bei gleicher Prozessierung. Durch weitere Optimierung konnte die Effizienz auf 6.6% für fluoriniertes PCPDTBT gesteigert werden. Eine di-Fluorinierung von PCPDTBT limitiert die Bauteileffizienz, speziell den Füll Faktor, trotz der Entstehung noch reinerer Polymerphasen. Eine genauere Analyse der Extraktionseffizienz mittels der genauen Bestimmung der Gleichgewichts-Ladungsträgerdichte für verschiedenen Beleuchtungs- und Feldsituationen zeigte, dass die Fluorinierung die Effizienz der Extraktion deutlich absenkt und dadurch bei di-Fluorinierung die Rekombinationsverluste im Bauteil trotz verlangsamter Rekombination ansteigen. Um weitere fundierte Kenntnisse der Ladungsgeneration zu gewinnen, wurde die Ladungsgeneration für verschiedene Gemische mit veränderten Energieniveaus in Abhängigkeit der Anregungsenergie untersucht. Dabei wurde die wichtige Kenntnis erlangt, dass die Photonenenergie, unabhängig von der Lage der Energieniveaus, keinen Einfluss auf die Effizienz der Generation hat und somit die Bildung freier Ladungsträger aus relaxierten Transferzuständen erfolgt. Dadurch ergeben sich neue Leitlinien für zukünftige Materialeigenschaften mit optimierten Wirkungsgraden. KW - organic solar cells KW - bulk heterojunction KW - charge carrier dynamics KW - charge generation KW - non geminate recombination KW - Generierung von Ladungsträgern KW - nicht geminale Rekombination KW - Extraktion KW - Polymer KW - Fulleren Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72285 ER - TY - THES A1 - Mauri, Marco T1 - A model for sigma factor competition in bacterial cells N2 - Bacteria respond to changing environmental conditions by switching the global pattern of expressed genes. In response to specific environmental stresses the cell activates several stress-specific molecules such as sigma factors. They reversibly bind the RNA polymerase to form the so-called holoenzyme and direct it towards the appropriate stress response genes. In exponentially growing E. coli cells, the majority of the transcriptional activity is carried out by the housekeeping sigma factor, while stress responses are often under the control of alternative sigma factors. Different sigma factors compete for binding to a limited pool of RNA polymerase (RNAP) core enzymes, providing a mechanism for cross talk between genes or gene classes via the sharing of expression machinery. To quantitatively analyze the contribution of sigma factor competition to global changes in gene expression, we develop a thermodynamic model that describes binding between sigma factors and core RNAP at equilibrium, transcription, non-specific binding to DNA and the modulation of the availability of the molecular components. Association of housekeeping sigma factor to RNAP is generally favored by its abundance and higher binding affinity to the core. In order to promote transcription by alternative sigma subunits, the bacterial cell modulates the transcriptional efficiency in a reversible manner through several strategies such as anti-sigma factors, 6S RNA and generally any kind of transcriptional regulators (e.g. activators or inhibitors). By shifting the outcome of sigma factor competition for the core, these modulators bias the transcriptional program of the cell. The model is validated by comparison with in vitro competition experiments, with which excellent agreement is found. We observe that transcription is affected via the modulation of the concentrations of the different types of holoenzymes, so saturated promoters are only weakly affected by sigma factor competition. However, in case of overlapping promoters or promoters recognized by two types of sigma factors, we find that even saturated promoters are strongly affected. Active transcription effectively lowers the affinity between the sigma factor driving it and the core RNAP, resulting in complex cross talk effects and raising the question of how their in vitro measure is relevant in the cell. We also estimate that sigma factor competition is not strongly affected by non-specific binding of core RNAPs, sigma factors, and holoenzymes to DNA. Finally, we analyze the role of increased core RNAP availability upon the shut-down of ribosomal RNA transcription during stringent response. We find that passive up-regulation of alternative sigma-dependent transcription is not only possible, but also displays hypersensitivity based on the sigma factor competition. Our theoretical analysis thus provides support for a significant role of passive control during that global switch of the gene expression program and gives new insights into RNAP partitioning in the cell. N2 - Bakterien reagieren auf Aenderungen in ihren Umgebungsbedingungen indem sie global das Genexpressionsprogramm umschalten. Die Zelle aktiviert, als spezifische Reaktion auf Stressbedingungen, mehrere charakteristische Molekuele wie zum Beispiel die Sigmafaktoren. Diese binden reversibel an die RNA Polymerase (RNAP), mit der sie einen Komplex bilden das sogenannte Holoenzym und steuern sie als Reaktion auf den Stress zu den entsprechenden Genen. In exponentiell wachsenden E. Coli Zellen wird das Meiste der Transkription von einem sogenannten Haushaltssigmafaktor organisiert. Wohingegen Stressreaktionen haeufig von alternativen Sigmafaktoren kontrolliert werden. Die verschiedenen Sigmafaktoren konkurrieren um einen begrenzten Pool von RNAP Coreenzymen, womit die Expression einzelner Gene oder Genklassen beeinflusst wird, da sie sich die Maschienerie teilen. Um den Beitrag der Sigmafaktorkonkurrenz an der gesamten Veraenderung der Genexpression quantitativ zu analysieren, haben wir ein theoretisches Modell entwickelt, welches das Binden von Sigmafaktoren mit RNAP Coreenzymen im gleichgewicht, die Transkription, das nichtspezifische Binden an die DNA sowie die Modulation verfuegbarer molekularer Komponenten beschreibt. Normalerweise wird die Assoziation des Haushaltssigmafaktors mit dem RNAP Coreenzym beguenstigt durch dessen grosse Anzahl und die hohe Bindungsaffinitaet. Daher nutzen bakterielle Zellen verschiedene, reversibele Strategien um die Transkription durch alternative Holoenzyme zu foerdern. Dazu gehoeren Anti-Sigmafaktoren, 6S RNA und generell beliebige Transkriptionsregulatoren (z.B.: Aktivatoren oder Repressoren). Sie beeinflussen das Transkriptionsprogramm der Zelle indem sie das Resultat der Sigmafaktorkonkurrenz um die RNAP Coreenzyme zugunsten eines der Sigmafaktoren verschieben. Das Modell kann validiert werden durch Vergleiche mit in vitro Konkurrenzexperimenten, die exzellente uebereinstimmung zeigen. Wir koennen feststellen, dass die Transkription durch Konzentrationsaenderungen der verschiedenen Holoenzyme beeinflusst wird, daher ist der Effekt der Sigmafaktorkonkurrenz klein bei saturierten Promotoren. Was sich jedoch aendert bei sich ueberlappenden Promotoren oder Promotoren, die von zwei verschiedenen Sigmafaktoren erkannt werden. In diesen Faellen sehen wir einen grossen Effekt. Transkription fuehrt zu effektiv abgesekten Affinitaet zwischen den zugehoerigen Sigmafaktoren und den RNAP Coreenzymen, was zu komplizierten Verhalten fuehrt und die Frage aufwirft, inwieweit in vitro gemessenen Effekte in der Zelle wiederzufinden sind. Wir koennen den Einfluss nichtspezifischen Bindens der RNAPs, der Sigmafaktoren und der Holoenzyme an die DNA abschaetzen. Als letztes analysieren wir die Konkurrenz waehrend der "Stringent Response". Hierbei wird die Transkription der ribosomalen RNA unterbrochen was die Anzahl der freien RNAP Coreenzyme stark erhoeht. Wir sehen, dass das passive Hochregeln des alternativen sigmafaktorabhaengigen Transkriptionsprogramms durch Sigmafaktorkokurrenz moeglich und sogar hypersensitiv ist. Unsere theoretische Analyse zeigt, dass die passive Kontrolle in diesem Fall eine signifikante Rolle im globalen umschalten des Transkriptionsprogramms spielt und liefert neue Erkenntnisse zur RNAP Partitionierung in der Zelle. T2 - Ein Modell für die Konkurrenz zwischen Sigmafaktoren in Bakterienzellen KW - biophysics KW - systems biology KW - gene regulation KW - stress response KW - Biophysik KW - Systembiologie KW - Genregulation KW - Stressantwort Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72098 ER - TY - THES A1 - Widdrat, Marc T1 - Formation and alteration of magnetite nanoparticles N2 - Magnetite is an iron oxide, which is ubiquitous in rocks and is usually deposited as small nanoparticulate matter among other rock material. It differs from most other iron oxides because it contains divalent and trivalent iron. Consequently, it has a special crystal structure and unique magnetic properties. These properties are used for paleoclimatic reconstructions where naturally occurring magnetite helps understanding former geological ages. Further on, magnetic properties are used in bio- and nanotechnological applications –synthetic magnetite serves as a contrast agent in MRI, is exploited in biosensing, hyperthermia or is used in storage media. Magnetic properties are strongly size-dependent and achieving size control under preferably mild synthesis conditions is of interest in order to obtain particles with required properties. By using a custom-made setup, it was possible to synthesize stable single domain magnetite nanoparticles with the co-precipitation method. Furthermore, it was shown that magnetite formation is temperature-dependent, resulting in larger particles at higher temperatures. However, mechanistic approaches about the details are incomplete. Formation of magnetite from solution was shown to occur from nanoparticulate matter rather than solvated ions. The theoretical framework of such processes has only started to be described, partly due to the lack of kinetic or thermodynamic data. Synthesis of magnetite nanoparticles at different temperatures was performed and the Arrhenius plot was used determine an activation energy for crystal growth of 28.4 kJ mol-1, which led to the conclusion that nanoparticle diffusion is the rate-determining step. Furthermore, a study of the alteration of magnetite particles of different sizes as a function of their storage conditions is presented. The magnetic properties depend not only on particle size but also depend on the structure of the oxide, because magnetite oxidizes to maghemite under environmental conditions. The dynamics of this process have not been well described. Smaller nanoparticles are shown to oxidize more rapidly than larger ones and the lower the storage temperature, the lower the measured oxidation. In addition, the magnetic properties of the altered particles are not decreased dramatically, thus suggesting that this alteration will not impact the use of such nanoparticles as medical carriers. Finally, the effect of biological additives on magnetite formation was investigated. Magnetotactic bacteria¬¬ are able to synthesize and align magnetite nanoparticles of well-defined size and morphology due to the involvement of special proteins with specific binding properties. Based on this model of morphology control, phage display experiments were performed to determine peptide sequences that preferably bind to (111)-magnetite faces. The aim was to control the shape of magnetite nanoparticles during the formation. Magnetotactic bacteria are also able to control the intracellular redox potential with proteins called magnetochromes. MamP is such a protein and its oxidizing nature was studied in vitro via biomimetic magnetite formation experiments based on ferrous ions. Magnetite and further trivalent oxides were found. This work helps understanding basic mechanisms of magnetite formation and gives insight into non-classical crystal growth. In addition, it is shown that alteration of magnetite nanoparticles is mainly based on oxidation to maghemite and does not significantly influence the magnetic properties. Finally, biomimetic experiments help understanding the role of MamP within the bacteria and furthermore, a first step was performed to achieve morphology control in magnetite formation via co-precipitation. N2 - Magnetit ist ein Eisenoxid, welches ein häufiger Bestandteil in Mineralen ist und normalerweise als nm-großen Teilchen unter anderem Gesteinsmaterial verteilt ist. Es unterscheidet sich in seiner Zusammensetzung von den meisten anderen Eisenoxiden, da es sowohl divalente als auch trivalente Eisenoxide enthält. Die Folge ist eine besondere Kristallstruktur und somit einzigartige magnetische Eigenschaften. Diese Eigenschaften werden bei paläoklimatologischen Rekonstruktionen genutzt, bei denen natürlich vorkommender Magnetit hilft, die Bedingungen vergangener Zeitalter zu verstehen. Weiterhin werden die magnetischen Eigenschaften in bio- und nanotechnologischen Anwendungen genutzt. Synthetischer Magnetit dient als Kontrastmittel in der MRT, in biologischen Sensorsystemen, bei Hyperthermie-Behandlungen oder als Grundlage für Datenspeichermedien. Da die magnetischen Eigenschaften im nm-Bereich stark von der Größe der Teilchen abhängen, ist eine möglichst präzise Kontrolle der Größe von enormer Bedeutung. Mit Hilfe eines maßgefertigten Syntheseaufbaus war es möglich durch Mitfällung Teilchen oberhalb des superparamagnetischen Schwellenwerts zu produzieren. Außerdem konnte eine Temperaturabhängigkeit gezeigt werden; höhere Temperaturen während der Magnetit-Bildung resultieren in größeren Teilchen. Der Prozess dahinter ist jedoch noch nicht vollständig geklärt. Die Bildung von Magnetit in wässriger Lösung erfolgt nicht über Ionen, sondern wird über die zwischenzeitliche Bildung von nm-großen Vorläufern realisiert. Unter Berücksichtigung dieser Vorläufer wurde die Bildung von Magnetit in einen neuen theoretischen Rahmen gesetzt, jedoch mangelt es bisher an kinetischen Daten. Durch die Synthese von Magnetit bei unterschiedlichen Temperaturen konnte mit Hilfe des Arrhenius-Plots eine Aktivierungsenergie für das Kristallwachstum von 28.4 kJ mol-1 ermittelt werden. Dieser Wert deutet auf einen diffusionskontrollierten Prozess hin. Auch die Alterung von Magnetit-Nanopartikeln spielt eine wichtige Rolle, da Magnetit unter Umgebungsbedingungen zu Maghämit oxidiert wird. Deshalb wird hier eine Studie zur Alterung von Magnetit-Nanopartikeln unterschiedlicher Größe unter verschiedenen Lagerungsbedingungen präsentiert. Kleine Teilchen tendieren zu stärkerer Oxidation im selben Zeitraum und weiterhin oxidieren die Teilchen weniger, je geringer die Temperatur ist. Da Magnetit und Maghämit sich in ihren magnetischen Eigenschaften nur geringfügig unterscheiden, werden diese durch den oxidativen Prozess nur geringfügig beeinflusst. Als letztes wurde der Einfluss biologischer Zusätze zur Magnetit-Bildung überprüft. Magnetotaktische Bakterien sind in der Lage, Magnetit-Nanopartikel von definierter Größe und Morphologie herzustellen, involviert sind eine Reihe von spezifischen Proteinen mit speziellen Bindungseigenschaften. Darauf basierend wurden, zur Selektion spezifischer Peptidsequenzen, Phagen-Display-Experimente an einer (111)-Magnetitoberfläche durchgeführt. Diese sollten eine Morphologie-Kontrolle während der Magnetit-Synthese ermöglichen. Magnetotaktische Bakterien sind außerdem in der Lage das intrazelluläre Redox-Potential mit Hilfe von Proteinen, den Magnetochromen, zu kontrollieren. MamP ist eines dieser Proteine und sein oxidatives Potential wurde in einer in vitro-Magnetit-Synthese überprüft. Der Einsatz von FeII ergab sowohl Magnetit als auch trivalente Eisenoxide als Produkte. Diese Arbeit ermöglicht einen Einblick in die grundlegenden Mechanismen der Magnetit-Bildung, welche unter nicht-klassischen Bedingungen abläuft. Die Alterung der Nanopartikel, welche hauptsächlich die Oxidation zu Maghämit beinhaltet, hat nur geringen Einfluss auf die magnetischen Eigenschaften. Biomimetische Experimente halfen die Rolle von MamP innerhalb der Bakterien zu verstehen und zuletzt wurde ein erster Versuch unternommen, die von den Bakterien erreichte Morphologie-Kontrolle auch in vitro zu ermöglichen. T2 - Bildung und Alterung von Magnetit-Nanopartikeln KW - crystallization of magnetite nanoparticle KW - alteration of magnetite KW - growth kinetics KW - Kristallisation von Magnetit-Nanopartikeln KW - Wachstumskinetik KW - magnetische Eigenschaften KW - Röntgenbeugung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72239 ER - TY - THES A1 - Tinnefeld, Christian T1 - Building a columnar database on shared main memory-based storage BT - database operator placement in a shared main memory-based storage system that supports data access and code execution N2 - In the field of disk-based parallel database management systems exists a great variety of solutions based on a shared-storage or a shared-nothing architecture. In contrast, main memory-based parallel database management systems are dominated solely by the shared-nothing approach as it preserves the in-memory performance advantage by processing data locally on each server. We argue that this unilateral development is going to cease due to the combination of the following three trends: a) Nowadays network technology features remote direct memory access (RDMA) and narrows the performance gap between accessing main memory inside a server and of a remote server to and even below a single order of magnitude. b) Modern storage systems scale gracefully, are elastic, and provide high-availability. c) A modern storage system such as Stanford's RAMCloud even keeps all data resident in main memory. Exploiting these characteristics in the context of a main-memory parallel database management system is desirable. The advent of RDMA-enabled network technology makes the creation of a parallel main memory DBMS based on a shared-storage approach feasible. This thesis describes building a columnar database on shared main memory-based storage. The thesis discusses the resulting architecture (Part I), the implications on query processing (Part II), and presents an evaluation of the resulting solution in terms of performance, high-availability, and elasticity (Part III). In our architecture, we use Stanford's RAMCloud as shared-storage, and the self-designed and developed in-memory AnalyticsDB as relational query processor on top. AnalyticsDB encapsulates data access and operator execution via an interface which allows seamless switching between local and remote main memory, while RAMCloud provides not only storage capacity, but also processing power. Combining both aspects allows pushing-down the execution of database operators into the storage system. We describe how the columnar data processed by AnalyticsDB is mapped to RAMCloud's key-value data model and how the performance advantages of columnar data storage can be preserved. The combination of fast network technology and the possibility to execute database operators in the storage system opens the discussion for site selection. We construct a system model that allows the estimation of operator execution costs in terms of network transfer, data processed in memory, and wall time. This can be used for database operators that work on one relation at a time - such as a scan or materialize operation - to discuss the site selection problem (data pull vs. operator push). Since a database query translates to the execution of several database operators, it is possible that the optimal site selection varies per operator. For the execution of a database operator that works on two (or more) relations at a time, such as a join, the system model is enriched by additional factors such as the chosen algorithm (e.g. Grace- vs. Distributed Block Nested Loop Join vs. Cyclo-Join), the data partitioning of the respective relations, and their overlapping as well as the allowed resource allocation. We present an evaluation on a cluster with 60 nodes where all nodes are connected via RDMA-enabled network equipment. We show that query processing performance is about 2.4x slower if everything is done via the data pull operator execution strategy (i.e. RAMCloud is being used only for data access) and about 27% slower if operator execution is also supported inside RAMCloud (in comparison to operating only on main memory inside a server without any network communication at all). The fast-crash recovery feature of RAMCloud can be leveraged to provide high-availability, e.g. a server crash during query execution only delays the query response for about one second. Our solution is elastic in a way that it can adapt to changing workloads a) within seconds, b) without interruption of the ongoing query processing, and c) without manual intervention. N2 - Diese Arbeit beschreibt die Erstellung einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Motiviert wird diese Arbeit durch drei Faktoren. Erstens ist moderne Netzwerktechnologie mit “Remote Direct Memory Access” (RDMA) ausgestattet. Dies reduziert den Unterschied hinsichtlich Latenz und Durchsatz zwischen dem Speicherzugriff innerhalb eines Rechners und auf einen entfernten Rechner auf eine Größenordnung. Zweitens skalieren moderne Speichersysteme, sind elastisch und hochverfügbar. Drittens hält ein modernes Speichersystem wie Stanford's RAMCloud alle Daten im Hauptspeicher vor. Diese Eigenschaften im Kontext einer spalten-orientierten Datenbank zu nutzen ist erstrebenswert. Die Arbeit ist in drei Teile untergliedert. Der erste Teile beschreibt die Architektur einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Hierbei werden die im Rahmen dieser Arbeit entworfene und entwickelte Datenbank AnalyticsDB sowie Stanford's RAMCloud verwendet. Die Architektur beschreibt wie Datenzugriff und Operatorausführung gekapselt werden um nahtlos zwischen lokalem und entfernten Hauptspeicher wechseln zu können. Weiterhin wird die Ablage der nach einem relationalen Schema formatierten Daten von AnalyticsDB in RAMCloud behandelt, welches mit einem Schlüssel-Wertpaar Datenmodell operiert. Der zweite Teil fokussiert auf die Implikationen bei der Abarbeitung von Datenbankanfragen. Hier steht die Diskussion im Vordergrund wo (entweder in AnalyticsDB oder in RAMCloud) und mit welcher Parametrisierung einzelne Datenbankoperationen ausgeführt werden. Dafür werden passende Kostenmodelle vorgestellt, welche die Abbildung von Datenbankoperationen ermöglichen, die auf einer oder mehreren Relationen arbeiten. Der dritte Teil der Arbeit präsentiert eine Evaluierung auf einem Verbund von 60 Rechnern hinsichtlich der Leistungsfähigkeit, der Hochverfügbarkeit und der Elastizität vom System. T2 - Die Erstellung einer spaltenorientierten Datenbank auf einem verteilten, Hauptspeicher-basierenden Speichersystem KW - computer science KW - database technology KW - main memory computing KW - cloud computing KW - verteilte Datenbanken KW - Hauptspeicher Technologie KW - virtualisierte IT-Infrastruktur Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72063 ER - TY - THES A1 - Negri, Michael T1 - How coaches influence referee decisions BT - a principal-agent perspective on non-professional soccer BT - eine Prinzipal-Agent Perspektive auf den nicht-professionellen Fußball N2 - The work elaborates on the question if coaches in non-professional soccer can influence referee decisions. Modeled from a principal-agent perspective, the managing referee boards can be seen as the principal. They aim at facilitating a fair competition which is in accordance with the existing rules and regulations. In doing so, the referees are assigned as impartial agents on the pitch. The coaches take over a non-legitimate principal-like role trying to influence the referees even though they do not have the formal right to do so. Separate questionnaires were set up for referees and coaches. The coach questionnaire aimed at identifying the extent and the forms of influencing attempts by coaches. The referee questionnaire tried to elaborate on the questions if referees take notice of possible influencing attempts and how they react accordingly. The results were put into relation with official match data in order to identify significant influences on personal sanctions (yellow cards, second yellow cards, red cards) and the match result. It is found that there is a slight effect on the referee’s decisions. However, this effect is rather disadvantageous for the influencing coach and there is no evidence for an impact on the match result itself. N2 - Die Arbeit untersucht die Frage, ob Trainer im nicht-professionellen Fußball Schiedsrichterentscheidungen beeinflussen können. Aufbauend auf einer Prinzipal-Agent Perspektive nehmen die Schiedsrichterausschüsse die Rolle des Prinzipals ein. Sie zielen darauf ab, einen fairen Wettkampf zu organisieren, der in Übereinstimmung mit dem geltenden Regelwerk durchgeführt wird. Um dies zu erreichen, werden die Schiedsrichter als unparteiische Agenten auf dem Spielfeld eingesetzt. Die Trainer nehmen in dieser Konstellation eine illegitime, prinzipal-ähnliche Rolle ein und versuchen, den Schiedsrichter zu ihren Gunsten zu beeinflussen. Dies geschieht, ohne dass die Trainer ein entsprechendes Recht dazu hätten. Sowohl für die Trainer als auch für die Schiedsrichter wurde ein Fragebogen entworfen. Der erstgenannte zielt darauf ab, das Ausmaß und die Form von Beeinflussungsversuchen zu erheben. Der Schiedsrichter-Fragebogen hingegen erörtert die Fragen, ob die Unparteiischen mögliche Beeinflussungsversuche durch die Trainer wahrnehmen und wie sie gegebenenfalls darauf reagieren. Die Ergebnisse wurden mit offiziellen Spieldaten in Verbindung gebracht um potentielle Einflüsse auf Spiele (persönliche Strafen sowie das Endergebnis) zu identifizieren. Es wurde herausgefunden, dass es einen leichten Effekt auf Schiedsrichterentscheidungen gibt. Dieser ist zumeist jedoch nachteilig für den jeweiligen Trainer und es gibt kein Indiz für einen Einfluss auf das Endergebnis. T2 - Wie Trainer Schiedsrichterentscheidungen beeinflussen KW - referees KW - decision making KW - soccer KW - bias KW - Schiedsrichter KW - Trainer KW - Entscheidungen KW - Urteilsverzerrung KW - Prinzipal-Agent Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72247 ER -