TY - THES A1 - Hutter, Anne T1 - Unveiling the epoch of reionization by simulations and high-redshift galaxies T1 - Untersuchungen der Epoche der Reionisation mithilfe von Simulationen und Beobachtungen hoch rotverschobener Galaxien N2 - The Epoch of Reionization marks after recombination the second major change in the ionization state of the universe, going from a neutral to an ionized state. It starts with the appearance of the first stars and galaxies; a fraction of high-energy photons emitted from galaxies permeate into the intergalactic medium (IGM) and gradually ionize the hydrogen, until the IGM is completely ionized at z~6 (Fan et al., 2006). While the progress of reionization is driven by galaxy evolution, it changes the ionization and thermal state of the IGM substantially and affects subsequent structure and galaxy formation by various feedback mechanisms. Understanding this interaction between reionization and galaxy formation is further impeded by a lack of understanding of the high-redshift galactic properties such as the dust distribution and the escape fraction of ionizing photons. Lyman Alpha Emitters (LAEs) represent a sample of high-redshift galaxies that are sensitive to all these galactic properties and the effects of reionization. In this thesis we aim to understand the progress of reionization by performing cosmological simulations, which allows us to investigate the limits of constraining reionization by high-redshift galaxies as LAEs, and examine how galactic properties and the ionization state of the IGM affect the visibility and observed quantities of LAEs and Lyman Break galaxies (LBGs). In the first part of this thesis we focus on performing radiative transfer calculations to simulate reionization. We have developed a mapping-sphere-scheme, which, starting from spherically averaged temperature and density fields, uses our 1D radiative transfer code and computes the effect of each source on the IGM temperature and ionization (HII, HeII, HeIII) profiles, which are subsequently mapped onto a grid. Furthermore we have updated the 3D Monte-Carlo radiative transfer pCRASH, enabling detailed reionization simulations which take individual source characteristics into account. In the second part of this thesis we perform a reionization simulation by post-processing a smoothed-particle hydrodynamical (SPH) simulation (GADGET-2) with 3D radiative transfer (pCRASH), where the ionizing sources are modelled according to the characteristics of the stellar populations in the hydrodynamical simulation. Following the ionization fractions of hydrogen (HI) and helium (HeII, HeIII), and temperature in our simulation, we find that reionization starts at z~11 and ends at z~6, and high density regions near sources are ionized earlier than low density regions far from sources. In the third part of this thesis we couple the cosmological SPH simulation and the radiative transfer simulations with a physically motivated, self-consistent model for LAEs, in order to understand the importance of the ionization state of the IGM, the escape fraction of ionizing photons from galaxies and dust in the interstellar medium (ISM) on the visibility of LAEs. Comparison of our models results with the LAE Lyman Alpha (Lya) and UV luminosity functions at z~6.6 reveals a three-dimensional degeneracy between the ionization state of the IGM, the ionizing photons escape fraction and the ISM dust distribution, which implies that LAEs act not only as tracers of reionization but also of the ionizing photon escape fraction and of the ISM dust distribution. This degeneracy does not even break down when we compare simulated with observed clustering of LAEs at z~6.6. However, our results show that reionization has the largest impact on the amplitude of the LAE angular correlation functions, and its imprints are clearly distinguishable from those of properties on galactic scales. These results show that reionization cannot be constrained tightly by exclusively using LAE observations. Further observational constraints, e.g. tomographies of the redshifted hydrogen 21cm line, are required. In addition we also use our LAE model to probe the question when a galaxy is visible as a LAE or a LBG. Within our model galaxies above a critical stellar mass can produce enough luminosity to be visible as a LBG and/or a LAE. By finding an increasing duty cycle of LBGs with Lya emission as the UV magnitude or stellar mass of the galaxy rises, our model reveals that the brightest (and most massive) LBGs most often show Lya emission. Predicting the Lya equivalent width (Lya EW) distribution and the fraction of LBGs showing Lya emission at z~6.6, we reproduce the observational trend of the Lya EWs with UV magnitude. However, the Lya EWs of the UV brightest LBGs exceed observations and can only be reconciled by accounting for an increased Lya attenuation of massive galaxies, which implies that the observed Lya brightest LAEs do not necessarily coincide with the UV brightest galaxies. We have analysed the dependencies of LAE observables on the properties of the galactic and intergalactic medium and the LAE-LBG connection, and this enhances our understanding of the nature of LAEs. N2 - Die Epoche der Reionisation markiert die nach der Rekombination zweite grundlegende Änderung des Ionisationszustandes des Universums, nämlich den Übergang von einem neutralen zu einem ionisierten Zustand. Die Epoche der Reionisation beginnt mit dem Erscheinen der ersten Sterne und Galaxien. Von den Galaxien ausgesendete energiereiche Photonen durchdringen das intergalaktische Medium (IGM) und ionisieren den vorhandenen Wasserstoff schrittweise, bis das IGM bei z~6 (Fan et al., 2006) vollständig ionisiert ist. Während der Verlauf der Reionisation zum einen durch die Galaxienentwicklung bestimmt wird, verändert die Reionisation zum anderen den Ionisations- und thermischen Zustand des IGMs und beeinflusst damit die darauffolgende Struktur- und Galaxienentwicklung durch verschiedene Rückkopplungsmechanismen. Die geringen Kenntnisse der Eigenschaften von Galaxien bei hohen Rotverschiebungen wie der Staubverteilung und des Anteils an ionisierenden Photonen, die die Galaxien verlassen können, erschweren jedoch das Verständnis des Wechselspiels zwischen Reionisation und Galaxienentwicklung. Lyman Alpha Emitter (LAE) stellen Galaxien bei hoher Rotverschiebung dar, deren Sichtbarkeit diesen Eigenschaften und den Effekten der Reionisa\-tion unterliegen. Diese Arbeit zielt darauf ab, den Verlauf der Reionisation anhand von kosmologischen Simulationen zu verstehen. Insbesondere interessiert, inwieweit der Verlauf der Reionisation durch Galaxien bei hohen Rotverschiebungen eingeschränkt werden kann, und wie die Eigenschaften der Galaxien und der Ionisationszustand des IGMs die Sichtbarkeit und die beobachtbaren Größen der LAE und Lyman Break Galaxien (LBG) beeinflussen können. Im ersten Teil dieser Arbeit werden verschiedene Ansätze zur Lösung des Strahlungstransportes neu- und weiterentwickelt mit dem Ziel, die Epoche der Reionisation zu simulieren. Dazu wurde zum einen eine Methode entwickelt, die als Berechnungsgrundlage sphärisch gemittelte Temperatur- und Dichtefelder benutzt. Mithilfe des in dieser Arbeit entwickelten eindimensionalen Strahlungstransportcodes werden die Auswirkungen jeder Quelle auf die dementsprechenden Temperatur- und Ionisa\-tionsprofile (HII, HeII, HeIII) berechnet und diese auf ein Gitter abgebildet. Zum anderen wurde der dreidimensionale Monte-Carlo-Strahlungstransportcode pCRASH so erweitert, sodass detaillierte Reionisationsimulationen, die individulle Quelleneigenschaften berücksichtigen, durchgeführt werden können. Im zweiten Teil dieser Arbeit wird die Epoche der Reionisation in sich konsistent simuliert, indem aufbauend auf einer gasdynamischen Simulation (smoothed particle hydrodynamics (SPH), GADGET-2) mithilfe von pCRASH Strahlungstransportrechnungen ausgeführt werden. Dabei werden die ionisierenden Quellen gemäß der Eigenschaften der Sternpopulationen in der gasdynamischen Simulation modelliert. Die Entwicklung der IGM-Ionisationsanteile an Wasserstoff (HII) und Helium (HeII, HeIII) sowie der Temperatur werden in der Simulation verfolgt. Es zeigt sich, dass Reionisation erstens bei z~11 beginnt und bei z~6 endet, und zweitens von überdichten zu unterdichten Gebieten des Kosmos hin verläuft. Im dritten Teil der Arbeit werden kosmologische SPH - und Strahlungstransportsimulationen mit einem physikalisch motivierten, selbst-konsistenten Modell für LAEs kombiniert, um den Einfluss des Ionisationszustandes des IGMs, des Anteils der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im interstellaren Medium (ISM) auf die sichtbaren Eigenschaften der LAEs zu verstehen. Der Vergleich der Simulationsergebnisse mit den beobachteten LAE Lyman Alpha- und UV-Leuchtkraftfunktionen bei z~6.6 offenbart eine dreidimensionale Entartung zwischen dem Ionisationszustand des IGMs, dem Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM. Dies bedeutet, dass die Sichtbarkeit von LAEs nicht nur ein Indikator für den Ionisationszustand des IGM ist, sondern auch für den Anteil an ionisierenden Photonen, die die Galaxien verlassen können, und für die Staubverteilung im ISM. Diese Entartung lässt sich auch nicht auflösen, wenn Simulations- und Beobachtungsdaten der räumlichen Verteilung der LAEs bei z~6.6 gemessen mit der winkelabhängigen Zweipunktkorrelationsfunktion verglichen werden. Jedoch zeigt unser Modell, dass die Reionisation den größten Effekt auf die Amplitude der Winkelkorrelation hat und dass sich ihre Spuren klar von den Effekten auf galaktischen Skalen (den Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM) unterscheiden lassen. Somit kann Reionisation nicht alleine durch LAE Beobachtungen eingeschränkt werden, und es werden weitere Beobachtungen, wie z.B. die Tomographie der rotverschobenen 21cm Wasserstofflinie, benötigt. KW - cosmology KW - reionization KW - high-redshift galaxies KW - radiative transfer KW - simulation KW - Kosmologie KW - Reionisation KW - hoch rotverschobene Galaxien KW - Strahlungstransport KW - Simulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76998 ER - TY - THES A1 - Merkel, Roswitha T1 - Untersuchung zur Synthese und Eigenschaften von komplexen Oligospiroketalen T1 - Investigation of synthesis and properties of complex oligospiroketals N2 - Es ist in dieser Arbeit gelungen, starre Oligospiroketal(OSK)-Stäbe als Grundbausteine für komplexe 2D- und 3D-Systeme zu verwenden. Dazu wurde ein difunktionalisierter starrer Stab synthetisiert, der mit seines Gleichen und anderen verzweigten Funktionalisierungseinheiten in Azid-Alkin-Klickreaktionen eingesetzt wurde. An zwei über Klickreaktion verknüpften OSK-Stäben konnten mittels theoretischer Berechnungen Aussagen über die neuartige Bimodalität der Konformation getroffen werden. Es wurde dafür der Begriff Gelenkstab eingeführt, da die Moleküle um ein Gelenk gedreht sowohl gestreckt als auch geknickt vorliegen können. Aufbauend auf diesen Erkenntnissen konnte gezeigt werden, dass nicht nur gezielt große Polymere aus bis zu vier OSK-Stäben synthetisiert werden können, sondern es auch möglich ist, durch gezielte Änderung von Reaktionsbedingungen der Klickreaktion auch Cyclen aus starren OSK-Stäben herzustellen. Die neu entwickelte Substanzklasse der Gelenkstäbe wurde im Hinblick auf die Steuerung des vorliegenden Gleichgewichts zwischen geknicktem und gestrecktem Gelenkstab hin untersucht. Dafür wurde der Gelenkstab mit Pyrenylresten in terminaler Position versehen. Es wurde durch Fluoreszenzmessungen festgestellt, dass das Gleichgewicht z. B. durch die Temperatur oder die Wahl des Lösungsmittels beeinflussbar ist. Für vielfache Anwendungen wurde eine vereinfachte Synthesestrategie gefunden, mit der eine beliebige Funktionalisierung in nur einem Syntheseschritt erreicht werden konnte. Es konnten photoaktive Gelenkstäbe synthetisiert werden, die gezielt zur intramolekularen Dimerisierung geführt werden konnten. Zusätzlich wurde durch Aminosäuren ein Verknüpfungselement am Ende der Gelenkstäbe gefunden, das eine stereoselektive Synthese von Mehrfachfunktionalisierungen zulässt. Die Synthese der komplexen Gelenkstäbe wurde als ein neuartiges Gebiet aufgezeigt und bietet ein breites Forschungspotential für weitere Anwendungen z. B. in der Biologie (als molekulare Schalter für Ionentransporte) und in der Materialchemie (als Ladungs- oder Energietransporteure). N2 - In this dissertation the use of rigid Oligospiroketal (OSK)-rods as basic model for 2D- and 3D-systems was shown. For that purpose a bifunctionalized rigid rod was synthesized and was used in Azide-Alkine-clickreaction with itself and with other branched functionalized units. By theoretical calculations a statement about the novel bimodulation of the conformation of two OSK-rods which are linked by a clickreaction could be made. “Articulated rod” was introduced as new term, because the molecules could exist elongated or buckled. Based on this knowledge it became apparent that not only the size selective synthesis of polymers by using up to four OSK-rods is possible but also cycles with OSK-rods by using different click-reaction conditions can be synthesized. The newly developed group of “articulated rod” substances was examined regarding the equilibrium between buckled and elongated “articulated rod”. That for the articulated rod was functionalized with pyrenyl moieties in terminal position. By fluorescence measurements of these rods it could be shown that the equilibration is influenced by different temperatures and different solvents. For multiple applications a simplified strategy for synthesis with a wide range of functionalization in only one step of synthesis could be achieved. Photoactive articulated rods were synthesized, that could be selectively intramolecular dimerized. Additionally, amino acids were introduced as linker at the end of a articulated rod. By this a stereoselective synthesis of multiple functionaliations is possible. By the synthesis of complex articulated rods a novel field of research was found. There is a wide potential of research for more applications for example in biology (as molecular switch for transportation of ions) and in materials chemistry (as transporter for charge or energy). KW - Stab KW - Oligospiroketal KW - Klick KW - Alkin KW - Azid KW - articulated KW - rod KW - click KW - alkine KW - azide Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72561 ER - TY - THES A1 - Orgis, Thomas T1 - Unstetige Galerkin-Diskretisierung niedriger Ordnung in einem atmosphärischen Multiskalenmodell T1 - Low-order discontinuous Galerkin discretization in an atmospheric multi-scale model N2 - Die Dynamik der Atmosphäre der Erde umfasst einen Bereich von mikrophysikalischer Turbulenz über konvektive Prozesse und Wolkenbildung bis zu planetaren Wellenmustern. Für Wettervorhersage und zur Betrachtung des Klimas über Jahrzehnte und Jahrhunderte ist diese Gegenstand der Modellierung mit numerischen Verfahren. Mit voranschreitender Entwicklung der Rechentechnik sind Neuentwicklungen der dynamischen Kerne von Klimamodellen, die mit der feiner werdenden Auflösung auch entsprechende Prozesse auflösen können, notwendig. Der dynamische Kern eines Modells besteht in der Umsetzung (Diskretisierung) der grundlegenden dynamischen Gleichungen für die Entwicklung von Masse, Energie und Impuls, so dass sie mit Computern numerisch gelöst werden können. Die vorliegende Arbeit untersucht die Eignung eines unstetigen Galerkin-Verfahrens niedriger Ordnung für atmosphärische Anwendungen. Diese Eignung für Gleichungen mit Wirkungen von externen Kräften wie Erdanziehungskraft und Corioliskraft ist aus der Theorie nicht selbstverständlich. Es werden nötige Anpassungen beschrieben, die das Verfahren stabilisieren, ohne sogenannte „slope limiter” einzusetzen. Für das unmodifizierte Verfahren wird belegt, dass es nicht geeignet ist, atmosphärische Gleichgewichte stabil darzustellen. Das entwickelte stabilisierte Modell reproduziert eine Reihe von Standard-Testfällen der atmosphärischen Dynamik mit Euler- und Flachwassergleichungen in einem weiten Bereich von räumlichen und zeitlichen Skalen. Die Lösung der thermischen Windgleichung entlang der mit den Isobaren identischen charakteristischen Kurven liefert atmosphärische Gleichgewichtszustände mit durch vorgegebenem Grundstrom einstellbarer Neigung zu(barotropen und baroklinen)Instabilitäten, die für die Entwicklung von Zyklonen wesentlich sind. Im Gegensatz zu früheren Arbeiten sind diese Zustände direkt im z-System(Höhe in Metern)definiert und müssen nicht aus Druckkoordinaten übertragen werden.Mit diesen Zuständen, sowohl als Referenzzustand, von dem lediglich die Abweichungen numerisch betrachtet werden, und insbesondere auch als Startzustand, der einer kleinen Störung unterliegt, werden verschiedene Studien der Simulation von barotroper und barokliner Instabilität durchgeführt. Hervorzuheben ist dabei die durch die Formulierung von Grundströmen mit einstellbarer Baroklinität ermöglichte simulationsgestützte Studie des Grades der baroklinen Instabilität verschiedener Wellenlängen in Abhängigkeit von statischer Stabilität und vertikalem Windgradient als Entsprechung zu Stabilitätskarten aus theoretischen Betrachtungen in der Literatur. N2 - The dynamics of the Earth’s atmosphere encompass a range from microphysical turbulence over convective processes and cloud formation up to planetary wave patterns. For weather forecasting and the investigation of climate over decades and centuries, these are subject to modelling with numerical methods. With progressing development of computer technology, re-development of the dynamical cores of climate models is in order to properly handle processes covered by the increasing resolution. The dynamical core of a model consists of the adaptation(discretization)of the basic equations for the dynamics of mass, energy and momentum for solving them numerically employing computers. The presented work investigates the applicability of a low-order Discontinuous Galerkin (DG) method for atmospheric applications. With equations that include external forces like gravitation and the Coriolis force, that is not given by theory. Necessary changes for stabilizing the method without resorting to slope limiters are presented. For the unmodified method, the basic inability to properly keep atmospheric balances is demonstrated. The developed stabilized model reproduces a set of standard test cases in a wide range of spatial and temporal scales. The solution of the termal wind equation along its characteristics curves, those being identical to the isobars, produces balanced atmospheric states with tunable (barotropic and baroclinic) instability via a prescribed zonal wind field. The constructed instability directly relates to the generation of cyclones. In contrast to earlier works, these balanced states are directly given in the z system (height in meters), without need for elaborate conversion from pressure coordinates. With these constructed states, both as reference state, the deviations from which being considered numerically, and as especially as initial condition subject to a small perturbation, several studies of barotropic and baroclinic instability are conducted via simulations. Particularily, the construction of steady states with configurable zonal flows of certain baroclinity facilitates a simulation-based study of baroclinic instability of differing wavelengths, depending on static stability and vertical wind gradient, in correspondence with stability maps from theoretical considerations in the literature. KW - Atmosphärenmodellierung KW - Unstetiges Galerkin-Verfahren KW - Multiskale KW - Barokline Instabilität KW - thermische Windgleichung KW - atmospheric modelling KW - discontinuous Galerkin method KW - multi-scale KW - baroclinic instability KW - thermal wind equation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70687 ER - TY - THES A1 - Beck, Andreas T1 - Unionsrechtliche Staatshaftung der EU-Mitgliedstaaten für judikatives Unrecht T1 - EU law state liability of EU member states for judicial breaches N2 - Obwohl in den unionalen Verträgen bis heute keine Vorschrift bezüglich einer Staatshaftung der Mitgliedstaaten für Entscheidungen ihrer Gerichte existiert, hat der Gerichtshof der Europäischen Union (EuGH) in einer Reihe von Entscheidungen eine solche Haftung entwickelt und präzisiert. Die vorliegende Arbeit analysiert eingehend diese Rechtsprechung mitsamt den sich daraus ergebenden facettenreichen Rechtsfragen. Im ersten Kapitel widmet sich die Arbeit der historischen Entwicklung der unionsrechtlichen Staatshaftung im Allgemeinen, ausgehend von dem bekannten Francovich-Urteil aus dem Jahr 1991. Sodann werden im zweiten Kapitel die zur Haftung für judikatives Unrecht grundlegenden Entscheidungen in den Rechtssachen Köbler und Traghetti vorgestellt. In dem sich anschließenden dritten Kapitel wird der Rechtscharakter der unionsrechtlichen Staatshaftung – einschließlich der Frage einer Subsidiarität des unionsrechtlichen Anspruchs gegenüber bestehenden nationalen Staatshaftungsansprüchen – untersucht. Das vierte Kapitel widmet sich der Frage, ob eine unionsrechtliche Staatshaftung für judikatives Unrecht prinzipiell anzuerkennen ist, wobei die wesentlichen für und gegen eine solche Haftung sprechenden Argumente ausführlich behandelt und bewertet werden. Im fünften Kapitel werden die im Zusammenhang mit den unionsrechtlichen Haftungsvoraussetzungen stehenden Probleme der Haftung für letztinstanzliche Gerichtsentscheidungen detailliert erörtert. Zugleich wird der Frage nachgegangen, ob eine Haftung für fehlerhafte unterinstanzliche Gerichtsentscheidungen zu befürworten ist. Das sechste Kapitel befasst sich mit der Ausgestaltung der unionsrechtlichen Staatshaftung für letztinstanzliche Gerichtsentscheidungen durch die Mitgliedstaaten, wobei u.a. zur Anwendbarkeit der deutschen Haftungsprivilegien bei judikativem Unrecht auf den unionsrechtlichen Staatshaftungsanspruch Stellung genommen wird. Im letzten Kapitel wird der Frage nachgegangen, ob der EuGH überhaupt über eine Kompetenz zur Schaffung der Staatshaftung für letztinstanzliche Gerichtsentscheidungen verfügte. Abschließend werden die wichtigsten Ergebnisse der Arbeit präsentiert und ein Ausblick auf weitere mögliche Auswirkungen und Entwicklungen der unionsrechtlichen Staatshaftung für judikatives Unrecht gegeben. N2 - Although no provision has been made in the EU Treaties concerning liability of the EU member states for the decisions of their courts, the European Court of Justice (ECJ) has developed and specified such a liability in a number of decisions. The present study is a thorough analysis of this jurisprudence resulting in diverse legal questions. The first chapter of the thesis is dedicated to the historical development of the state liability founded on EU law in general, originating from the well-known decision in the Francovich case in 1991. Chapter two presents the cases Köbler and Traghetti, the two core judgments concerning state liability for breaches of EU law resulting from national court decisions. Chapter three investigates the legal character of state liability based on EU law – including the question of a possible subsidiarity of the claim under EU law towards existing claims, establishing state liability which is founded on national law. The fourth chapter poses the question of whether state liability for judicial faults based on EU law should be accepted in principle; subsequently, the essential arguments for and against this liability are addressed and evaluated in detail. The fifth chapter comprehensively examines the problems of state liability for decisions of courts adjudicating at last instance, which are related to the conditions of state liability founded on EU law. In this context the question of whether EU law state liability for decisions of courts not adjudicating at last instance should be supported, will also be examined. Chapter 6 is dedicated to the complement of state liability for court decisions on the basis of EU law through the member states. At this stage the application of privileges regarding state liability for court decisions which exist within German national law to actions for damages regarding state liability founded on EU law is also discussed. The last chapter examines the question whether the ECJ actually had the competence to establish state liability for decisions of courts adjudicating at last instance. In conclusion the most important results of the thesis are presented and an outlook on further possible consequences and developments of state liability for judicial breaches based on EU law is given. KW - unionsrechtliche Staathaftung KW - Urteil Köbler KW - Verstöße gegen EU-Recht durch nationale Gerichte KW - unionsrechtlicher Staatshaftungsanspruch bei judikativem Unrecht KW - Entscheidungen letztinstanzlicher nationaler Gerichte KW - EU law state liability KW - Köbler decision KW - claims based on EU state liability for national court decisions KW - decisions of national courts adjudicating at last instance Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80211 ER - TY - THES A1 - Logačev, Pavel T1 - Underspecification and parallel processing in sentence comprehension T1 - Unterspezifikation und parallele Verarbeitung im Satzverständnis N2 - The aim of the present thesis is to answer the question to what degree the processes involved in sentence comprehension are sensitive to task demands. A central phenomenon in this regard is the so-called ambiguity advantage, which is the finding that ambiguous sentences can be easier to process than unambiguous sentences. This finding may appear counterintuitive, because more meanings should be associated with a higher computational effort. Currently, two theories exist that can explain this finding. The Unrestricted Race Model (URM) by van Gompel et al. (2001) assumes that several sentence interpretations are computed in parallel, whenever possible, and that the first interpretation to be computed is assigned to the sentence. Because the duration of each structure-building process varies from trial to trial, the parallelism in structure-building predicts that ambiguous sentences should be processed faster. This is because when two structures are permissible, the chances that some interpretation will be computed quickly are higher than when only one specific structure is permissible. Importantly, the URM is not sensitive to task demands such as the type of comprehension questions being asked. A radically different proposal is the strategic underspecification model by Swets et al. (2008). It assumes that readers do not attempt to resolve ambiguities unless it is absolutely necessary. In other words, they underspecify. According the strategic underspecification hypothesis, all attested replications of the ambiguity advantage are due to the fact that in those experiments, readers were not required to fully understand the sentence. In this thesis, these two models of the parser’s actions at choice-points in the sentence are presented and evaluated. First, it is argued that the Swets et al.’s (2008) evidence against the URM and in favor of underspecification is inconclusive. Next, the precise predictions of the URM as well as the underspecification model are refined. Subsequently, a self-paced reading experiment involving the attachment of pre-nominal relative clauses in Turkish is presented, which provides evidence against strategical underspecification. A further experiment is presented which investigated relative clause attachment in German using the speed-accuracy tradeoff (SAT) paradigm. The experiment provides evidence against strategic underspecification and in favor of the URM. Furthermore the results of the experiment are used to argue that human sentence comprehension is fallible, and that theories of parsing should be able to account for that fact. Finally, a third experiment is presented, which provides evidence for the sensitivity to task demands in the treatment of ambiguities. Because this finding is incompatible with the URM, and because the strategic underspecification model has been ruled out, a new model of ambiguity resolution is proposed: the stochastic multiple-channel model of ambiguity resolution (SMCM). It is further shown that the quantitative predictions of the SMCM are in agreement with experimental data. In conclusion, it is argued that the human sentence comprehension system is parallel and fallible, and that it is sensitive to task-demands. N2 - Das Ziel der vorliegenden Arbeit ist es zu untersuchen zu welchem Grad Satzverständnis kontextabhängig ist. In anderen Worten, werden die mentalen Prozesse die zum Satzverständnis beitragen davon beeinflusst mit welchem Ziel ein Satz gelesen wird? Ein in diesem Hinblick zentrales Phänomen ist die sogenannte ambiguity advantage, wonach ambige Sätze schneller gelesen werden als eindeutige. Dies erscheint zunächst kontraintuitiv, denn die Erstellung mehrerer Bedeutungen müsste mit einem höheren Verarbeitungsaufwand verbunden sein. Im Moment existieren zwei Theorien, die diesen Effekt erklären können: Das Unrestricted Race Model (URM; van Gompel, Pickering, and Traxler, 2000) basiert auf der Annahme, daß Leser, wann immer möglich, mehrere Interpretationen eines Satzes gleichzeitig zu erstellen versuchen. Sobald die erste Interpretation erstellt wurde, wird diese als die finale Interpretation des aktuellen Inputs akzeptiert, und die Erstellung weiterer Interpretationen wird terminiert. Weil die Dauer jedes Strukturerstellungsprozesses variiert, führt dieser Interpretationsmechanismus dazu daß Sätze mit mehreren Bedeutungen schneller verarbeitet werden. Wenn zwei Satzstrukturen zulässig sind, ist die Wahrscheinlichkeit höher daß zumindest eine von beiden relativ schnell berechnet wird als wenn nur eine Struktur zulässig ist. Dieses Modell nimmt keine Einflüsse von Verständnisaufgaben auf die Verarbeitungsstrategie an. Einen gänzlich anderen Erklärungsansatz verfolgt das strategische Unterspezifizierungsmodell von Swets et al. (2008). Hier wird angenommen daß Leser Ambiguitäten nur dann auflösen, wenn es unbedingt notwendig ist. Wenn es nicht notwendig ist, unterspezifizieren sie stattdessen. Laut dem Unterspezifizierungsmodell sind alle bisherigen Replikationen der ambiguity advantage der Tatsache geschuldet, daß in diesen Experimenten nur oberflächliche Fragen gestellt wurden, die keine Ambiguitätsauflösung erforderten. Wäre Disambiguierung erforderlich gewesen, wäre die Verarbeitung ambiger Sätze langsamer. In der vorliegenden Arbeit werden diese beiden Modelle der Ambiguitätsauflösung diskutiert und empirisch evaluiert. Zunächst wird diskutiert warum die Daten von Swets et al.'s (2008) Experiment keine Evidenz für Unterspezifikation darstellen. Als nächstes werden die präzisen quantitativen Vorhersagen des URM und des Unterspezifizierungsmodells diskutiert. Es werden die Resultate eines self-paced reading Experiments mit pränominalen Relativsätzen im Türkischen vorgestellt, welche nicht mit dem Unterspezifizierungsmodell kompatibel sind. Als nächstes werden die Resultate eines weiteren Experiments vorgestellt, welches den Prozess der Relativsatzanbindung im Deutschen im Speed-Accuracy Tradeoff Paradigma (SAT) untersucht. Die Resultate sind mit dem URM, aber nicht mit strategischer Unterspezifikation vereinbar. Des weiteren wird ein drittes Experiment vorgestellt, welches zeigt daß Parsingstrategien von den Gesichtspunkten abhängen unter denen Leser einen Satz lesen. Um alle experimentellen Ergebnisse in dieser Arbeit zu erklären, wird ein neues Modell der Disambiguierung vorgestellt: das Stochastic Multiple-Channel Model (SMCM). Es wird des weiteren gezeigt, daß die quantitativen Vorhersagen des SMCM mit den experimentellen Daten übereinstimmen. KW - psycholinguistics KW - sentence processing KW - Psycholinguistik KW - Satzverarbeitung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82047 ER - TY - THES A1 - Goswami, Bedartha T1 - Uncertainties in climate data analysis T1 - Unsicherheiten in der Analyse von Klimadaten BT - Perspectives on working with measurement errors and other unknowns BT - Über Möglichkeiten der Arbeit mit Meßfehlern und anderen Unbekannten N2 - Scientific inquiry requires that we formulate not only what we know, but also what we do not know and by how much. In climate data analysis, this involves an accurate specification of measured quantities and a consequent analysis that consciously propagates the measurement errors at each step. The dissertation presents a thorough analytical method to quantify errors of measurement inherent in paleoclimate data. An additional focus are the uncertainties in assessing the coupling between different factors that influence the global mean temperature (GMT). Paleoclimate studies critically rely on `proxy variables' that record climatic signals in natural archives. However, such proxy records inherently involve uncertainties in determining the age of the signal. We present a generic Bayesian approach to analytically determine the proxy record along with its associated uncertainty, resulting in a time-ordered sequence of correlated probability distributions rather than a precise time series. We further develop a recurrence based method to detect dynamical events from the proxy probability distributions. The methods are validated with synthetic examples and demonstrated with real-world proxy records. The proxy estimation step reveals the interrelations between proxy variability and uncertainty. The recurrence analysis of the East Asian Summer Monsoon during the last 9000 years confirms the well-known `dry' events at 8200 and 4400 BP, plus an additional significantly dry event at 6900 BP. We also analyze the network of dependencies surrounding GMT. We find an intricate, directed network with multiple links between the different factors at multiple time delays. We further uncover a significant feedback from the GMT to the El Niño Southern Oscillation at quasi-biennial timescales. The analysis highlights the need of a more nuanced formulation of influences between different climatic factors, as well as the limitations in trying to estimate such dependencies. N2 - Wissenschaftliche Untersuchungen setzen nicht nur eine Formulierung des gegenwärtigen Kenntnisstandes mitsamt ihrer Unsicherheiten voraus, sondern ebenso eine Eingrenzung des Unbekannten. Bezogen auf die Analyse von Klimadaten beinhaltet dies eine präzise Spezifikation gemessener Größen sowie eine durchgängige Berücksichtigung ihrer Messunsicherheiten in allen Schritten der Analyse. Diese Dissertation präsentiert eine analytische Methode zur Quantifizierung der in Paläoklimadaten inhärenten Messunsicherheiten. Ein weiterer Schwerpunkt liegt auf der Untersuchung von Unsicherheiten in der Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die globale Durchschnittstemperatur (GMT global mean temperature) beeinflussen. Die Paläoklimaforschung beruht in kritischem Maße auf der Analyse von Proxydaten welche die Klimaentwicklung dokumentieren. Allerdings sind Proxydaten mit inhärenten Datierungsunsicherheiten behaftet. Basierend auf einem generischen Bayes’schen Ansatz wird in dieser Dissertation eine analytische Methode vorgestellt um aus den zeitlich unsicheren Proxydaten zeitlich präzise Folgen korrelierter Wahrscheinlichkeitsverteilungen zu erhalten. Von diesen Verteilungen werden Proxyzeitreihen zusammen mit ihren Unsicherheiten berechnet. Weiterhin wird eine rekurrenzbasierte Methode zur Analyse von Proxydaten entwickelt welche anhand dieser Wahrscheinlichkeitsverteilungen plötzliche Änderungen in der Dynamik des Systems ermittelt. Beide Methoden werden mit Hilfe synthetischer Beispieldaten validiert und mit realen Proxydaten demonstriert. Diese statistische Analyse von Proxydaten deckt unteranderem die Beziehungen zwischen der Variabilität der Daten und zugehöriger Unsicherheiten der Proxyzeitreihen auf. Die Re- kurrenzanalyse des Ostasiatischen Sommermonsuns bestätigt die bekannten Trockenzeiten der letzten 9.000 Jahre um 8.200 bzw. 4.400 Jahre vor unserer Zeit und deckt eine zusätzliche Trockenzeit um etwa 6.900 Jahre vor unserer Zeit auf. Die Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die GMT beeinflussen lässt sich als ein verworrenes, gerichtetes Netzwerk mit multiplen Links, welche zu verschiedenen Zeitskalen gehören, darstellen. Speziell ergibt sich eine signifikante Wechselwirkung zwischen der GMT und dem ENSO-Phänomen (El Niño-Southern Oscillation) auf einer quasi-zweijährigen Zeitskala. Einerseits beleuchtet diese Analyse die Notwendigkeit Einflüsse verschiedener Klimafaktoren auf die GMT nuancierter zu formulieren, andererseits werden die Grenzen der Quantifizierung dieser Einflüsse aufgezeigt. KW - data analysis KW - Bayesian estimation KW - Bayessche Schätzer KW - Datenanalyse Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78312 ER - TY - THES A1 - Trabant, Christoph T1 - Ultrafast photoinduced phase transitions in complex materials probed by time-resolved resonant soft x-ray diffraction T1 - Ultraschnelle lichtinduzierte Phasenübergänge in komplexen Materialien untersucht mit zeitaufgelöster resonanter Weichröntgenbeugung N2 - In processing and data storage mainly ferromagnetic (FM) materials are being used. Approaching physical limits, new concepts have to be found for faster, smaller switches, for higher data densities and more energy efficiency. Some of the discussed new concepts involve the material classes of correlated oxides and materials with antiferromagnetic coupling. Their applicability depends critically on their switching behavior, i.e., how fast and how energy efficient material properties can be manipulated. This thesis presents investigations of ultrafast non-equilibrium phase transitions on such new materials. In transition metal oxides (TMOs) the coupling of different degrees of freedom and resulting low energy excitation spectrum often result in spectacular changes of macroscopic properties (colossal magneto resistance, superconductivity, metal-to-insulator transitions) often accompanied by nanoscale order of spins, charges, orbital occupation and by lattice distortions, which make these material attractive. Magnetite served as a prototype for functional TMOs showing a metal-to-insulator-transition (MIT) at T = 123 K. By probing the charge and orbital order as well as the structure after an optical excitation we found that the electronic order and the structural distortion, characteristics of the insulating phase in thermal equilibrium, are destroyed within the experimental resolution of 300 fs. The MIT itself occurs on a 1.5 ps timescale. It shows that MITs in functional materials are several thousand times faster than switching processes in semiconductors. Recently ferrimagnetic and antiferromagnetic (AFM) materials have become interesting. It was shown in ferrimagnetic GdFeCo, that the transfer of angular momentum between two opposed FM subsystems with different time constants leads to a switching of the magnetization after laser pulse excitation. In addition it was theoretically predicted that demagnetization dynamics in AFM should occur faster than in FM materials as no net angular momentum has to be transferred out of the spin system. We investigated two different AFM materials in order to learn more about their ultrafast dynamics. In Ho, a metallic AFM below T ≈ 130 K, we found that the AFM Ho can not only be faster but also ten times more energy efficiently destroyed as order in FM comparable metals. In EuTe, an AFM semiconductor below T ≈ 10 K, we compared the loss of magnetization and laser-induced structural distortion in one and the same experiment. Our experiment shows that they are effectively disentangled. An exception is an ultrafast release of lattice dynamics, which we assign to the release of magnetostriction. The results presented here were obtained with time-resolved resonant soft x-ray diffraction at the Femtoslicing source of the Helmholtz-Zentrum Berlin and at the free-electron laser in Stanford (LCLS). In addition the development and setup of a new UHV-diffractometer for these experiments will be reported. N2 - In der Datenspeichertechnologie werden bisher hauptsächlich ferromagnetische Materialien eingesetzt. Da mit diesen aber physikalische Grenzen erreicht werden, werden neue Konzepte gesucht, um schnellere und kleinere Schalter, größere Datendichten und eine höherere Energieeffizienz zu erzeugen. Unter den diskutierten Materialklassen finden sich komplexen Übergangsmetalloxide und Materialien mit antiferromagnetischer Kopplung. Die Anwendbarkeit solcher Materialien hängt stark davon ab, wie schnell sich deren Eigenschaften verändern lassen und wieviel Energie dafür eingesetzt werden muss. Die vorliegende Arbeit beschäftigt sich mit ultraschnellen, Nicht-Gleichgewicht-Phasenübergängen genau in solchen Materialien. In Übergangsmetalloxiden führt die enge Kopplung zwischen den unterschiedlichen Freiheitsgraden zu einem effektiven niederenergetischen Anregungsspektrum. Diese Anregungen sind oft verknüpft mit spektakulären makroskopischen Eigenschaften, wie z.B. dem kolossalen Magnetowiderstand, Hochtemperatur-Supraleitung, Metall- Isolator-Übergang, die oft von nanoskaliger Ordnung von Spins, Ladungen, orbitaler Besetzung sowie Gitterverzerrungen begleitet sind. Dadurch werden diese Materialien interessant für Anwendbarkeit. Magnetit, ein Prototyp eines solchen funktionalen Materials zeigt einen Metall-Isolator-Übergang bei T = 123 K. Untersucht man die Ladungs- und orbitale Ordnung sowie die Struktur nach einer optischen Anregung, so findet man, dass die elektronische Struktur und Gitterverzerrung, die kennzeichnend für die Tieftemperaturphase sind, innerhalb der Zeitauflösung des Experiments von 300 fs zerstört wird. Der eigentliche Metall-Isolator-Übergang zeigt sich erst nach 1.5 ps. Die Ergebnisse zeigen, dass MITs in funktionalen Materialien bis zu tausend Mal schneller geschaltet werden können als in vorhandenen Halbleiter-Schaltern. Seit kurzem rücken auch ferrimagnetische und antiferromagnetische Materialen in den Fokus des Interesses. Es wurde im Ferrimagnet GdFeCo gezeigt, dass der Transfer von Drehimpuls zwischen zwei entgegengesetzten Subsystemen mit unterschiedlichen Zeitkonstanten zu einem Umschalten der Magnetisierung führt. Zudem wurde vorhergesagt, dass Demagnetisierungsdynamiken in antiferromagnetischen Materialien schneller ablaufen soll als in ferromagnetischen, da kein Drehimpuls aus dem Spinsystem abgeführt werden muss. Damit wir mehr über antiferromagnetische Dynamik erfahren haben wir zwei unterschiedliche Antiferromagneten untersucht, um sie mit den bekannten FM zu vergleichen. Im metallischen AFM Holmium fanden wir, dass die magnetische Ordnung schneller und zehnmal energieeffizienter zerstört werden kann als in vergleichbaren FM Metallen. In Europium-Tellurid, einem antiferromagnetischem Halbleiter, haben wir den Zerfall der magnetischen Ordnung im Hinblick auf Wechselwirkungen mit der Struktur untersucht. Wir fanden auf kurzen Zeitskalen eine eher entkoppelte Dynamik. Eine Ausnahme ist ein schneller Beitrag zur Gitterdynamik, den wir mit dem Wegfall von Magnetostriktion erklären. Die hier gezeigten Ergebnisse wurden mit Hilfe zeitaufgelöster resonanter weicher Röntgenbeugung an der Femtoslicing Strahlungsquelle des Helmholtz-Zentrums Berlin und am freien Elektronenlaser LCLS gemessen. Zusätzlich wird über die Entwicklung und den Bau eines UHV-Diffraktometers für diese Experimente berichtet. KW - Ultraschnell KW - Weichröntgenbeugung KW - nichtgleichgewichts Dynamik KW - Phasenübergänge KW - Antiferromagnetisch KW - Ultrafast KW - soft x-ray diffraction KW - photoinduced dynamics KW - phase transitions KW - antiferromagnetic Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71377 ER - TY - THES A1 - Schollaen, Karina T1 - Tracking climate signals in tropical trees T1 - Klimasignale in tropischen Hölzern BT - new insights from Indonesian stable isotope records BT - neue Erkenntnisse von stabilen Isotopendaten aus Indonesien N2 - The tropical warm pool waters surrounding Indonesia are one of the equatorial heat and moisture sources that are considered as a driving force of the global climate system. The climate in Indonesia is dominated by the equatorial monsoon system, and has been linked to El Niño-Southern Oscillation (ENSO) events, which often result in severe droughts or floods over Indonesia with profound societal and economic impacts on the populations living in the world's fourth most populated country. The latest IPCC report states that ENSO will remain the dominant mode in the tropical Pacific with global effects in the 21st century and ENSO-related precipitation extremes will intensify. However, no common agreement exists among climate simulation models for projected change in ENSO and the Australian-Indonesian Monsoon. Exploring high-resolution palaeoclimate archives, like tree rings or varved lake sediments, provide insights into the natural climate variability of the past, and thus helps improving and validating simulations of future climate changes. Centennial tree-ring stable isotope records | Within this doctoral thesis the main goal was to explore the potential of tropical tree rings to record climate signals and to use them as palaeoclimate proxies. In detail, stable carbon (δ13C) and oxygen (δ18O) isotopes were extracted from teak trees in order to establish the first well-replicated centennial (AD 1900-2007) stable isotope records for Java, Indonesia. Furthermore, different climatic variables were tested whether they show significant correlation with tree-ring proxies (ring-width, δ13C, δ18O). Moreover, highly resolved intra-annual oxygen isotope data were established to assess the transfer of the seasonal precipitation signal into the tree rings. Finally, the established oxygen isotope record was used to reveal possible correlations with ENSO events. Methodological achievements | A second goal of this thesis was to assess the applicability of novel techniques which facilitate and optimize high-resolution and high-throughput stable isotope analysis of tree rings. Two different UV-laser-based microscopic dissection systems were evaluated as a novel sampling tool for high-resolution stable isotope analysis. Furthermore, an improved procedure of tree-ring dissection from thin cellulose laths for stable isotope analysis was designed. The most important findings of this thesis are: I) The herein presented novel sampling techniques improve stable isotope analyses for tree-ring studies in terms of precision, efficiency and quality. The UV-laser-based microdissection serve as a valuable tool for sampling plant tissue at ultrahigh-resolution and for unprecedented precision. II) A guideline for a modified method of cellulose extraction from wholewood cross-sections and subsequent tree-ring dissection was established. The novel technique optimizes the stable isotope analysis process in two ways: faster and high-throughput cellulose extraction and precise tree-ring separation at annual to high-resolution scale. III) The centennial tree-ring stable isotope records reveal significant correlation with regional precipitation. High-resolution stable oxygen values, furthermore, allow distinguishing between dry and rainy season rainfall. IV) The δ18O record reveals significant correlation with different ENSO flavors and demonstrates the importance of considering ENSO flavors when interpreting palaeoclimatic data in the tropics. The findings of my dissertation show that seasonally resolved δ18O records from Indonesian teak trees are a valuable proxy for multi-centennial reconstructions of regional precipitation variability (monsoon signals) and large-scale ocean-atmosphere phenomena (ENSO) for the Indo-Pacific region. Furthermore, the novel methodological achievements offer many unexplored avenues for multidisciplinary research in high-resolution palaeoclimatology. N2 - Die tropischen Gewässer um Indonesien sind eine der äquatorialen Wärme- und Feuchtigkeitsquellen, die als treibende Kraft des globalen Klimasystems betrachtet werden können. Das Klima in Indonesien ist geprägt durch das Australisch-Indonesische Monsunsystem. Weiterhin besteht eine Verknüpfung mit El Niño-Southern Oszillation (ENSO) Ereignissen, die oft zu schweren Dürren oder Überschwemmungen in der Region mit tiefgreifenden gesellschaftlichen und wirtschaftlichen Folgen führen. Der neueste IPCC-Bericht legt dar, dass ENSO auch in den nächsten 100 Jahren das vorherrschende Klimaphänomen im tropischen Pazifik bleiben wird. Ferner wird davon ausgegangen, dass sich die ENSO-bezogenen Niederschlagsextrema intensivieren werden. Wenig Übereinstimmung herrscht jedoch bislang zwischen den Klimasimulationsmodellen in Bezug auf die voraussichtlichen Veränderungen von ENSO und dem Australisch-Indonesischen Monsunsystem. Hochaufgelöste Paläoklima-Archive, wie z.B. Jahrringe oder warvierte Seesedimente, geben Auskunft über die natürliche Klimavariabilität der Vergangenheit und können somit dazu beitragen, die Computersimulationen der künftigen Klimaentwicklung zu verbessern und zu validieren. Hundertjährige stabile Jahrring-Isotopenchronologien | Das Hauptziel dieser Doktorarbeit war es, dass Potenzial von tropischen Jahrringen zur Aufzeichnung von Klimasignalen herauszustellen und deren Evaluierung als Paläoklimaproxys. Im Detail wurden stabile Kohlenstoff- (δ13C) und Sauerstoff- (δ18O) Isotopenverhältnisse in Teakbäumen analysiert, und die ersten gut replizierten hundertjährigen (AD 1900-2007) stabilen Isotopenchronologien aus Java (Indonesien) erstellt. Dabei wurden verschiedene klimatische Einflussgrößen getestet, ob diese signifikante Korrelationen mit den Jahrringparametern aufzeigen. Weiterhin wurden hochaufgelöste intra-annuelle Sauerstoffisotopenzeitreihen erstellt, um den Transfer des saisonalen Niederschlagssignals in den jeweiligen Jahrring zu bemessen. Die ermittelte Sauerstoff-Isotopenchronologie wurde anschließend auf mögliche ENSO Signale hin untersucht. Methodische Errungenschaften | Ein zweites Ziel dieser Arbeit war es neue Verfahren zur Analyse stabiler Isotope in Baumjahrringen zu entwickeln und zu optimieren. Zwei verschiedene UV-Lasermikrodissektions-Systeme wurden getestet als neues präzises Präparationswerkzeug für stabile Isotopenstudien. Darüber hinaus wurde eine verbesserte Methode für die Probenaufbereitung stabiler Isotopenmessungen anhand von Zellulose-Dünnschnitten entwickelt. Die wichtigsten Ergebnisse dieser Doktorarbeit sind: I) Die hier vorgestellten neuartigen Techniken zu Probenvorbereitung verbessern die Analyse stabiler Isotope für Jahrringstudien in Hinsicht auf Präzision, Effizienz und Qualität. Es wurde gezeigt, dass die UV-Lasermikrodissektion eine wertvolle Technik ist, um die Beprobung von Pflanzengewebe in höchster Auflösung und beispielloser Präzision durchzuführen. II) Es ist gelungen, einen Leitfaden für ein modifiziertes Verfahren der Zelluloseextraktion an Gesamtholz-Dünnschnitten und der anschließenden Jahrringaufbereitung zu erstellen. Diese neuartige Methode optimiert die Analyse stabiler Isotopenzeitreihen in zweierlei Hinsicht: schnellere und effiziente Zelluloseextraktion und präzise Trennung der Jahrringsequenzen in inter-annueller bis intra-annuelle Auflösung. III) Die hundertjährigen stabilen Jahrring-Isotopenchronologien weisen signifikante Korrelationen mit dem regionalen Niederschlag auf. In den hochaufgelösten stabilen Sauerstoffisotopenwerten spiegelt sich deutlich das Niederschlagssignal der Trocken- und der Regenzeit wieder. IV) Die stabile Sauerstoffisotopenzeitreihe zeigt signifikante Korrelationen mit verschiedenen ENSO Phasen. Dies betont, dass die verschiedenen ENSO Phasen bei der Interpretation von tropischen Paläodaten zu berücksichtigen sind. Die Ergebnisse der Dissertation zeigen, dass saisonal aufgelöste stabile Sauerstoffisotopenchronologien von indonesischen Teakbäumen ein geeigneter Proxy für mehrhundertjährige Rekonstruktionen der regionalen Niederschlagsvariabilität (Monsun-Signale) und großräumiger Ozean-Atmosphären-Systeme (ENSO) für den Indopazifik ist. Darüber hinaus bieten die neuartigen methodischen Errungenschaften viele neue Ansätze für multidisziplinäre hochaufgelöste Studien in der paläoklimatologischen Forschung. KW - Stabile Sauerstoff- und Kohlenstoffisotope KW - Dendroklimatologie KW - Tectona grandis KW - Tropen KW - UV-Lasermikrodissektion KW - oxygen and carbon stable isotopes KW - dendroclimatology KW - Tectona grandis KW - tropics KW - UV-laser microdissection Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71947 ER - TY - THES A1 - Biegholdt, Georg T1 - Theorie und Praxis der Lerngruppensprache im Musikunterricht T1 - Theory and practice of learning group language in music lessons N2 - Der Umgang mit der musikalischen Fachsprache wird in den meisten Lehrplänen für den Musikunterricht der Sekundarstufe I gefordert. Allerdings fehlt nicht nur in den Lehrplänen, sondern auch in der musikdidaktischen Literatur eine inhaltliche Ausgestaltung dieser Forderung. Über Inhalt, Umfang und Ziel der in der Schule anzuwendenden musikalischen Fachsprache herrscht daher keine Klarheit. Empirische Untersuchungen zu den sprachlichen Inhalten im Musikunterricht liegen ebenfalls nicht vor. Auch in vielen anderen Unterrichtsfächern ist die Forschungslage die sprachlichen Inhalte betreffend überschaubar. Mit der Verwendung von Sprache sind jedoch nicht nur Kommunikationsprozesse verbunden, sondern gleichzeitig Lernprozesse innerhalb der Sprache, von der Wortschatzerweiterung bis zur Herstellung von inhaltlich-thematischen Zusammenhängen. Diese Lernprozesse werden beeinflusst von der Wortwahl der Lernenden und Lehrenden. Die Wortwahl der Lernenden lässt gleichzeitig einen Schluss zu auf den Stand des Wissens und dessen Vernetzung. Auf dieser Basis ist der sprachliche Inhalt des Musikunterrichtes der Gegenstand der vorgelegten Arbeit. Ziel der Studie war herauszu¬finden, inwieweit es gelingen kann, durch die Art und Weise des Einsatzes und den Umfang von Fachsprache im Musikunterricht Lernprozesse effektiver und erfolgreicher zu gestalten und besser an Gegenwarts- und Zukunftsbedürfnissen der Lernenden auszurichten. N2 - Dealing with the musical technical terminology is required in most curricula for the teaching of music in the secondary school level. However, lacking in the curriculum and in the music didactic literature a substantive aspect of this requirement. About the content, scope and purpose of the applicable school musical technical terminology, there is no clarity. Empirical studies on the linguistic content in music lessons are also not available. In many other subjects, the research situation, the linguistic content is rare. With the use of language are connected communication processes and learning processes within the language of the vocabulary extension to the production of content and thematic connections. These learning processes are influenced by the choice of words the students and teachers. The wording of the learners can be at the same time a conclusion as to the state of knowledge and its networking. On this basis, the linguistic content of the music teaching is the subject of this study. The aim of the study was to find out discover what extent it possible to make by way of the use and scope of the technical language in music teaching learning process more effective and more successful and better align to current and future needs of the learner. KW - Lerngruppensprache KW - musikalische Fachsprache KW - Musikpädagogik KW - learning group language KW - technical music terminology KW - music pedagogy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69657 ER - TY - THES A1 - Bacskai-Atkari, Julia T1 - The syntax of comparative constructions : operators, ellipsis phenomena and functional left peripheries T1 - Die Syntax von Vergleichskonstruktionen : Operatoren, Ellipsenphänomene und funktionale linke Peripherien N2 - Adopting a minimalist framework, the dissertation provides an analysis for the syntactic structure of comparatives, with special attention paid to the derivation of the subclause. The proposed account explains how the comparative subclause is connected to the matrix clause, how the subclause is formed in the syntax and what additional processes contribute to its final structure. In addition, it casts light upon these problems in cross-linguistic terms and provides a model that allows for synchronic and diachronic differences. This also enables one to give a more adequate explanation for the phenomena found in English comparatives since the properties of English structures can then be linked to general settings of the language and hence need no longer be considered as idiosyncratic features of the grammar of English. First, the dissertation provides a unified analysis of degree expressions, relating the structure of comparatives to that of other degrees. It is shown that gradable adjectives are located within a degree phrase (DegP), which in turn projects a quantifier phrase (QP) and that these two functional layers are always present, irrespectively of whether there is a phonologically visible element in these layers. Second, the dissertation presents a novel analysis of Comparative Deletion by reducing it to an overtness constraint holding on operators: in this way, it is reduced to morphological differences and cross-linguistic variation is not conditioned by way of postulating an arbitrary parameter. Cross-linguistic differences are ultimately dependent on whether a language has overt operators equipped with the relevant – [+compr] and [+rel] – features. Third, the dissertation provides an adequate explanation for the phenomenon of Attributive Comparative Deletion, as attested in English, by way of relating it to the regular mechanism of Comparative Deletion. I assume that Attributive Comparative Deletion is not a universal phenomenon, and its presence in English can be conditioned by independent, more general rules, while the absence of such restrictions leads to its absence in other languages. Fourth, the dissertation accounts for certain phenomena related to diachronic changes, examining how the changes in the status of comparative operators led to changes in whether Comparative Deletion is attested in a given language: I argue that only operators without a lexical XP can be grammaticalised. The underlying mechanisms underlying are essentially general economy principles and hence the processes are not language-specific or exceptional. Fifth, the dissertation accounts for optional ellipsis processes that play a crucial role in the derivation of typical comparative subclauses. These processes are not directly related to the structure of degree expressions and hence the elimination of the quantified expression from the subclause; nevertheless, they are shown to be in interaction with the mechanisms underlying Comparative Deletion or the absence thereof. N2 - Unter Verwendung eines minimalistischen Frameworks wird in der Dissertation eine Analyse der syntaktischen Struktur von Vergleichskonstruktionen vorgestellt, mit besonderem Augenmerk auf der Ableitung des eingebetteten Satzes. Die vorgeschlagene Analyse erklärt, wie der komparative Nebensatz mit dem Matrixsatz verbunden ist, wie der Nebensatz in der Syntax gebildet wird und welche zusätzlichen Prozesse zu seiner endgültigen Struktur beitragen. Außerdem beleuchtet sie diese Probleme aus cross-linguistischer Sicht und bietet ein Modell, das synchrone und diachrone Unterschiede berücksichtigt. Dies ermöglicht auch eine adäquatere Erklärung der Phänomene in englischen Vergleichskonstruktionen, da die Eigenschaften der englischen Strukturen mit allgemeinen Eigenschaften der Sprache verknüpft werden und es daher nicht mehr nötig ist, sie als idiosynkratrische Merkmale der Grammatik der englischen Sprache zu behandeln. Die Dissertation bietet zum einen eine einheitliche Analyse von Gradphrasen, wobei die Struktur von Vergleichskonstruktionen mit der von anderen Graden verbunden wird. Es wird gezeigt, dass graduierbare Adjektive sich in einer Gradphrase (degree phrase, DegP) befinden, die wiederum eine Quantorenphrase (QP) projiziert, und dass diese beiden Funktionsschichten immer vorhanden sind, unabhängig davon, ob es ein phonologisch sichtbares Element in diesen Schichten gibt. Zweitens präsentiert die Dissertation eine neue Analyse von Komparativ-Tilgung (Comparative Deletion), die auf eine Overtheits-Bedingung für Operatoren reduziert wird: dadurch wird das Phänomen auf morphologische Unterschiede zurückgeführt, und cross-linguistische Variation wird nicht durch die Postulierung eines arbiträren Parameters begründet. Cross-linguistische Unterschiede sind letztlich davon abhängig, ob eine Sprache overte Operatoren mit den relevanten Merkmalen – [+ compr] und [+ rel] – hat. Drittens bietet die Dissertation eine adäquate Erklärung für das Phänomen der attributiven Komparativ-Tilgung (Attributive Comparative Deletion), wie man sie im Englischen findet, indem sie mit dem regulären Mechanismus der Komparativ-Tilgung in Zusammenhang gebracht wird. Ich gehe davon aus, dass attributive Komparativ-Tilgung kein universelles Phänomen ist, und dass ihr Vorhandensein im Englischen durch unabhängige, allgemeinere Regeln erfasst werden kann, während das Fehlen solcher Regeln zur Abwesenheit des Phänomens in anderen Sprachen führt. Viertens erklärt die Dissertation bestimmte Phänomene in Bezug auf diachronische Veränderungen und untersucht, wie Veränderungen im Status der Komparativoperatoren beeinflussen, ob Komparativ-Tilgung in einer Sprache vorkommt: Ich argumentiere dafür, dass nur Operatoren ohne eine lexikalische XP grammatikalisiert werden können. Die zugrunde liegenden Mechanismen sind im Wesentlichen allgemeine Prinzipien der Ökonomie, und damit sind die Prozesse nicht sprachspezifisch oder Ausnahmen. Fünftens bietet die Dissertation eine Erklärung für optionale Ellipsenprozesse, die bei der Ableitung von typischen komparativen Nebensätzen eine entscheidende Rolle spielen. Diese Prozesse haben nicht direkt mit der Struktur von Gradphrasen und somit mit der Entfernung der quantifizierten Phrase aus dem Nebensatz zu tun; aber es wird gezeigt, dass sie mit den Mechanismen, die Komparativ-Tilgung oder deren Abwesenheit zugrunde liegen, interagieren. KW - komparative Nebensätze KW - Komparativ-Tilgung KW - Gradphrasen KW - linke Peripherie KW - Overtheits-Bedingung KW - comparative subclauses KW - Comparative Deletion KW - degree phrases KW - left periphery KW - overtness requirement Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71255 SN - 978-3-86956-301-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schmitt, Clemens Nikolaus Zeno T1 - The role of protein metal complexes in the mechanics of Mytilus californianus byssal threads T1 - Der Einfluss von Protein-Metall-Komplexen auf die mechanischen Eigenschaften der Byssusfäden von Mytilus californianus N2 - Protein-metal coordination complexes are well known as active centers in enzymatic catalysis, and to contribute to signal transduction, gas transport, and to hormone function. Additionally, they are now known to contribute as load-bearing cross-links to the mechanical properties of several biological materials, including the jaws of Nereis worms and the byssal threads of marine mussels. The primary aim of this thesis work is to better understand the role of protein-metal cross-links in the mechanical properties of biological materials, using the mussel byssus as a model system. Specifically, the focus is on histidine-metal cross-links as sacrificial bonds in the fibrous core of the byssal thread (Chapter 4) and L-3,4-dihydroxyphenylalanine (DOPA)-metal bonds in the protective thread cuticle (Chapter 5). Byssal threads are protein fibers, which mussels use to attach to various substrates at the seashore. These relatively stiff fibers have the ability to extend up to about 100 % strain, dissipating large amounts of mechanical energy from crashing waves, for example. Remarkably, following damage from cyclic loading, initial mechanical properties are subsequently recovered by a material-intrinsic self-healing capability. Histidine residues coordinated to transition metal ions in the proteins comprising the fibrous thread core have been suggested as reversible sacrificial bonds that contribute to self-healing; however, this remains to be substantiated in situ. In the first part of this thesis, the role of metal coordination bonds in the thread core was investigated using several spectroscopic methods. In particular, X-ray absorption spectroscopy (XAS) was applied to probe the coordination environment of zinc in Mytilus californianus threads at various stages during stretching and subsequent healing. Analysis of the extended X-ray absorption fine structure (EXAFS) suggests that tensile deformation of threads is correlated with the rupture of Zn-coordination bonds and that self-healing is connected with the reorganization of Zn-coordination bond topologies rather than the mere reformation of Zn-coordination bonds. These findings have interesting implications for the design of self-healing metallopolymers. The byssus cuticle is a protective coating surrounding the fibrous thread core that is both as hard as an epoxy and extensible up to 100 % strain before cracking. It was shown previously that cuticle stiffness and hardness largely depend on the presence of Fe-DOPA coordination bonds. However, the byssus is known to concentrate a large variety of metals from seawater, some of which are also capable of binding DOPA (e.g. V). Therefore, the question arises whether natural variation of metal composition can affect the mechanical performance of the byssal thread cuticle. To investigate this hypothesis, nanoindentation and confocal Raman spectroscopy were applied to the cuticle of native threads, threads with metals removed (EDTA treated), and threads in which the metal ions in the native tissue were replaced by either Fe or V. Interestingly, replacement of metal ions with either Fe or V leads to the full recovery of native mechanical properties with no statistical difference between each other or the native properties. This likely indicates that a fixed number of metal coordination sites are maintained within the byssal thread cuticle – possibly achieved during thread formation – which may provide an evolutionarily relevant mechanism for maintaining reliable mechanics in an unpredictable environment. While the dynamic exchange of bonds plays a vital role in the mechanical behavior and self-healing in the thread core by allowing them to act as reversible sacrificial bonds, the compatibility of DOPA with other metals allows an inherent adaptability of the thread cuticle to changing circumstances. The requirements to both of these materials can be met by the dynamic nature of the protein-metal cross-links, whereas covalent cross-linking would fail to provide the adaptability of the cuticle and the self-healing of the core. In summary, these studies of the thread core and the thread cuticle serve to underline the important and dynamic roles of protein-metal coordination in the mechanical function of load-bearing protein fibers, such as the mussel byssus. N2 - Protein-Metall Bindungen sind vor allem durch ihre Rolle in physiologischen Prozessen bekannt. Vor kurzem jedoch wurde eine völlig andere Funktion dieser chemischen Bindungen, als lasttragendes Vernetzungselement in Kieferzangen mariner Ringelwürmer der Gattung Nereis und Byssusfäden mariner Muscheln der Gattung Mytilus (Miesmuscheln) entdeckt. Ziel dieser Dissertation ist es, am Beispiel von M. californianus Byssusfäden, ein besseres Verständnis des Einflusses von Protein-Metall Komplexen auf die mechanischen Eigenschaften biologischer Materialien zu erlangen. Byssusfäden sind Proteinfasern, welche Miesmuscheln zur sicheren Befestigung verwenden. Diese relativ steifen Fäden können bis zu 100 % gedehnt zu werden, ohne zu brechen. Bei sofortiger Wiederbelastung zeigt sich jedoch eine Verschlechterung der mechanischen Eigenschaften des Materials. Erstaunlicherweise können sich die mechanischen Eigenschaften der Fäden hiervon wieder erholen. Es wird angenommen, dass im Faserkern der Byssusfäden die Aminosäure Histidin Bindungen mit Metallionen eingeht, welche als reversible Opferbindungen fungieren können und so einen Selbstheilungsprozess ermöglichen. In dieser Arbeit wurde der Beitrag von Protein-Zink Bindungen zur Mechanik der Byssusfäden mittels Röntgenabsorptionsspektroskopie (XAS), untersucht. Die ermittelten Daten legen nahe, dass Zn-Aminosäure Bindungen unter Dehnung der Byssusfäden brechen. Des Weiteren scheint der Selbstheilungsprozess nicht auf der bloßen Wiederherstellung dieser Bindungen zu beruhen, sondern viel mehr auf der Regenerierung der anfänglichen Bindungsstruktur und -verteilung. Diese Erkenntnisse stellen interessante Konzepte für die Entwicklung von selbstheilenden Metallopolymeren bereit. Die relativ harte Hülle der Byssusfäden schützt den Faserkern vor Abrieb. Laut Literatur basiert ihre Härte und Steifigkeit hauptsächlich auf der Quervernetzung durch Fe-DOPA (eine modifizierte Aminosäure) Bindungen. Jedoch können verschiedene Metalle aus dem Meerwasser in Byssusfäden aufgenommen werden und auch Bindungen mit DOPA bilden. Daher stellt sich die Frage, nach dem Zusammenhang zwischen mechanischen Eigenschaften und der Metallzusammensetzung der Byssushülle. Um dieser Frage nachzugehen, wurden die Metallionen aus der Hülle natürlicher Byssusfäden entfernt, und durch entweder Fe oder V ersetzt. Anschließend wurden die mechanischen Eigenschaften der Hüllen der behandelten und unbehandelten Byssusfäden mittels Nanoindentierung bestimmt. Interessanterweise besteht kein Unterschied der mechanischen Eigenschaften der natürlichen und modifizierten Hüllen der Byssusfäden, was dafür spricht, dass in der Hülle der Byssusfäden eine feste Anzahl an Protein-Metall Quervernetzungspunkten vorhanden ist, die möglicherweise durch den speziellen Produktionsprozess der Fäden festgelegt wird. Dies könnte eine evolutionäre Anpassung des Byssus darstellen, um eine verlässliche Verankerung des Organismus in verschiedenen Umgebungen zu gewährleisten. Während die Dynamik der Protein-Metall Bindungen ihnen eine Rolle als chemische Opferbindung im selbstheilenden Faserkern erlaubt, ermöglicht sie die Funktion der Hülle unter Verwendung verschiedener Metalle. Andere nicht-kovalente Wechselwirkungen haben sicherlich eine ähnliche Dynamik, und kovalente Bindungen sind stabiler, aber nur Protein-Metall Bindungen erlauben eine stabile und dynamische Quervernetzung, ohne die weder das Anpassungsvermögen der Hülle, noch das Selbstheilungsvermögen des Faserkerns möglich wären. Die Untersuchungen der Hülle und des Faserkerns der Byssusfäden verdeutlichen die Wichtigkeit der Protein-Metall Bindungen und ihrer Dynamik für die mechanische Funktion lasttragender Proteinfasern, wie dem Byssus der Miesmuscheln. KW - biomaterials KW - self-healing materials KW - protein-metal interaction KW - Biomaterialien KW - selbstheilende Materialien KW - Protein-Metall-Wechselwirkung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74216 ER - TY - THES A1 - Schaefer, Laura T1 - Synchronisationsphänomene myotendinöser Oszillationen interagierender neuromuskulärer Systeme T1 - Synchronization phenomena of myotendinal oscillations during interaction of neuromuscular systems BT - mit Betrachtung einer Hypothese bezüglich unterschiedlicher Qualitäten isometrischer Muskelaktion BT - considering a hypothesis regarding different qualities of isometric muscle action N2 - Muskeln oszillieren nachgewiesener Weise mit einer Frequenz um 10 Hz. Doch was geschieht mit myofaszialen Oszillationen, wenn zwei neuromuskuläre Systeme interagieren? Die Dissertation widmet sich dieser Fragestellung bei isometrischer Interaktion. Während der Testmessungen ergaben sich Hinweise für das Vorhandensein von möglicherweise zwei verschiedenen Formen der Isometrie. Arbeiten zwei Personen isometrisch gegeneinander, können subjektiv zwei Modi eingenommen werden: man kann entweder isometrisch halten – der Kraft des Partners widerstehen – oder isometrisch drücken – gegen den isometrischen Widerstand des Partners arbeiten. Daher wurde zusätzlich zu den Messungen zur Interaktion zweier Personen an einzelnen Individuen geprüft, ob möglicherweise zwei Formen der Isometrie existieren. Die Promotion besteht demnach aus zwei inhaltlich und methodisch getrennten Teilen: I „Single-Isometrie“ und II „Paar-Isometrie“. Für Teil I wurden mithilfe eines pneumatisch betriebenen Systems die hypothetischen Messmodi Halten und Drücken während isometrischer Aktion untersucht. Bei n = 10 Probanden erfolgte parallel zur Aufzeichnung des Drucksignals während der Messungen die Erfassung der Kraft (DMS) und der Beschleunigung sowie die Aufnahme der mechanischen Muskeloszillationen folgender myotendinöser Strukturen via Mechanomyo- (MMG) bzw. Mechanotendografie (MTG): M. triceps brachii (MMGtri), Trizepssehne (MTGtri), M. obliquus externus abdominis (MMGobl). Pro Proband wurden bei 80 % der MVC sowohl sechs 15-Sekunden-Messungen (jeweils drei im haltenden bzw. drückenden Modus; Pause: 1 Minute) als auch vier Ermüdungsmessungen (jeweils zwei im haltenden bzw. drückenden Modus; Pause: 2 Minuten) durchgeführt. Zum Vergleich der Messmodi Halten und Drücken wurden die Amplituden der myofaszialen Oszillationen sowie die Kraftausdauer herangezogen. Signifikante Unterschiede zwischen dem haltenden und dem drückenden Modus zeigten sich insbesondere im Bereich der Ermüdungscharakteristik. So lassen Probanden im haltenden Modus signifikant früher nach als im drückenden Modus (t(9) = 3,716; p = .005). Im drückenden Modus macht das längste isometrische Plateau durchschnittlich 59,4 % der Gesamtdauer aus, im haltenden sind es 31,6 % (t(19) = 5,265, p = .000). Die Amplituden der Single-Isometrie-Messungen unterscheiden sich nicht signifikant. Allerdings variieren die Amplituden des MMGobl zwischen den Messungen im drückenden Modus signifikant stärker als im haltenden Modus. Aufgrund dieser teils signifikanten Unterschiede zwischen den beiden Messmodi wurde dieses Setting auch im zweiten Teil „Paar-Isometrie“ berücksichtigt. Dort wurden n = 20 Probanden – eingeteilt in zehn gleichgeschlechtliche Paare – während isometrischer Interaktion untersucht. Die Sensorplatzierung erfolgte analog zu Teil I. Die Oszillationen der erfassten MTG- sowie MMG-Signale wurden u.a. mit Algorithmen der Nichtlinearen Dynamik auf ihre Kohärenz hin untersucht. Durch die Paar-Isometrie-Messungen zeigte sich, dass die Muskeln und die Sehnen beider neuromuskulärer Systeme bei Interaktion im bekannten Frequenzbereich von 10 Hz oszillieren. Außerdem waren sie in der Lage, sich bei Interaktion so aufeinander abzustimmen, dass sich eine signifikante Kohärenz entwickelte, die sich von Zufallspaarungen signifikant unterscheidet (Patchanzahl: t(29) = 3,477; p = .002; Summe der 4 längsten Patches: t(29) = 7,505; p = .000). Es wird der Schluss gezogen, dass neuromuskuläre Komplementärpartner in der Lage sind, sich im Sinne kohärenten Verhaltens zu synchronisieren. Bezüglich der Parameter zur Untersuchung der möglicherweise vorhandenen zwei Formen der Isometrie zeigte sich bei den Paar-Isometrie-Messungen zwischen Halten und Drücken ein signifikanter Unterschied bei der Ermüdungscharakteristik sowie bezüglich der Amplitude der MMGobl. Die Ergebnisse beider Teilstudien bestärken die Hypothese, dass zwei Formen der Isometrie existieren. Fraglich ist, ob man überhaupt von Isometrie sprechen kann, da jede isometrische Muskelaktion aus feinen Oszillationen besteht, die eine per Definition postulierte Isometrie ausschließen. Es wird der Vorschlag unterbreitet, die Isometrie durch den Begriff der Homöometrie auszutauschen. Die Ergebnisse der Paar-Isometrie-Messungen zeigen u.a., dass neuromuskuläre Systeme in der Lage sind, ihre myotendinösen Oszillationen so aufeinander abzustimmen, dass kohärentes Verhalten entsteht. Es wird angenommen, dass hierzu beide neuromuskulären Systeme funktionell intakt sein müssen. Das Verfahren könnte für die Diagnostik funktioneller Störungen relevant werden. N2 - Muscles oscillate with a frequency of about 10 Hz. But what happens with myofascial oscillations if two neuromuscular systems interact? The dissertation is devoted to this question during isometric interaction. The test measurements provide hints for the presence of possibly two different forms of isometric muscle action. When two persons work against each other, each individual can subjectively choose to take up one of two modes: one can either hold isometrically – thus resist the force of the partner – or one can push isometrically – and therefore work against the resistance of the partner. In addition to the measurements to determine the interaction of neuromuscular systems, measurements with single individuals were done to evaluate the question, if probably two forms of isometric muscle action exist. The doctoral thesis consists of two separate parts concerning the content and methodology: I “Single Isometric” and II “Coupled Isometric”. For part I the hypothetical measurement modes - “holding” and “pushing” during isometric muscle action - were examined using a pneumatic system. During the measurements of n = 10 subjects the signal of pressure, force (strain gauge) and acceleration were recorded. Furthermore, the detection of the mechanic muscle oscillations of the following myotendinal structures occurred via Mechanomyo- (MMG) and Mechanotendography (MTG), respectively: triceps brachii muscle (MMGtri), tendon of triceps brachii muscle (MTGtri) and obliquus externus abdominis muscle (MMGobl). Each test person performed at 80 % of MVC six 15-seconds-measurements (three at holding and three at pushing mode, respectively; break: 1 min.) as well as four fatigue measurements (two at holding and two at pushing mode, respectively; break: 2 min.). In order to compare the two measurement modes holding and pushing, the amplitude of the myofascial oscillations as well as the force endurance were used. Significant differences between the holding and the pushing mode appeared especially when looking at the characteristics of fatigue. Subjects in the holding mode yielded earlier than during the pushing one (t(9) = 3.716; p = .005). In the pushing mode the longest isometric plateau amounts 59.4 % of the overall duration of the measurement. During holding it lasted 31.6 % (t(19) = 5.265, p = .000). The amplitudes of the single-isometric-measurements did not differ significantly. But the amplitude of the MMGobl varied significantly stronger during the pushing mode comparing to the holding one. Due to these partly significant differences between both measurement modes, this setting was considered for the second part „Coupled-Isometric“, too. For the coupled-isometric-measurements n = 20 subjects – divided into same-sex couples – were investigated during isometric interaction. The placement of the sensors is analogous to part I. The oscillations of the recorded MMG- and MTG-signals were analyzed regarding their coherence inter alia by algorithms of non-linear dynamics. Through the coupled-isometric-measurements it was shown, that also during isometric interaction the muscles and the tendons of both neuromuscular systems oscillate at the known frequency range of 10 Hz. Moreover, the systems are able to coordinate them in such a manner, that a significant coherence appears. This differed significantly from random pairings (number of patches: t(29) = 3.477; p = .002; Sum of 4 longest patches: t(29) = 7.505; p = .000). Thus it is concluded that neuromuscular complementary partners are able to synchronize themselves in the sense of coherent behavior. Regarding the parameters concerning the possibly existing forms of isometric muscle action, a significant difference at the coupled-isometric-measurements between holding and pushing appeared with respect to the characteristics of fatigue as well as the amplitudes of the MMGobl. The results of both sub studies strengthen the hypothesis that two forms of isometric muscle action exist. It is questionable whether one can talk of isometry at all, since each isometric muscle action consists of fine oscillations. This excludes a by definition postulated isometry. It is proposed to exchange this term with homeometry. The results of the coupled-isometric-measurements show inter alia, that neuromuscular systems are able to coordinate their myotendinal oscillations, so that coherent behavior arises. It is supposed that for this both systems have to be functionally intact. This procedure could become relevant for diagnostics of functional disorders. KW - Mechanomyografie KW - myofasziale Oszillationen KW - Isometrie KW - Interaktion KW - Synchronisation KW - mechanomyography KW - myofascial oscillations KW - isometric muscle action KW - interaction KW - synchronization Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72445 ER - TY - THES A1 - Pussak, Marcin T1 - Seismic characterization of geothermal reservoirs by application of the common-reflection-surface stack method and attribute analysis T1 - Seismische Charakterisierung von geothermischen Reservoiren mittels “Common-Reflection-Surface” Stapelungs-Methode und Attribut-Analysen N2 - An important contribution of geosciences to the renewable energy production portfolio is the exploration and utilization of geothermal resources. For the development of a geothermal project at great depths a detailed geological and geophysical exploration program is required in the first phase. With the help of active seismic methods high-resolution images of the geothermal reservoir can be delivered. This allows potential transport routes for fluids to be identified as well as regions with high potential of heat extraction to be mapped, which indicates favorable conditions for geothermal exploitation. The presented work investigates the extent to which an improved characterization of geothermal reservoirs can be achieved with the new methods of seismic data processing. The summations of traces (stacking) is a crucial step in the processing of seismic reflection data. The common-reflection-surface (CRS) stacking method can be applied as an alternative for the conventional normal moveout (NMO) or the dip moveout (DMO) stack. The advantages of the CRS stack beside an automatic determination of stacking operator parameters include an adequate imaging of arbitrarily curved geological boundaries, and a significant increase in signal-to-noise (S/N) ratio by stacking far more traces than used in a conventional stack. A major innovation I have shown in this work is that the quality of signal attributes that characterize the seismic images can be significantly improved by this modified type of stacking in particular. Imporoved attribute analysis facilitates the interpretation of seismic images and plays a significant role in the characterization of reservoirs. Variations of lithological and petro-physical properties are reflected by fluctuations of specific signal attributes (eg. frequency or amplitude characteristics). Its further interpretation can provide quality assessment of the geothermal reservoir with respect to the capacity of fluids within a hydrological system that can be extracted and utilized. The proposed methodological approach is demonstrated on the basis on two case studies. In the first example, I analyzed a series of 2D seismic profile sections through the Alberta sedimentary basin on the eastern edge of the Canadian Rocky Mountains. In the second application, a 3D seismic volume is characterized in the surroundings of a geothermal borehole, located in the central part of the Polish basin. Both sites were investigated with the modified and improved stacking attribute analyses. The results provide recommendations for the planning of future geothermal plants in both study areas. N2 - Ein wichtiger Beitrag der Geowissenschaften zur Bereitstellung erneuerbarer Energien besteht in der Nutzbarmachung von geothermischen Ressourcen. Für die Entwicklung von geothermischen Anlagen in großen Tiefen ist in der ersten Phase eine detaillierte geologisch-geophysikalische Erkundung erforderlich. Hierbei werden Informationen über das Temperaturfeld, zur Litho-Stratigraphie und Strukturgeologie, Geomechanik, Hydrogeologie sowie petrophysikalische Eigenschaften im Reservoir-Maßstab benötigt. Mit Hilfe aktiver seismischer Methoden können hochauflösende Abbilder des geothermischen Reservoirs geliefert werden. Dadurch können potentielle Transportwege für Fluide sowie Regionen mit hohem Wärmeabsorptionspotential identifiziert und kartiert werden. Die vorgelegte Arbeit untersucht, inwieweit mit neuen Methoden der seismischen Datenbearbeitung eine verbesserte Charakterisierung von geothermischen Reservoiren erreicht werden kann. Die Stapelung ist ein entscheidender Schritt bei der Bearbeitung von seismischen Felddaten. Die sogenannte “common-reflection-surface” Stapelung ist eine Erweiterung des klassischen Stapelungs-Konzepts. Durch ihre Anwendung können detailliertere und zuverlässigere Abbilder des Untergrundes gewonnen werden. Als wichtige Neuerung habe ich in der Arbeit aufgezeigt, dass durch diese modifizierte Art der Stapelung insbesondere die Qualität von Signalattribut-Darstellungen der seismischen Abbilder signifikant verbessert wird. Signalattribute sind ein wichtiges Werkzeug bei der Untersuchung von Reservoiren. Variationen der lithologischen und petrophysikalischen Eigenschaften spiegeln sich in Variationen in bestimmten Signalattributen (z.B. Frequenzeigenschaften, Amplitudeneigenschaften) wieder. Daraus kann auf die Qualität des geothermischen Reservoirs, z.B. hinsichtlich der Aufnahmefähigkeit von Fluiden zur Wärmeabsorption in Kreislaufsystemen, geschlossen werden. Das vorgeschlagenen methodische Konzept wird an Hand von 2 Fallstudien demonstriert. Im ersten Beispiel analysierte ich eine Reihe von 2D seismischen Profilschnitten durch das Alberta-Sedimentbecken am Ostrand der kanadischen Rocky Mountains. Bei der zweiten Anwendung wird ein 3D seismisches Volumen im Umfeld einer Geothermie-Bohrung im Zentralteil des Polnischen Sedimentbeckens mit Hilfe der modifizierten Stapelung und verbesserten Attribut-Analysen charakterisiert. Die Ergebnisse ermöglichen Empfehlungen für die Planung zukünftiger Geothermie-Anlagen in beiden Untersuchungsgebieten. KW - seismic KW - geothermischer Reservoire KW - seismische Stapelungs-Methode KW - Attribut-Analysen KW - Verarbeitung seismischer Daten KW - Common-Reflection-Surface Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77565 ER - TY - THES A1 - Schulz, Anneli T1 - Search for gamma-ray emission from bow shocks of runaway stars T1 - Suche nach Gammastrahlungsemission aus Bugwellen von Schnellläufersternen N2 - The mystery of the origin of cosmic rays has been tackled for more than hundred years and is still not solved. Cosmic rays are detected with energies spanning more than 10 orders of magnitude and reaching energies up to ~10²¹ eV, far higher than any man-made accelerator can reach. Different theories on the astrophysical objects and processes creating such highly energetic particles have been proposed. A very prominent explanation for a process producing highly energetic particles is shock acceleration. The observation of high-energy gamma rays from supernova remnants, some of them revealing a shell like structure, is clear evidence that particles are accelerated to ultrarelativistic energies in the shocks of these objects. The environments of supernova remnants are complex and challenge detailed modelling of the processes leading to high-energy gamma-ray emission. The study of shock acceleration at bow shocks, created by the supersonic movement of individual stars through the interstellar medium, offers a unique possibility to determine the physical properties of shocks in a less complex environment. The shocked medium is heated by the stellar and the shock excited radiation, leading to thermal infrared emission. 28 bow shocks have been discovered through their infrared emission. Nonthermal radiation in radio and X-ray wavelengths has been detected from two bow shocks, pointing to the existence of relativistic particles in these systems. Theoretical models of the emission processes predict high-energy and very high-energy emission at a flux level in reach of current instruments. This work presents the search for gamma-ray emission from bow shocks of runaway stars in the energy regime from 100MeV to ~100TeV. The search is performed with the large area telescope (LAT) on-board the Fermi satellite and the H.E.S.S. telescopes located in the Khomas Highland in Namibia. The Fermi-LAT was launched in 2008 and is continuously scanning the sky since then. It detects photons with energies from 20MeV to over 300 GeV and has an unprecedented sensitivity. The all-sky coverage allows us to study all 28 bow shocks of runaway stars listed in the E-BOSS catalogue of infrared bow shocks. No significant emission was detected from any of the objects, although predicted by several theoretical models describing the non-thermal emission of bow shocks of runaway stars. The H.E.S.S. experiment is the most sensitive system of imaging atmospheric Cherenkov telescopes. It detects photons from several tens of GeV to ~100TeV. Seven of the bow shocks have been observed with H.E.S.S. and the data analysis is presented in this thesis. The analyses of the very-high energy data did not reveal significant emission from any of the sources either. This work presents the first systematic search for gamma-ray emission from bow shocks of runaway stars. For the first time Fermi-LAT data was specifically analysed to reveal emission from bow shocks of runaway stars. In the TeV regime no searches for emission from theses objects have been published so far, the study presented here is the first in this energy regime. The level of the gamma-ray emission from bow shocks of runaway stars is constrained by the calculated upper limits over six orders in magnitude in energy. The upper limits calculated for the bow shocks of runaway stars in the course of this work, constrain several models. For the best candidate, ζ Ophiuchi, the upper limits in the Fermi-LAT energy range are lower than the predictions by a factor ~5. This challenges the assumptions made in this model and gives valuable input for further modelling approaches. The analyses were performed with the software packages provided by the H.E.S.S. and Fermi collaborations. The development of a unified analysis framework for gamma-ray data, namely GammaLib/ctools, is rapidly progressing within the CTA consortium. Recent implementations and cross-checks with current software frameworks are presented in the Appendix. N2 - Das Rätsel des Ursprungs der kosmischen Strahlung wird seit über 100 Jahren angegangen und ist noch immer nicht gelöst. Kosmische Strahlung wird mit Energien die zehn Größenordnungen überspannen gemessen und erreicht Energien bis zu ~10²¹ eV, weit höher als irgendein menschengemachter Beschleuniger erzeugen kann. Verschiedene Theorien über die astrophysikalischen Objekte und Prozesse, die solch hochenergetische Teilchen erzeugen können, wurden vorgeschlagen. Eine prominente Erklärung für einen Prozess, der hochenergetische Teilchen erzeugt ist Schockbeschleunigung. Die Detektion von hochenergetischer Gammastrahlung von Supernovaüberresten, von denen einige schalenförmige Strukturen offenbarten, ist ein klarer Beweis für die Beschleunigung von Teilchen zu ultrarelativistischen Energien in den Schocks dieser Objekte. Die Umgebung von Supernovaüberresten ist komplex und das detaillierte Modellieren der Prozesse die zu hochenergetischer Gammastrahlung führen herausfordernd. Die Untersuchung von Schockbeschleunigung an Bugwellen, die durch individuelle Sterne erzeugt werden, die sich mit Überschallgeschwindigkeit durch das interstellare Medium bewegen, bietet die einmalige Gelegenheit die physikalischen Eigenschaften von Schocks in einer weniger komplexen Umgebung zu bestimmen. Das komprimierte ("geschockte") Medium wird durch die Strahlung des Sterns und die durch den Schock angeregte Strahlung erhitzt und sendet infolgedessen thermische Infrarot-Strahlung aus. Nichtthermische Strahlung, die auf die Existenz von relativistischen Teilchen hinweist, wurde von zwei Bugwellen in Radio- und Röntgen-Wellenlängen gemessen. Theoretische Modelle der Strahlungsprozesse sagen hochenergetische und sehr hochenergetische Strahlung auf einem Niveau, welches mit aktuellen Instrumenten gemessen werden kann, voraus. Diese Arbeit präsentiert die Suche nach hochenergetischer Gammastrahung von Bugwellen von Schnellläufersternen in einem Energiebereich von 100MeV bis ~100TeV. Diese Suche wird mit dem "large area telescope"(LAT) an Bord des Fermi Satelliten und den H.E.S.S. Teleskopen, die im Khomas Hochland in Namibia in Betrieb sind, durchgeführt. Der Fermi Satellit wurde 2008 gestartet und das Fermi-LAT durchmustert seitdem kontinuierlich den Himmel. Es detektiert Photonen im Energiebereich von 20MeV bis über 300GeV und hat eine noch nie dagewesene Sensitivität. Die Abdeckung des gesamten Himmels erlaubt es alle 28 Bugwellen von Schnellläufersternen, die im E-BOSS Katalog aufgelistet sind, zu untersuchen. Von keiner der Bugwellen der Schnellläufersterne konnte signifikante Strahlung nachgewiesen werden, obwohl diese von theoretischen Modellen, die die nichtthermische Emission von Bugwellen von Schnellläufersternen beschreiben, vorausgesagt wurde. Das H.E.S.S. Experiment ist das sensitivste System von abbildenden Cherenkovteleskopen. Es kann Photonen mit Energien von einigen zehn GeV bis zu ~100TeV nachweisen. Sieben der Bugwellen von Schnellläufersternen wurden mit H.E.S.S. beobachtet und die Analyse der Daten wird in dieser Arbeit präsentiert. Auch die Analysen der sehr hochenergetischen Strahlung enthüllten keine signifikante Strahlung aus den Bugwellen der Schnellläufersterne. Diese Arbeit stellt die erste systematische Suche nach Gammastrahlung aus Bugwellen von Schnellläufersternen vor. Zum ersten Mal wurden Fermi-LAT Daten speziell zur Suche nach Emission von diesen Objekten analysiert. Im TeV-Energiebereich wurden bisher noch keine Suchen nach Gammastrahlung von Schnellläufersternen publiziert, die hier vorgestellte Studie ist also die erste in diesem Energiebereich. Das Niveau des Gammastrahlungflusses von Schnellläufersternen wird über einen sechs Größenordnungen überspannenden Energiebereich eingeschränkt. Die oberen Grenzen des Gammastrahlungs usses aus Bugwellen von Schnellläufersternen schränken verschiedene Modelle ein. Für den besten Kandidaten, ζ Ophiuchi, liegen die berechneten oberen Grenzen im Fermi-LAT Energiebereich einen Faktor ~5 unter den Vorhersagen. Dies fordert die Annahmen des Modells heraus und liefert wertvolle Bedingungen für weitere Modellierungsansätze. Die präsentierten Analysen wurden mit den Softwarepakten, die von den Fermi und H.E.S.S. Kollaborationen zur Verfügung gestellt werden, durchgeführt. Die Entwicklung einer gemeinsamen Analyseumgebung namens GammaLib/ctools wird im Rahmen des CTA Konsortiums umgesetzt. Neue Implementierungen und Gegenproben zu den momentanen Analyseumgebungen werden im Anhang präsentiert. KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - GammaLib/ctools KW - Bugwellenschocks KW - Schnellläufersterne KW - gamma-ray astronomy KW - Fermi KW - H.E.S.S KW - gammalib/ctools KW - bow shocks KW - runaway stars Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73905 ER - TY - THES A1 - Kirchhecker, Sarah T1 - Renewable imidazolium zwitterions as platform molecules for the synthesis of ionic liquids and materials T1 - Neue funktionalisierte Imidazoliumverbindungen als Bausteinmoleküle aus Biomasse und ihre Verwendung zur Synthese von ionischen Flüssigkeiten und Materialien N2 - Following the principles of green chemistry, a simple and efficient synthesis of functionalised imidazolium zwitterionic compounds from renewable resources was developed based on a modified one-pot Debus-Radziszewski reaction. The combination of different carbohydrate-derived 1,2-dicarbonyl compounds and amino acids is a simple way to modulate the properties and introduce different functionalities. A representative compound was assessed as an acid catalyst, and converted into acidic ionic liquids by reaction with several strong acids. The reactivity of the double carboxylic functionality was explored by esterification with long and short chain alcohols, as well as functionalised amines, which led to the straightforward formation of surfactant-like molecules or bifunctional esters and amides. One of these di-esters is currently being investigated for the synthesis of poly(ionic liquids). The functionalisation of cellulose with one of the bifunctional esters was investigated and preliminary tests employing it for the functionalisation of filter papers were carried out successfully. The imidazolium zwitterions were converted into ionic liquids via hydrothermal decarboxylation in flow, a benign and scalable technique. This method provides access to imidazolium ionic liquids via a simple and sustainable methodology, whilst completely avoiding contamination with halide salts. Different ionic liquids can be generated depending on the functionality contained in the ImZw precursor. Two alanine-derived ionic liquids were assessed for their physicochemical properties and applications as solvents for the dissolution of cellulose and the Heck coupling. N2 - In dieser Arbeit wurden, den Prinzipien der nachhaltigen Chemie folgend, neue funktionalisierte Imidazolium-Verbindungen aus Biomasse hergestellt. Diese wurden als Plattformmoleküle verwendet, die durch einfache Derivation in verschiedene andere Verbindungen überführt, und als Bausteine für die Herstellung von Materialien genutzt werden können. Imidazolium Zwitterionen (ImZw) wurden in Eintopfreaktionen in Wasser dargestellt, wobei alle Ausgangsstoffe auf nachwachsenden Rohstoffen basierten Durch die Verwendung von Aminosaeuren wurden die ImZw durch die Wahl der verschiedenen Seitenketten direkt funktionalisiert. Die Säureeigenschaften der Moleküle wurden bestimmt und ihre Eignung als Katalysatoren überprüft. An einer Modellverbindung ewurden verschiedene Modifikationen der Carboxylgruppen unternommen, u.a. wurde es mit verschiedenen Alkoholen esterifiziert, und anfolgend auch mit verschiedenen Aminen amidiert. Eines von den esterifizierten ImZw wurde als Monomer für die Synthese einer komplett aus nachwachsenden Rohstoffen hergestellten polyionischen Flüssigkeit verwendet, sowie für die Funktionalisierung von Cellulosefasern und Filterpapieren. Des weiteren wurden die ImZw unter hydrothermalen Bedingungen in der Gegenwart von Essigsäure decarboxyliert und so in ionische Flüssigkeiten überführt. Diese Reaktionen wurden in einem Durchflußreaktor durchgeführt, der gegenüber anderen Synthesemethoden weniger Energie verwendet. Die so hergestellten ionischen Flüssigkeiten wurden in zwei Anwendungen getestet, wo sie sehr vielversprechende Ergebnisse zeigten. Eine wurde als Lösungsmittel in einer Heck Reaktion verwendet, wo der Pd-Katalysator 5 mal ohne Aktivitätsverlust recycelt werden konnte eine andere konnte einen hohe Menge an Cellulose (16.9 wt%) lösen. KW - ionic liquids KW - platform chemicals KW - renewables KW - imidazolium KW - green chemistry KW - hydrothermal KW - ionische Flüssigkeiten KW - nachhaltige Chemie KW - Imidazolium KW - Zwitterionen KW - nachwachsende Rohstoffe Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77412 ER - TY - THES A1 - Videla, Santiago T1 - Reasoning on the response of logical signaling networks with answer set programming T1 - Modellierung Logischer Signalnetzwerke mittels Antwortmengenprogrammierung N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. KW - Systembiologie KW - logische Signalnetzwerke KW - Antwortmengenprogrammierung KW - systems biology KW - logical signaling networks KW - answer set programming Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71890 ER - TY - THES A1 - Mayer, Michael T1 - Pulsar wind nebulae at high energies BT - a diverse population and exceptional twins BT - eine vielfältige Population und außergewöhnliche Zwillinge N2 - Pulsar wind nebulae (PWNe) are the most abundant TeV gamma-ray emitters in the Milky Way. The radiative emission of these objects is powered by fast-rotating pulsars, which donate parts of their rotational energy into winds of relativistic particles. This thesis presents an in-depth study of the detected population of PWNe at high energies. To outline general trends regarding their evolutionary behaviour, a time-dependent model is introduced and compared to the available data. In particular, this work presents two exceptional PWNe which protrude from the rest of the population, namely the Crab Nebula and N 157B. Both objects are driven by pulsars with extremely high rotational energy loss rates. Accordingly, they are often referred to as energetic twins. Modelling the non-thermal multi-wavelength emission of N157B gives access to specific properties of this object, like the magnetic field inside the nebula. Comparing the derived parameters to those of the Crab Nebula reveals large intrinsic differences between the two PWNe. Possible origins of these differences are discussed in context of the resembling pulsars. Compared to the TeV gamma-ray regime, the number of detected PWNe is much smaller in the MeV-GeV gamma-ray range. In the latter range, the Crab Nebula stands out by the recent detection of gamma-ray flares. In general, the measured flux enhancements on short time scales of days to weeks were not expected in the theoretical understanding of PWNe. In this thesis, the variability of the Crab Nebula is analysed using data from the Fermi Large Area Telescope (Fermi-LAT). For the presented analysis, a new gamma-ray reconstruction method is used, providing a higher sensitivity and a lower energy threshold compared to previous analyses. The derived gamma-ray light curve of the Crab Nebula is investigated for flares and periodicity. The detected flares are analysed regarding their energy spectra, and their variety and commonalities are discussed. In addition, a dedicated analysis of the flare which occurred in March 2013 is performed. The derived short-term variability time scale is roughly 6h, implying a small region inside the Crab Nebula to be responsible for the enigmatic flares. The most promising theories explaining the origins of the flux eruptions and gamma-ray variability are discussed in detail. In the technical part of this work, a new analysis framework is presented. The introduced software, called gammalib/ctools, is currently being developed for the future CTA observa- tory. The analysis framework is extensively tested using data from the H. E. S. S. experiment. To conduct proper data analysis in the likelihood framework of gammalib/ctools, a model describing the distribution of background events in H.E.S.S. data is presented. The software provides the infrastructure to combine data from several instruments in one analysis. To study the gamma-ray emitting PWN population, data from Fermi-LAT and H. E. S. S. are combined in the likelihood framework of gammalib/ctools. In particular, the spectral peak, which usually lies in the overlap energy regime between these two instruments, is determined with the presented analysis framework. The derived measurements are compared to the predictions from the time-dependent model. The combined analysis supports the conclusion of a diverse population of gamma-ray emitting PWNe. N2 - Pulsarwindnebel (PWN) sind im Bereich der TeV Gammastrahlung die am häufigsten vorkommende Quellklasse. Die vorliegende Arbeit präsentiert eine detaillierte Studie der Population von gammastrahlungsemittierenden PWNn. Um ihre Entwicklung zu untersuchen, wird ein zeitabhängiges Modell vorgestellt und mit Messdaten verglichen. Der Fokus dieser Arbeit liegt des Weiteren auf zwei außergewöhnlichen PWNn, die aus der übrigen Population hervorstechen: der Krebsnebel und N 157B. Diese beiden PWN werden von Pulsaren mit ähnlich hohen Rotationsenergieverlustraten gespeist. Daher werden die beiden Pulsare auch oft als “energetische Zwillinge” bezeichnet. Im Rahmen dieser Arbeit wird die Breitbandemission von N 157B modelliert. Dies ermöglicht es, spezielle Eigenschaften dieses PWNs abzuschätzen. Diese sind im Vergleich zum Krebsnebel sehr unterschiedlich, obwohl sich die jeweiligen Energiequellen stark ähneln. Es werden verschiedene Möglichkeiten für die unterschiedliche Erscheinung dieser beiden Quellen diskutiert. Auf Grund kürzlich gemessener MeV Gammastrahlungsausbrüche wird die Einzigartigkeit des Krebsnebels in diesem Energiebereich verdeutlicht. Die auf Zeitskalen von Tagen bis Wochen variierende Helligkeit ist nach dem gegenwärtigen Verständnis von PWNn unerwartet. In dieser Arbeit wird die zeitliche Variabilität des Krebsnebels mit Daten vom Fermi Large Area Telescope (Fermi-LAT) analysiert. Die vorgestellte Datenanalyse basiert auf einer neuen Rekonstruktionsmethode von Gammastrahlen, welche zu einer höheren Empfindlichkeit und einer niedrigeren Energieschwelle führt. Die Lichtkurve des Krebsnebels in Gammastrahlung wird auf Periodizität und Variabilität untersucht. Des Weiteren werden die nachgewiesenen Strahlungsausbrüche hinsichtlich ihrer Energiespektren ausgewertet und miteinander auf Gemeinsamkeiten und Unterschiede verglichen. Zusätzlich wird eine detaillierte Analyse der starken Flusserhöhung vom März 2013 vorgestellt. Die hierbei bestimmte Kurzzeitvariabilität von ca. sechs Stunden lässt vermuten, dass eine sehr kleine Region innerhalb des Krebsnebels für die Strahlungsausbrüche verantwortlich ist. Die vielversprechendsten Theorien zu diesem Phänomen werden vorgestellt und diskutiert. Im technischen Teil dieser Arbeit wird eine neue Analyseumgebung vorgestellt, die derzeit für das zukünftige CTA Observatorium entwickelt wird. Diese Software wird intensiven Analysetests mit Daten des H.E.S.S. Experiments unterzogen. Für die angemessene Durchführung von H.E.S.S. Datenanalysen wird ein Modell vorgestellt, das die Verteilung der Untergrundereignisse in H. E. S. S. Daten beschreibt. Des Weiteren erlaubt die Analyseumgebung die Kombination von Daten mehrerer Instrumente. Diese einzigartige Option wird genutzt, um die beschriebene PWN Population genauer zu studieren. Zu diesem Zweck werden Daten von Fermi-LAT und H. E. S. S. gemeinsam analysiert. Von besonderem Interesse ist hierbei das spektrale Maximum von PWN, welches meist im energetischen Überlappbereich der beiden Instrumente liegt. Die Ergebnisse der gemeinsamen Analyse werden mit dem zeitabhängigen Modell für PWN verglichen. Die daraus gewonnenen Resultate verdeutlichen unter anderem die breite Vielfalt von PWNn. T2 - Pulsarwindnebel bei hohen Energien KW - Crab Nebula KW - N157B KW - gammalib/ctools KW - gamma-ray astronomy KW - data analysis KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - Statistische Datenanalyse KW - Krebsnebel KW - N157B KW - Pulsarwindnebel Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71504 ER - TY - THES A1 - Rogge-Solti, Andreas T1 - Probabilistic Estimation of Unobserved Process Events T1 - Probabilistische Abschätzung Unbeobachteter Prozessereignisse N2 - Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance. N2 - Unternehmen versuchen Wettbewerbsvorteile zu gewinnen und die Kundenzufriedenheit zu erhöhen. Um die Qualität und die Effizienz ihrer Prozesse zu gewährleisten, wenden Unternehmen Geschäftsprozessmanagement an. Hierbei spielt die Prozesskontrolle im täglichen Betrieb eine wichtige Rolle. Prozesskontrolle wird durch Prozessmonitoring ermöglicht, d.h. durch die Überwachung des Prozessfortschritts laufender Prozessinstanzen. So können Verzögerungen entdeckt und es kann entsprechend reagiert werden, um Prozesse wie erwartet und termingerecht beenden zu können. Um Prozessmonitoring zu ermöglichen, müssen prozessrelevante Ereignisse aus der Prozessumgebung gesammelt und ausgewertet werden. Sofern eine Prozessausführungsengine die Orchestrierung von Geschäftsprozessen übernimmt, kann jede Prozessaktivität überwacht werden. Aber viele Geschäftsprozesse eignen sich nicht für automatisierte Orchestrierung, da sie z.B. besonders viel Handlungsfreiheit erfordern. Dies ist in Krankenhäusern der Fall, in denen Geschäftsprozesse oft manuell durchgeführt werden. Daher ist es meist umständlich oder unmöglich, jeden Prozessfortschritt zu erfassen. Zudem ist händische Prozessausführung und -dokumentation fehleranfällig, so wird z.B. manchmal vergessen zu dokumentieren. Eine Herausforderung für Unternehmen ist, dass manche Prozessereignisse nicht im Prozessmonitoring erfasst werden. Solch unbeobachtete Prozessereignisse können jedoch als Entscheidungsgrundlage dienen, selbst wenn kein exaktes Wissen über den Zeitpunkt ihres Auftretens vorliegt. Zum Beispiel ist bei der Prozesskontrolle zu entscheiden, ob zusätzliche Ressourcen eingesetzt werden sollen, wenn eine Verspätung angenommen wird. Diese Arbeit stellt einen probabilistischen Ansatz für den Umgang mit unbeobachteten Prozessereignissen vor. Dabei werden entscheidende Fragen von Prozessmanagern beantwortet (z.B. "Wann werden wir den Fall beenden?", oder "Wann wurde die Aktivität ausgeführt, die nicht dokumentiert wurde?"). Der Hauptbeitrag der Arbeit ist die Einführung eines erweiterten probabilistischen Modells ins Geschäftsprozessmanagement, das auf stochastischen Petri Netzen basiert. Dabei wird ein ganzheitlicher Ansatz zur Unterstützung der einzelnen Phasen des Geschäftsprozesslebenszyklus verfolgt. Es werden Techniken zum Lernen des probabilistischen Modells, zum Vorhersagen des Zeitpunkts des Prozessendes, zum Qualitätsmanagement von Dokumentationen durch Erkennung fehlender Einträge, und zur Optimierung von Monitoringkonfigurationen bereitgestellt. Letztere dient zur Auswahl von relevanten Stellen im Prozess, die beobachtet werden sollten. Diese Techniken wurden in einer quelloffenen prototypischen Anwendung implementiert. Zur Evaluierung wird der Ansatz mit existierenden Alternativen an echten Prozessdaten eines Krankenhauses gemessen. Die generelle Anwendbarkeit in weiteren Domänen wird examplarisch an Prozessdaten aus der Logistik und dem Finanzwesen gezeigt. KW - Geschäftsprozessmanagement KW - stochastische Petri Netze KW - Bayessche Netze KW - Probabilistische Modelle KW - Vorhersage KW - Fehlende Daten KW - Process Mining KW - business process management KW - stochastic Petri nets KW - Bayesian networks KW - probabilistic models KW - prediction KW - missing data KW - process mining Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70426 ER - TY - THES A1 - Trost, Gerda T1 - Poly(A) Polymerase 1 (PAPS1) influences organ size and pathogen response in Arabidopsis thaliana T1 - Poly(A) Polymerase 1 (PAPS1) beeinflusst die Organgröße und Pathogenantwort in Arabidopsis thaliana N2 - Polyadenylation of pre-mRNAs is critical for efficient nuclear export, stability, and translation of the mature mRNAs, and thus for gene expression. The bulk of pre-mRNAs are processed by canonical nuclear poly(A) polymerase (PAPS). Both vertebrate and higher-plant genomes encode more than one isoform of this enzyme, and these are coexpressed in different tissues. However, in neither case is it known whether the isoforms fulfill different functions or polyadenylate distinct subsets of pre-mRNAs. This thesis shows that the three canonical nuclear PAPS isoforms in Arabidopsis are functionally specialized owing to their evolutionarily divergent C-terminal domains. A moderate loss-of-function mutant in PAPS1 leads to increase in floral organ size, whereas leaf size is reduced. A strong loss-of-function mutation causes a male gametophytic defect, whereas a weak allele leads to reduced leaf growth. By contrast, plants lacking both PAPS2 and PAPS4 function are viable with wild-type leaf growth. Polyadenylation of SMALL AUXIN UP RNA (SAUR) mRNAs depends specifically on PAPS1 function. The resulting reduction in SAUR activity in paps1 mutants contributes to their reduced leaf growth, providing a causal link between polyadenylation of specific pre-mRNAs by a particular PAPS isoform and plant growth. Additionally, opposite effects of PAPS1 on leaf and flower growth reflect the different identities of these organs. The overgrowth of paps1 mutant petals is due to increased recruitment of founder cells into early organ primordia whereas the reduced leaf size is due to an ectopic pathogen response. This constitutive immune response leads to increased resistance to the biotrophic oomycete Hyaloperonospora arabidopsidis and reflects activation of the salicylic acid-independent signalling pathway downstream of ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immune responses are accompanied by intracellular redox changes. Consistent with this, the redox-status of the chloroplast is altered in paps1-1 mutants. The molecular effects of the paps1-1 mutation were analysed using an RNA sequencing approach that distinguishes between long- and short tailed mRNA. The results shown here suggest the existence of an additional layer of regulation in plants and possibly vertebrate gene expression, whereby the relative activities of canonical nuclear PAPS isoforms control de novo synthesized poly(A) tail length and hence expression of specific subsets of mRNAs. N2 - Polyadenylierung von prä-mRNAs ist entscheidend für den Export aus dem Zellkern, die Stabilität und die Translation der reifen mRNAs und dadurch für die Genexpression. Der Großteil der mRNAs wird durch sogenannte canonische Poly(A) Polymerasen (cPAPS) prozessiert. Die Genome von sowohl Wirbeltieren als auch Pflanzen kodieren mehr als eine Isoform dieser Enzyme, welche gleichzeitig in verschiedenen Geweben exprimiert werden. Es ist jedoch kein Beispiel bekannt, das zeigt, ob die verschiedenen Isoformen unterschiedliche Funktionen einnehmen bzw. verschiedene Untergruppen von mRNAs polyadenylieren. Diese Arbeit zeigt, dass drei canonische PAPS Isoformen in Arabidopsis thaliana aufgrund ihrer evolutionär unterschiedlichen C-terminalen Domänen spezialisierte Funktionen haben. Eine schwache Verlust-Mutation im PAPS1 Gen bewirkt eine Vergrößerung der Blütenorgane, während die Blattgröße vermindert ist. Eine starke Verlust-Mutation bewirkt zusätzlich einen Defekt der männlichen Keimzellen. Im Gegenzug dazu sind Mutanten des PAPS2 oder PAPS4 Gens gesund und zeigen ein normales Wachstum. Polyadenylierung von SMALL AUXIN UP RNA (SAUR) mRNAs hängt spezifisch von der Funktion von PAPS1 ab. Die daraus entstehende Reduzierung der SAUR Aktivität in den paps1 Mutanten trägt zur Verringerung der Blattgröße bei und stellt eine kausale Verbindung zwischen Polyadenylierung spezifischer mRNAs durch bestimmte PAPS Isoformen und Pflanzenwachstum dar. Zusätzlich spiegeln die unterschiedlichen Effekte von PAPS1 auf Blüten und Blätter die Identitäten dieser Organe wieder. Das übermäßige Wachstum der mutanten Petalen beruht auf einer erhöhten Anzahl an Gründer-Zellen im frühen Primordium, wohingegen die verminderte Blattgröße auf eine ektopische Pathogen Antwort zurückzuführen ist. Diese konstitutive Immunantwort bewirkt eine erhöhte Resistenz der Mutanten gegenüber dem biotrophen Oomyceten Hyaloperonospora arabidopsidis und reflektiert die Aktivierung des Salizylsäure unabhängigen Signalweges von ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immunantworten sind von Veränderungen des intrazellulären Redoxpotenzials gekennzeichnet. Damit übereinstimmend zeigen die Chloroplasten der paps1-1 Mutanten ein verändertes Redoxpotenzial. Zur genaueren Aufklärung der molekularen Effekte der paps1 1 mutation wurde eine RNA-Sequenzierungsmethode verwendet, die zwischen mRNAs mit langem oder kurzem Poly(A) Schwanz unterscheidet. Die Aktivitäten der verschiedenen canonischen PAPS Isoformen kontrollieren die Länge des neu synthetisierten poly(A) Schwanzes und damit die Expression spezifischer Untergruppen von mRNAs. Dadurch lassen die hier gezeigten Ergebnisse eine weitere Ebene der Genregulierung in Pflanzen, und möglicherweise auch in anderen Eukaryoten, vermuten. KW - Polyadenylierung KW - Pathogenantwort KW - Organgröße KW - polyadenylation KW - pathogen response KW - organ size Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72345 ER - TY - THES A1 - Bamberg, Marlene T1 - Planetary mapping tools applied to floor-fractured craters on Mars T1 - Planetare Analysewerkzeuge am Anwendungsgebiet von Kratern mit zerbrochenen Boeden auf dem Mars N2 - Planetary research is often user-based and requires considerable skill, time, and effort. Unfortunately, self-defined boundary conditions, definitions, and rules are often not documented or not easy to comprehend due to the complexity of research. This makes a comparison to other studies, or an extension of the already existing research, complicated. Comparisons are often distorted, because results rely on different, not well defined, or even unknown boundary conditions. The purpose of this research is to develop a standardized analysis method for planetary surfaces, which is adaptable to several research topics. The method provides a consistent quality of results. This also includes achieving reliable and comparable results and reducing the time and effort of conducting such studies. A standardized analysis method is provided by automated analysis tools that focus on statistical parameters. Specific key parameters and boundary conditions are defined for the tool application. The analysis relies on a database in which all key parameters are stored. These databases can be easily updated and adapted to various research questions. This increases the flexibility, reproducibility, and comparability of the research. However, the quality of the database and reliability of definitions directly influence the results. To ensure a high quality of results, the rules and definitions need to be well defined and based on previously conducted case studies. The tools then produce parameters, which are obtained by defined geostatistical techniques (measurements, calculations, classifications). The idea of an automated statistical analysis is tested to proof benefits but also potential problems of this method. In this study, I adapt automated tools for floor-fractured craters (FFCs) on Mars. These impact craters show a variety of surface features, occurring in different Martian environments, and having different fracturing origins. They provide a complex morphological and geological field of application. 433 FFCs are classified by the analysis tools due to their fracturing process. Spatial data, environmental context, and crater interior data are analyzed to distinguish between the processes involved in floor fracturing. Related geologic processes, such as glacial and fluvial activity, are too similar to be separately classified by the automated tools. Glacial and fluvial fracturing processes are merged together for the classification. The automated tools provide probability values for each origin model. To guarantee the quality and reliability of the results, classification tools need to achieve an origin probability above 50 %. This analysis method shows that 15 % of the FFCs are fractured by intrusive volcanism, 20 % by tectonic activity, and 43 % by water & ice related processes. In total, 75 % of the FFCs are classified to an origin type. This can be explained by a combination of origin models, superposition or erosion of key parameters, or an unknown fracturing model. Those features have to be manually analyzed in detail. Another possibility would be the improvement of key parameters and rules for the classification. This research shows that it is possible to conduct an automated statistical analysis of morphologic and geologic features based on analysis tools. Analysis tools provide additional information to the user and are therefore considered assistance systems. N2 - Planetenforschung umfasst oft zeitintensive Projekte, bei denen Expertise und Erfahrung eine wesentliche Rolle spielen. Auf Grund äusserst komplexer und sich selten wiederholender Forschungsfragen sind Annahmen, Definitionen und Regeln zur Lösung dieser Fragen nicht leicht nachvollziehbar oder aber nicht eindeutig dokumentiert. Ein Vergleich der Ergebnisse unterschiedlicher Forscher zum selben Thema oder eine Erweiterung der Forschungsfrage macht dies somit nur schwer möglich. Vergleiche liefern oftmals verzerrte Ergebnisse, da die Ausgangslage und Randbedingungen unterschiedlich definiert worden sind. Das Ziel dieser Arbeit ist es eine Standardmethode zur Oberflächenanalyse zu entwickeln, die auf zahlreiche Untersuchungsfragen angewandt werden kann. Eine gleichbleibende Qualität der Ergebnisse muss durch diese Methode gewährleistet sein. Ein weiteres Ziel ist es, dass diese Methode ohne Vorwissen und Expertise angewandt werden kann und die Ergebnisse in kurzer Zeit vorliegen. Ausserdem müssen die Ergebnisse vergleichbar und nachvollziehbar sein. Automatisch operierende Analysewerkzeuge können die zahlreichen Anforderungen erfüllen und als Standardmethode dienen. Statistische Ergebnisse werden durch diese Methode erzielt. Die Werkzeuge basieren auf vordefinierten, geowissenschaftlichen Techniken und umfassen Messungen, Berechnungen und Klassifikationen der zu untersuchenden Oberflächenstrukturen. Für die Anwendung dieser Werkzeuge müssen Schlüsselstrukturen und Randbedingungen definiert werden. Des Weiteren benötigen die Werkzeuge eine Datenbank, in der alle Oberflächenstrukturen, aber auch Informationen zu den Randbedingungen gespeichert sind. Es ist mit geringem Aufwand möglich, Datenbanken zu aktualisieren und sie auf verschiedenste Fragestellungen zu adaptieren. Diese Tatsache steigert die Flexibilität, Reproduzierbarkeit und auch Vergleichbarkeit der Untersuchung. Die vordefinierten Randbedingungen und die Qualität der Datenbank haben jedoch auch direkten Einfluss auf die Qualität der Ergebnisse. Um eine gleichbleibend hohe Qualität der Untersuchung zu gewährleisten muss sichergestellt werden, dass alle vordefinierten Bedingungen eindeutig sind und auf vorheriger Forschung basieren. Die automatisch operierenden Analysewerkzeuge müssen als mögliche Standardmethode getestet werden. Hierbei geht es darum Vorteile, aber auch Nachteile zu identifizieren und zu bewerten. In dieser Arbeit werden die Analysewerkzeuge auf einen bestimmten Einschlagskratertyp auf dem Mars angewandt. Krater mit zerbrochenen Kraterböden (Floor-Fractured Craters) sind in verschiedensten Regionen auf dem Mars zu finden, sie zeigen zahlreiche Oberflächenstrukturen und wurden durch unterschiedliche Prozesse geformt. All diese Fakten machen diesen Kratertyp zu einem interessanten und im geologischen und morphologischen Sinne sehr komplexen Anwendungsgebiet. 433 Krater sind durch die Werkzeuge analysiert und je nach Entstehungsprozess klassifiziert worden. Für diese Analyse sind Position der Krater, Art des Umfeldes und Strukturen im Kraterinneren ausschlaggebend. Die kombinierten Informationen geben somit Auskunft über die Prozesse, welche zum Zerbrechen des Kraterbodens geführt haben. Die entwickelten Analysewerkzeuge können geologische Prozesse, die sehr ähnlich zueinander sind, von einander abhängig sind und zusätzlich auch dieselben Oberflächenstrukturen formen, nicht eindeutig unterscheiden. Aus diesem Grund sind fluviale und glaziale Entstehungsprozesse für den untersuchten Kratertyp zusammengefasst. Die Analysewerkzeuge liefern Wahrscheinlichkeitswerte für drei mögliche Entstehungsarten. Um die Qualität der Ergebnisse zu verbessern muss eine Wahrscheinlichkeit über 50 % erreicht werden. Die Werkzeuge zeigen, dass 15 % der Krater durch Vulkanismus, 20 % durch Tektonik und 43 % durch Wasser- und Eis-bedingte Prozesse gebildet wurden. Insgesamt kann für 75 % des untersuchten Kratertyps ein potentieller Entstehungsprozess zugeordnet werden. Für 25 % der Krater ist eine Klassifizierung nicht möglich. Dies kann durch eine Kombination von geologischen Prozessen, einer Überprägung von wichtigen Schlüsselstrukturen, oder eines bisher nicht berücksichtigten Prozesses erklärt werden. Zusammenfassend ist zu sagen, dass es möglich ist planetare Oberflächenstrukturen quantitativ durch automatisch operierende Analysewerkzeuge zu erfassen und hinsichtlich einer definierten Fragestellung zu klassifizieren. Zusätzliche Informationen können durch die entwickelten Werkzeuge erhalten werden, daher sind sie als Assistenzsystem zu betrachten. KW - Datenbank KW - Automatisierung KW - Klassifizierung KW - geologische Prozesse KW - Geomorphologie KW - database KW - automation KW - classification KW - geological processes KW - geomorphology Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72104 ER - TY - THES A1 - Holler, Markus T1 - Photon reconstruction for the H.E.S.S. 28 m telescope and analysis of Crab Nebula and galactic centre observations T1 - Photonrekonstruktion für das 28 m H.E.S.S. Teleskop und Analyse von Beobachtungen des Krebsnebels und des galaktischen Zentrums N2 - In the presented thesis, the most advanced photon reconstruction technique of ground-based γ-ray astronomy is adapted to the H.E.S.S. 28 m telescope. The method is based on a semi-analytical model of electromagnetic particle showers in the atmosphere. The properties of cosmic γ-rays are reconstructed by comparing the camera image of the telescope with the Cherenkov emission that is expected from the shower model. To suppress the dominant background from charged cosmic rays, events are selected based on several criteria. The performance of the analysis is evaluated with simulated events. The method is then applied to two sources that are known to emit γ-rays. The first of these is the Crab Nebula, the standard candle of ground-based γ-ray astronomy. The results of this source confirm the expected performance of the reconstruction method, where the much lower energy threshold compared to H.E.S.S. I is of particular importance. A second analysis is performed on the region around the Galactic Centre. The analysis results emphasise the capabilities of the new telescope to measure γ-rays in an energy range that is interesting for both theoretical and experimental astrophysics. The presented analysis features the lowest energy threshold that has ever been reached in ground-based γ-ray astronomy, opening a new window to the precise measurement of the physical properties of time-variable sources at energies of several tens of GeV. N2 - In der vorliegenden Dissertation wird die zur Zeit sensitivste Methode zur Photonrekonstruktion in der bodengebundenen Gammastrahlungsastronomie an das 28 m H.E.S.S. Teleskop angepasst. Die Analyse basiert auf einem semi-analytischen Modell von elektromagnetischen Teilchenschauern in der Erdatmosphäre. Die Rekonstruktion erfolgt durch den Vergleich des Bildes der Teleskopkamera mit der Tscherenkow-Emission, die mittels des Schauermodells berechnet wurde. Zur Verringerung des dominanten Untergrundes, der hauptsächlich durch Teilchen der geladenen kosmischen Strahlung hervorgerufen wird, werden Ereignisse anhand bestimmter Kriterien ausgewählt. Die Leistungsfähigkeit der Analyse wird unter Verwendung simulierter Ereignisse evaluiert. Die Methode wird anschließend auf zwei Gammastrahlungsquellen angewendet. Zuerst wird der Krebsnebel analysiert, die Standardkerze der bodengebundenen Gammastrahlungsastronomie. Die Resultate der Analyse des Krebsnebels bestätigen die bereits zuvor erwartete Leistungsfähigkeit der Rekonstruktionsmethode, wobei hier insbesondere die im Vergleich zu H.E.S.S. I stark verringerte Energieschwelle hervorzuheben ist. Als Zweites werden Beobachtungen der Region um das galaktische Zentrum ausgewertet. Die Analyseergebnisse dieser Daten unterstreichen die Fähigkeiten des neuen Teleskops zur Messung kosmischer Gammastrahlung in einem für die theoretische und experimentelle Astrophysik interessanten Energiebereich. Die vorgestellte Analyse besitzt die niedrigste Energieschwelle, die in der bodengebundenen Gammastrahlungsastronomie je erreicht wurde. Sie ermöglicht damit präzise Messungen der physikalischen Eigenschaften von zeitabhängigen Quellen im Energiebereich von 10 bis 100 GeV. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - galaktisches Zentrum KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula KW - galactic centre Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72099 ER - TY - THES A1 - Berdzinski, Stefan T1 - Photoinduzierte radikalische Polymerisation in ionischen Flüssigkeiten und der Einfluss der Radikalrekombination T1 - Photoinduced radical polymerization in ionic liquids and the influence of the radical recombination N2 - Die vorliegende Arbeit behandelt Untersuchungen zum Einfluss ionischer Flüssigkeiten sowohl auf den Rekombinationsprozess photolytisch generierter Lophylradikale als auch auf die photoinduzierte Polymerisation. Im Fokus standen hierbei pyrrolidiniumbasierte ionische Flüssigkeiten sowie polymerisierbare imidazoliumbasierte ionische Flüssigkeiten. Mittels UV-Vis-Spektroskopie wurde in den ionischen Flüssigkeiten im Vergleich zu ausgewählten organischen Lösungsmitteln die Rekombinationskinetik der aus o-Cl-HABI photolytisch generierten Lophylradikale bei unterschiedlichen Temperaturen verfolgt und die Geschwindigkeitskonstanten der Radikalrekombination bestimmt. Die Charakterisierung des Rekombinationsprozesses erfolgt dabei insbesondere unter Verwendung der mittels Eyring-Gleichung ermittelten Aktivierungsparameter. Hierbei konnte gezeigt werden, dass die Rekombination der Lophylradikale in den ionischen Flüssigkeiten im Gegensatz zu den organischen Lösungsmitteln zu einem großen Anteil innerhalb des Lösungsmittelkäfigs erfolgt. Weiterhin wurden für den Einsatz von o-Cl-HABI als Radikalbildner in den photoinduzierten Polymerisationen mehrere mögliche Co-Initiatoren über photokalorimetrische Messungen untersucht. Hierbei wurde auch ein neuer Aspekt zur Kettenübertragung vom Lophylradikal auf den heterocyclischen Co-Initiator vorgestellt. Darüber hinaus wurden photoinduzierte Polymerisationen unter Einsatz eines Initiatorsystems, bestehend aus o-Cl-HABI als Radikalbildner und einem heterocyclischen Co-Initiator, in den ionischen Flüssigkeiten untersucht. Diese Untersuchungen beinhalten zum einen photokalorimetrische Messungen der photoinduzierten Polymerisation von polymerisierbaren imidazoliumbasierten ionischen Flüssigkeiten. Zum anderen wurden Untersuchungen zur photoinduzierten Polymerisation von Methylmethacrylat in pyrrolidiniumbasierten ionischen Flüssigkeiten durchgeführt. Dabei wurden Einflussparameter wie Zeit, Temperatur, Viskosität, Lösungsmittelkäfigeffekt und die Alkylkettenlänge am Kation der ionischen Flüssigkeiten auf die Ausbeuten und Molmassen sowie Molmassenverteilungen der Polymere hin untersucht. N2 - This work examined the investigation of the influence of ionic liquids on both the recombination process of photolytically generated lophyl radicals and on the photoinduced polymerization. Pyrrolidinium-based ionic liquids as well as polymerizable imidazolium-based ionic liquids were here in particular interest. Recombination kinetics of photolytically generated lophyl radicals were examined in ionic liquids and selected organic solvents at different temperatures by using UV-Vis spectroscopy. Futhermore, rate constants and activation parameters of the radical recombination were used to characterize the recombination process in these different solvents. It was be shown that the recombination of the lophyl radicals occurs in the ionic liquids to a higher extent within the solvent cage in contrast to organic solvents. Also, prolongation of the alkyl chain at the cation of the ionic liquids leads to an increase of the in cage recombination in both the pyrrolidinium based ionic liquids, as well as in the ionic liquids of the polymerizable imidazolium based ionic liquids. Furthermore, selected coinitiators were investigated for photoinduced polymerization in combination with o-Cl-HABI as radical former by using photo calorimetry. Thereby a new aspect of the chain transfer from a lophyl radical to heterocyclic co-initiator was be shown. In addition, photo-induced polymerizations in the ionic liquids were investigated using an initiator system consisting of o-Cl-HABI as the radical former and a heterocyclic co-initiator. These studies include photo-induced polymerizations of polymerizable imidazolium-based ionic liquids, which were carried out by photo callorimetry. Furthermore, photo-induced polymerizations of methyl methacrylate were investigated in pyrrolidinium-based ionic liquids. In this conection time, temperature, viscosity, solvent cage effect and the alkyl chain length at the cation of the ionic liquids were examined as influencing parameters on yield, molecular weight and molecular weight distribution of the obtained polymers. KW - freie radikalische Polymerisation KW - ionische Flüssigkeiten KW - Radikalrekombination KW - lichtinduziert KW - free radical polymerization KW - ionic liquids KW - radical recombination KW - light induced Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72582 ER - TY - THES A1 - Ahmad, Nadeem T1 - People centered HMI’s for deaf and functionally illiterate users T1 - Menschen zentrierte Mensch-Maschine-Schnittstellen für Schwerhörige und ungeschulte Anwender N2 - The objective and motivation behind this research is to provide applications with easy-to-use interfaces to communities of deaf and functionally illiterate users, which enables them to work without any human assistance. Although recent years have witnessed technological advancements, the availability of technology does not ensure accessibility to information and communication technologies (ICT). Extensive use of text from menus to document contents means that deaf or functionally illiterate can not access services implemented on most computer software. Consequently, most existing computer applications pose an accessibility barrier to those who are unable to read fluently. Online technologies intended for such groups should be developed in continuous partnership with primary users and include a thorough investigation into their limitations, requirements and usability barriers. In this research, I investigated existing tools in voice, web and other multimedia technologies to identify learning gaps and explored ways to enhance the information literacy for deaf and functionally illiterate users. I worked on the development of user-centered interfaces to increase the capabilities of deaf and low literacy users by enhancing lexical resources and by evaluating several multimedia interfaces for them. The interface of the platform-independent Italian Sign Language (LIS) Dictionary has been developed to enhance the lexical resources for deaf users. The Sign Language Dictionary accepts Italian lemmas as input and provides their representation in the Italian Sign Language as output. The Sign Language dictionary has 3082 signs as set of Avatar animations in which each sign is linked to a corresponding Italian lemma. I integrated the LIS lexical resources with MultiWordNet (MWN) database to form the first LIS MultiWordNet(LMWN). LMWN contains information about lexical relations between words, semantic relations between lexical concepts (synsets), correspondences between Italian and sign language lexical concepts and semantic fields (domains). The approach enhances the deaf users’ understanding of written Italian language and shows that a relatively small set of lexicon can cover a significant portion of MWN. Integration of LIS signs with MWN made it useful tool for computational linguistics and natural language processing. The rule-based translation process from written Italian text to LIS has been transformed into service-oriented system. The translation process is composed of various modules including parser, semantic interpreter, generator, and spatial allocation planner. This translation procedure has been implemented in the Java Application Building Center (jABC), which is a framework for extreme model driven design (XMDD). The XMDD approach focuses on bringing software development closer to conceptual design, so that the functionality of a software solution could be understood by someone who is unfamiliar with programming concepts. The transformation addresses the heterogeneity challenge and enhances the re-usability of the system. For enhancing the e-participation of functionally illiterate users, two detailed studies were conducted in the Republic of Rwanda. In the first study, the traditional (textual) interface was compared with the virtual character-based interactive interface. The study helped to identify usability barriers and users evaluated these interfaces according to three fundamental areas of usability, i.e. effectiveness, efficiency and satisfaction. In another study, we developed four different interfaces to analyze the usability and effects of online assistance (consistent help) for functionally illiterate users and compared different help modes including textual, vocal and virtual character on the performance of semi-literate users. In our newly designed interfaces the instructions were automatically translated in Swahili language. All the interfaces were evaluated on the basis of task accomplishment, time consumption, System Usability Scale (SUS) rating and number of times the help was acquired. The results show that the performance of semi-literate users improved significantly when using the online assistance. The dissertation thus introduces a new development approach in which virtual characters are used as additional support for barely literate or naturally challenged users. Such components enhanced the application utility by offering a variety of services like translating contents in local language, providing additional vocal information, and performing automatic translation from text to sign language. Obviously, there is no such thing as one design solution that fits for all in the underlying domain. Context sensitivity, literacy and mental abilities are key factors on which I concentrated and the results emphasize that computer interfaces must be based on a thoughtful definition of target groups, purposes and objectives. N2 - Das Ziel und die Motivation hinter dieser Forschungsarbeit ist es, Anwendungen mit benutzerfreundlichen Schnittstellen für Gehörlose und Analphabeten bereitzustellen, welche es ihnen ermöglichen ohne jede menschliche Unterstützung zu arbeiten. Obwohl es in den letzten Jahren technologische Fortschritte gab, garantiert allein die Verfügbarkeit von Technik nicht automatisch die Zugänglichkeit zu Informations- und Kommunikationstechnologien (IKT). Umfangreiche Verwendung von Texten in Menüs bis hin zu Dokumenten führen dazu, dass Gehörlose und funktionale Analphabeten auf diese Dienste, die auf Computersystemen existieren, nicht zugreifen können. Folglich stellen die meisten bestehenden EDV-Anwendungen für diejenigen eine Hürde dar, die nicht fließend lesen können. Onlinetechnologien für solche Art von Gruppen sollten in kontinuierlichem Austausch mit den Hauptnutzern entwickelt werden und gründliche Untersuchung ihrer Einschränkungen, Anforderungen und Nutzungsbarrieren beinhalten. In dieser Forschungsarbeit untersuche ich vorhandene Tools im Bereich von Sprach-, Web- und anderen Multimedia-Technologien, um Lernlücken zu identifizieren und Wege zu erforschen, welche die Informationsalphabetisierung für Gehörlose und Analphabeten erweitert. Ich arbeitete an der Entwicklung einer nutzerzentrierten Schnittstelle, um die Fähigkeiten von Gehörlosen und Nutzern mit schlechter Alphabetisierung durch Verbesserung der lexikalischen Ressourcen und durch Auswertung mehrerer Multimediaschnittstellen zu erhöhen. Die Schnittstelle des plattformunabhängigen, italienischen Gebärdensprachen (LIS) Wörterbuches wurde entwickelt, um die lexikalischen Quellen für gehörlose Anwender zu verbessern. Ich integriere die LIS-lexikalischen Ressourcen mit der MultiWordNet (MWN)-Datenbank, um das erste LIS MultiWordNet (LMWN) zu bilden. LMWN enthält Informationen über lexikalische Beziehungen zwischen Wörtern, semantische Beziehungen zwischen lexikalischen Konzepten (Synsets), Gemeinsamkeiten zwischen italienischer und Gebärdensprache-lexikalischen Konzepten und semantischen Feldern (Domänen). Der Ansatz erhöht das Verständnis der tauben Nutzer geschriebene, italienischen Sprache zu verstehen und zeigt, dass ein relativ kleiner Satz an Lexika den wesentlichen Teil der MWN abdecken kann. Die Integration von LIS-Zeichen mit MWN machte es zu einem nützlichen Werkzeug für Linguistik und Sprachverarbeitung. Der regelbasierte Übersetzungsprozess von geschriebenem, italienischem Text zu LIS wurde in ein Service-orientiertes System überführt. Der Übersetzungsprozess besteht aus verschiedenen Modulen, einschließlich einem Parser, einem semantischen Interpreter, einem Generator und einem räumlichen Zuordnungs-Planer. Diese Übersetzungsprozedur wurde im Java Application Building Center (jABC) implementiert, welches ein Framework für das eXtrem Model Driven Design (XMDD) ist. Der XMDD-Ansatz konzentriert sich darauf die Softwareentwicklung näher zum konzeptionellen Design zu bringen, sodass die Funktionalität einer Softwarelösung von jemandem verstanden werden kann, der mit Programmierkonzepten unvertraut ist. Die Transformation richtet sich an die heterogene Herausforderung und verbessert die Wiederverwendbarkeit des Systems. Zur Verbesserung der E-Partizipation der funktionalen Analphabeten wurden zwei detaillierte Studien in der Republik Ruanda durchgeführt. In der ersten Studie wurde die traditionelle, textuelle Schnittstelle mit der virtuellen, charakterbasierten, interaktiven Schnittstelle verglichen. Diese Studie hat dazu beigetragen Barrieren der Benutzerfreundlichkeit zu identifizieren. Anwender evaluierten die Schnittstellen bezüglich drei grundlegender Bereiche der Benutzerfreundlichkeit: Effektivität, Effizienz und Zufriedenstellung bei der Problemlösung. In einer anderen Studie entwickelten wir vier verschiedene Schnittstellen, um die Benutzerfreundlichkeit und die Effekte der Online-Hilfe (konsequente Hilfe) für funktionale Analphabeten zu analysieren und verglichen verschiedene Hilfsmodi (einschließlich zusätzlicher Textinformationen, Audio-Unterstützung und mit Hilfe eines virtuellen Charakters) bezüglich der Verbesserung der Leistungsfähigkeit von teilweisen Analphabeten, um ihre Zielstellung zu erreichen. In unseren neu gestalteten Schnittstellen wurden Anweisungen automatisch in die Swahili Sprache übersetzt. Alle Schnittstellen wurden auf der Grundlage der Aufgabenbewältigung, des Zeitaufwands, der System Usability Scale (SUS) Rate und der Anzahl der Hilfegesuche bewertet. Die Ergebnisse zeigen, dass die Leistungsfähigkeit der teilweisen Analphabeten bei Nutzung der Online-Hilfe signifikant verbessert wurde. Diese Dissertation stellt somit einen neuen Entwicklungsansatz dar, bei welchem virtuelle Charaktere als zusätzliche Unterstützung genutzt werden, um Nutzer, die kaum lesen können oder sonstig eingeschränkt sind, zu unterstützen. Solche Komponenten erweitern die Anwendungsnutzbarkeit indem sie eine Vielzahl von Diensten wie das Übersetzen von Inhalten in eine Landessprache, das Bereitstellen von zusätzlichen akustisch, gesprochenen Informationen und die Durchführung einer automatischen Übersetzung von Text in Gebärdensprache bereitstellen. Offensichtlich gibt ist keine One Design-Lösung, die für alle zugrundeliegenden Domänen passt. Kontextsensitivität, Alphabetisierung und geistigen Fähigkeiten sind Schlüsselfaktoren, auf welche ich mich konzentriere. Die Ergebnisse unterstreichen, dass Computerschnittstellen auf einer exakten Definition der Zielgruppen, dem Zweck und den Zielen basieren müssen. KW - Mensch-Computer-Interaktion KW - assistive Technologien KW - HCI KW - user interfaces KW - sign language KW - online assistance KW - assistive technologies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70391 ER - TY - THES A1 - Strauß, Jens T1 - Organic carbon in ice-rich permafrost T1 - Organischer Kohlenstoff in eisreichen Permafrostablagerungen BT - characteristics, quantity, and availability BT - stoffliche Charakteristik, Bilanzierung und Verfügbarkeit N2 - Permafrost, defined as ground that is frozen for at least two consecutive years, is a distinct feature of the terrestrial unglaciated Arctic. It covers approximately one quarter of the land area of the Northern Hemisphere (23,000,000 km²). Arctic landscapes, especially those underlain by permafrost, are threatened by climate warming and may degrade in different ways, including active layer deepening, thermal erosion, and development of rapid thaw features. In Siberian and Alaskan late Pleistocene ice-rich Yedoma permafrost, rapid and deep thaw processes (called thermokarst) can mobilize deep organic carbon (below 3 m depth) by surface subsidence due to loss of ground ice. Increased permafrost thaw could cause a feedback loop of global significance if its stored frozen organic carbon is reintroduced into the active carbon cycle as greenhouse gases, which accelerate warming and inducing more permafrost thaw and carbon release. To assess this concern, the major objective of the thesis was to enhance the understanding of the origin of Yedoma as well as to assess the associated organic carbon pool size and carbon quality (concerning degradability). The key research questions were: - How did Yedoma deposits accumulate? - How much organic carbon is stored in the Yedoma region? - What is the susceptibility of the Yedoma region's carbon for future decomposition? To address these three research questions, an interdisciplinary approach, including detailed field studies and sampling in Siberia and Alaska as well as methods of sedimentology, organic biogeochemistry, remote sensing, statistical analyses, and computational modeling were applied. To provide a panarctic context, this thesis additionally includes results both from a newly compiled northern circumpolar carbon database and from a model assessment of carbon fluxes in a warming Arctic. The Yedoma samples show a homogeneous grain-size composition. All samples were poorly sorted with a multi-modal grain-size distribution, indicating various (re-) transport processes. This contradicts the popular pure loess deposition hypothesis for the origin of Yedoma permafrost. The absence of large-scale grinding processes via glaciers and ice sheets in northeast Siberian lowlands, processes which are necessary to create loess as material source, suggests the polygenetic origin of Yedoma deposits. Based on the largest available data set of the key parameters, including organic carbon content, bulk density, ground ice content, and deposit volume (thickness and coverage) from Siberian and Alaskan study sites, this thesis further shows that deep frozen organic carbon in the Yedoma region consists of two distinct major reservoirs, Yedoma deposits and thermokarst deposits (formed in thaw-lake basins). Yedoma deposits contain ~80 Gt and thermokarst deposits ~130 Gt organic carbon, or a total of ~210 Gt. Depending on the approach used for calculating uncertainty, the range for the total Yedoma region carbon store is ±75 % and ±20 % for conservative single and multiple bootstrapping calculations, respectively. Despite the fact that these findings reduce the Yedoma region carbon pool by nearly a factor of two compared to previous estimates, this frozen organic carbon is still capable of inducing a permafrost carbon feedback to climate warming. The complete northern circumpolar permafrost region contains between 1100 and 1500 Gt organic carbon, of which ~60 % is perennially frozen and decoupled from the short-term carbon cycle. When thawed and reintroduced into the active carbon cycle, the organic matter qualities become relevant. Furthermore, results from investigations into Yedoma and thermokarst organic matter quality studies showed that Yedoma and thermokarst organic matter exhibit no depth-dependent quality trend. This is evidence that after freezing, the ancient organic matter is preserved in a state of constant quality. The applied alkane and fatty-acid-based biomarker proxies including the carbon-preference and the higher-land-plant-fatty-acid indices show a broad range of organic matter quality and thus no significantly different qualities of the organic matter stored in thermokarst deposits compared to Yedoma deposits. This lack of quality differences shows that the organic matter biodegradability depends on different decomposition trajectories and the previous decomposition/incorporation history. Finally, the fate of the organic matter has been assessed by implementing deep carbon pools and thermokarst processes in a permafrost carbon model. Under various warming scenarios for the northern circumpolar permafrost region, model results show a carbon release from permafrost regions of up to ~140 Gt and ~310 Gt by the years 2100 and 2300, respectively. The additional warming caused by the carbon release from newly-thawed permafrost contributes 0.03 to 0.14°C by the year 2100. The model simulations predict that a further increase by the 23rd century will add 0.4°C to global mean surface air temperatures. In conclusion, Yedoma deposit formation during the late Pleistocene was dominated by water-related (alluvial/fluvial/lacustrine) as well as aeolian processes under periglacial conditions. The circumarctic permafrost region, including the Yedoma region, contains a substantial amount of currently frozen organic carbon. The carbon of the Yedoma region is well-preserved and therefore available for decomposition after thaw. A missing quality-depth trend shows that permafrost preserves the quality of ancient organic matter. When the organic matter is mobilized by deep degradation processes, the northern permafrost region may add up to 0.4°C to the global warming by the year 2300. N2 - Permafrost, definiert als mehr als zwei aufeinander folgende Jahre gefrorenes Bodenmaterial, ist eines der prägenden Merkmale der unvergletscherten arktischen Landgebiete. Verursacht durch extrem kalte Wintertemperaturen und geringe Schneebedeckung nimmt das Permafrost-Verbreitungsgebiet mit ~23.000.000 km² rund ein Viertel der Landfläche der Nordhemisphäre ein. Von Permafrost unterlagerte arktische Landschaften sind besonders anfällig hinsichtlich einer Erwärmung des Klimas. Verglichen mit der globalen Mitteltemperatur prognostizieren Klimamodelle für die Arktis einen doppelt so starken Anstieg der Temperatur. In einer sich erwärmenden Arktis bewirken Störungen des thermisch-hydrologischen Gleichgewichts eine Degradation von Permafrost und Veränderungen des Oberflächenreliefs. Diese Störungen können zum Beispiel zu einer Vertiefung der saisonalen Auftauschicht, zu thermisch bedingter Erosion sowie zu schneller Oberflächenabsenkung und Thermokarst führen. Im Verbreitungsgebiet der spätpleistozänen eisreichen Permafrost-Ablagerungen Sibiriens und Alaskas, bezeichnet als Yedoma, können Thermokarstprozesse auch mehr als 3 m tiefe organischen Kohlenstoffspeicher verfügbar machen, wenn durch schmelzendes Grundeis und Schmelzwasserdrainage die Oberfläche abgesenkt wird. So kann das Tauen von Permafrost eine globale Bedeutung entwickeln, indem vorher eingefrorener Kohlenstoff wieder dem aktiven Kohlenstoffkreislauf zugeführt wird. Dies kann durch Treibhausgasfreisetzung aus Permafrost zu einer sich selbst verstärkenden weiteren Erwärmung und somit zu fortschreitendem Tauen mit weiterer Kohlenstofffreisetzung führen. Diesen Prozess nennt man Permafrost-Kohlenstoff Rückkopplung. Um das Verständnis der Permafrostkohlenstoffdynamik grundlegend zu verbessern, wurde in dieser Doktorarbeit die Entstehung der Yedoma-Ablagerungen eingeschlossen des darin - Wie wurden die Yedoma-Sedimente abgelagert? - Wie viel Kohlenstoff ist in der Yedoma Region gespeichert? - Wie ist die Anfälligkeit dieses Kohlenstoffs für eine Degradation in der Zukunft? Um die oben genannten drei Forschungsfragen zu beantworten, wurde ein interdisziplinärer Forschungsansatz gewählt. In Sibirien und Alaska wurden detaillierte Felduntersuchungen durchgeführt und Methoden der Sedimentologie, der organischen Biogeochemie, der Fernerkundung sowie der statistischen Analyse und computergestützten Modellierung angewendet. Um diese Ergebnisse in den panarktische Kontext zu setzen, enthält diese Doktorarbeit ebenfalls Ergebnisse einer Studie, welche auf Grundlage einer neu zusammengestellten Datenbank den gesamten Kohlenstoff des arktischen Permafrosts abschätzt. Eine Modellierungsstudie ergänzt die Arbeit bezüglich einer Abschätzung der Kohlenstoffflüsse der Permafrostregion und deren Einfluss auf die globale Erwärmung. Die Ergebnisse zur Yedoma-Entstehung zeigen, dass die Korngrößenverteilungen dieser Ablagerungen, tiefenabhängig betrachtet, sehr homogen sind. Alle gemessenen Korngrößenverteilungen sind schlecht sortiert. Dies deutet auf eine Vielzahl von Transportprozessen hin und widerspricht der populären Hypothese einer reinen Löß-Ablagerung. Interpretiert im Kontext mit der Abwesenheit von Gletschern sowie Eisschilden, als Ausgangsgebiete von Löß-Ablagerungen, in den sibirischen Tiefländern des Spätpleistozäns, zeigt diese Arbeit, dass Yedoma-Ablagerungen polygenetischen Ursprungs sind. Basierend auf dem größten verfügbaren Datensatz der Schlüsselparameter Kohlenstoffgehalt, Lagerungsdichte, Grundeis und Volumen der Ablagerungen von über 20 Untersuchungsgebieten in Sibirien und Alaska zeigt diese Arbeit mit Yedoma- und Thermokarstablagerungen zwei wesentliche Kohlenstoffspeicher der Yedoma Region auf. Yedoma-Ablagerungen enthalten ~80 Gt und Thermokarstablagerungen ~130 Gt organischen Kohlenstoffs, was einer Gesamtmenge von ~210 Gt organischen Kohlenstoffs entspricht. Abhängig vom gewählten Ansatz der Fehlerberechnung liegt der Unsicherheitsbereich dieser Quantitätsabschätzung bei ±75 % (einfaches Bootstrapping) oder ±20 % (wiederholtes Bootstrapping). Obwohl diese Zahlen die bisherigen Berechnungen des Yedoma-Region-Kohlenstoffspeichers vorhergehender Studien halbieren, stellen 210 Gt organischen Kohlenstoffs noch immer einen großen Kohlenstoffspeicher dar, der eine positive Rückkopplung zur globalen Klimaerwärmung bewirken könnte. Die gesamte Permafrostregion beinhaltet zwischen 1100 und 1500 Gt Kohlenstoff, wovon ~60 % dauerhaft gefroren und somit dem derzeitigen Kohlenstoffkreislauf entzogen sind. Wenn dieser Kohlenstoff freigesetzt wird, ist ein weiterer Faktor, die Kohlenstoffqualität, relevant. Die Untersuchungen zur Kohlenstoffqualität zeigen keinen tiefenabhängigen Trend in Yedoma- und Thermokarstablagerungen. Dies belegt, dass nach dem Einfrieren die fossile organische Substanz konserviert wurde. Die genutzten Biomarkerdaten, z.B. der 'carbon preference' Index und der 'higher land plant fatty acid' Index zeigen sowohl für Yedoma- als auch für Thermokarstablagerungen keine signifikanten Unterschiede der Kohlenstoffqualität. Das bedeutet, dass der Kohlenstoffabbau nach dem Auftauen von unterschiedlichen Faktoren abhängig ist. Dazu gehören verschiedene Abbauwege oder schon vor dem Einfrieren geschehener Abbau. Um die Bedeutung des aufgetauten Kohlenstoffs abzuschätzen, wurden Thermokarstprozesse in ein Permafrost-Kohlenstoff-Modell einbezogen. Unter Berücksichtigung verschiedener Erwärmungsszenarien könnte die zirkumarktische Permafrostregion bis zum Jahr 2100 ~140 Gt Kohlenstoff und bis 2300 ~310 Gt in die Atmosphäre freisetzen. Dies entspricht einer Erwärmung der mittleren globalen Oberflächentemperatur von ~0,03 bis ~0,14°C bis 2100 und bis zu ~0,4°C bis 2300. Zusammenfassend stellt diese Dissertation heraus, dass die Yedoma-Ablagerungen während des Spätpleistozäns durch eine Kombination verschiedener aquatischer (alluviale, fluviale, lakustrine) sowie äolische Prozesse entstanden sind. Die zirkumarktische Region, inklusive der Yedoma Region, beinhaltet eine erhebliche Menge an derzeit eingefrorenem organischen Kohlenstoffs. Dieser Kohlenstoff ist gut erhalten und damit nach dem Auftauen für den mikrobiellen Abbau verfügbar. Eine fehlende Tiefenabhängigkeit der Kohlenstoffqualität zeigt, dass Permafrost die Qualität zum Einfrierzeitpunkt bewahrt. Wenn auch der tiefliegende organische Kohlenstoff durch Thermokarstprozesse verfügbar gemacht wird, kann die Permafrostregion bis zum Jahr 2300 bis zu 0,4°C zur mittleren globalen Oberflächentemperatur beitragen. KW - permafrost KW - Arctic KW - climate change KW - vulnerability KW - Dauerfrostboden KW - Arktis KW - Klimawandel KW - Vulnerabilität Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75236 ER - TY - THES A1 - Conrad, Claudia T1 - Open cluster groups and complexes T1 - Gruppen und Komplexe offener Sternhaufen N2 - It is generally agreed upon that stars typically form in open clusters and stellar associations, but little is known about the structure of the open cluster system. Do open clusters and stellar associations form isolated or do they prefer to form in groups and complexes? Open cluster groups and complexes could verify star forming regions to be larger than expected, which would explain the chemical homogeneity over large areas in the Galactic disk. They would also define an additional level in the hierarchy of star formation and could be used as tracers for the scales of fragmentation in giant molecular clouds? Furthermore, open cluster groups and complexes could affect Galactic dynamics and should be considered in investigations and simulations on the dynamical processes, such as radial migration, disc heating, differential rotation, kinematic resonances, and spiral structure. In the past decade there were a few studies on open cluster pairs (de La Fuente Marcos & de La Fuente Marcos 2009a,b,c) and on open cluster groups and complexes (Piskunov et al. 2006). The former only considered spatial proximity for the identification of the pairs, while the latter also required tangential velocities to be similar for the members. In this work I used the full set of 6D phase-space information to draw a more detailed picture on these structures. For this purpose I utilised the most homogeneous cluster catalogue available, namely the Catalogue of Open Cluster Data (COCD; Kharchenko et al. 2005a,b), which contains parameters for 650 open clusters and compact associations, as well as for their uniformly selected members. Additional radial velocity (RV) and metallicity ([M/H]) information on the members were obtained from the RAdial Velocity Experiment (RAVE; Steinmetz et al. 2006; Kordopatis et al. 2013) for 110 and 81 clusters, respectively. The RAVE sample was cleaned considering quality parameters and flags provided by RAVE (Matijevič et al. 2012; Kordopatis et al. 2013). To ensure that only real members were included for the mean values, also the cluster membership, as provided by Kharchenko et al. (2005a,b), was considered for the stars cross-matched in RAVE. 6D phase-space information could be derived for 432 out of the 650 COCD objects and I used an adaption of the Friends-of-Friends algorithm, as used in cosmology, to identify potential groupings. The vast majority of the 19 identified groupings were pairs, but I also found four groups of 4-5 members and one complex with 15 members. For the verification of the identified structures, I compared the results to a randomly selected subsample of the catalogue for the Milky Way global survey of Star Clusters (MWSC; Kharchenko et al. 2013), which became available recently, and was used as reference sample. Furthermore, I implemented Monte-Carlo simulations with randomised samples created from two distinguished input distributions for the spatial and velocity parameters. On the one hand, assuming a uniform distribution in the Galactic disc and, on the other hand, assuming the COCD data distributions to be representative for the whole open cluster population. The results suggested that the majority of identified pairs are rather by chance alignments, but the groups and the complex seemed to be genuine. A comparison of my results to the pairs, groups and complexes proposed in the literature yielded a partial overlap, which was most likely because of selection effects and different parameters considered. This is another verification for the existence of such structures. The characteristics of the found groupings favour that members of an open cluster grouping originate from a common giant molecular cloud and formed in a single, but possibly sequential, star formation event. Moreover, the fact that the young open cluster population showed smaller spatial separations between nearest neighbours than the old cluster population indicated that the lifetime of open cluster groupings is most likely comparable to that of the Galactic open cluster population itself. Still even among the old open clusters I could identify groupings, which suggested that the detected structure could be in some cases more long lived as one might think. In this thesis I could only present a pilot study on structures in the Galactic open cluster population, since the data sample used was highly incomplete. For further investigations a far more complete sample would be required. One step in this direction would be to use data from large current surveys, like SDSS, RAVE, Gaia-ESO and VVV, as well as including results from studies on individual clusters. Later the sample can be completed by data from upcoming missions, like Gaia and 4MOST. Future studies using this more complete open cluster sample will reveal the effect of open cluster groupings on star formation theory and their significance for the kinematics, dynamics and evolution of the Milky Way, and thereby of spiral galaxies. N2 - Es ist weithin anerkannt, dass Sterne typischerweise in offenen Sternenhaufen und Sternassoziationen entstehen, dennoch ist wenig über Strukturen in diesem System der offenen Sternhaufen bekannt. Entstehen offenen Sternhaufen und Sternassoziationen isoliert oder entstehen sie bevorzugt in Gruppen und Komplexen? Gruppen und Komplexe von offenen Sternhaufen könnten bestätigen, dass Sternentstehungsregionen größer sind als erwartet, was die Homogenität der chemischen Zusammensetzung über weite Areale in der galaktischen Scheibe erklären würde. Sie würden auch eine weitere Stufe in der Hierarchie der Sternentstehung definieren und könnten als Indikatoren für die Skalen der Fragmentierung in Riesenmolekülwolken dienen. Des Weiteren könnten Gruppen und Komplexe von offenen Sternhaufen die Dynamik unserer Galaxis beeinflussen und sollten in Untersuchungen und Simulationen von dynamischen Prozessen, wie radiale Migration, kinematische Aufheizung der Scheibe, differentielle Rotation, kinematische Resonanzen und der Spiralstruktur, miteinbezogen werden. In den vergangenen Jahrzehnten gab es einigen Studien zu Paaren von offenen Sternhaufen (de La Fuente Marcos & de La Fuente Marcos 2009a,b,c) sowie zu Gruppen und Komplexen von offenen Sternhaufen (Piskunov et al. 2006). Erstere betrachteten ausschließlich räumliche Nähe für die Identifizierung der Paare, während letztere auch ähnliche tangentiale Geschwindigkeiten für die Mitglieder verlangten. In dieser Arbeit nutzte ich den kompletten Satz an 6D-Phasenrauminformationen, um ein vollständigeres Bild dieser Strukturen zu erstellen. Aus diesem Grund habe ich den homogensten Sternhaufenkatalog verwendet, der zu dieser Zeit verfügbar war, nämlich den Catalogue of Open Cluster Data (COCD; Kharchenko et al. 2005a,b), welcher Parameter für 650 offene Sternhaufen und Sternassoziationen, sowie deren einheitlich ausgewählte Mitglieder, enthält. Weitere Radialgeschwindigkeits- (RV) und Metallizitätsinformationen ([M/H]) für die Sternhaufenmitglieder wurden mit Hilfe des RAdial Velocity Experiment (RAVE; Steinmetz et al. 2006; Kordopatis et al. 2013) für 110 beziehungsweise 81 Haufen bestimmt. Der RAVE-Datensatz wurde mit Hilfe von Qualitätsparametern aus RAVE (Matijevič et al. 2012; Kordopatis et al. 2013) gereinigt. Um sicherzustellen, dass nur echte Mitglieder für die Mittelwertbestimmung betrachtet wurden, wurde auch die Haufenmitgliedschaft, wie von Kharchenko et al. (2005a,b) bereitgestellt, für die in RAVE identifizierten Sterne miteinbezogen. 6D-Phasenrauminformationen konnten für 432 der 650 COCD Objekte bestimmt werden und ich habe eine angepasste Variante des Friends-of-Friends Algorithmus genutzt, der in der Kosmologie verwendet wird, um potenzielle Gruppierungen zu identifizieren. Der überwiegende Teil der 19 identifizierten Gruppierungen waren Paare, ich habe aber auch vier Gruppen mit 4-5 Mitgliedern und einen Komplex mit 15 Mitgliedern gefunden. Für die Bestätigung der identifizierten Strukturen, verglich ich die Ergebnisse mit einem zufällig ausgewählten Datensatz aus dem Milky Way global survey of Star Clusters (MWSC; Kharchenko et al. 2013), der kürzlich erst zur Verfügung gestellt wurde und hier als Vergleichsdatensatz verwendet wurde. Des Weiteren, habe ich Monte-Carlo Simulationen mit zufälligen Datensätzen implementiert, die anhand von zwei unterschiedlichen Varianten für die Ausgangsverteilungen der räumlichen und Geschwindigkeitsparameter generiert wurden. Zum Einen unter der Annahme einer gleichmäßigen Verteilung in der galaktischen Scheibe und zum Anderen unter der Annahme, dass die Datenverteilungen im COCD repräsentativ sind für die gesamte Population der offenen Sternhaufen. Die Ergebnisse deuteten darauf hin, dass die Mehrheit der identifizierten Paare eher zufällige Anordnungen sind, aber die Gruppen und der Komplex schienen echt zu sein. Ein Vergleich meiner Ergebnisse mit den in der Literatur vorgeschlagenen Paaren, Gruppen und Komplexen ergab eine teilweise Überschneidung, die höchstwahrscheinlich durch Auswahleffekte und die Verwendung unterschiedlicher Parameter bedingt war. Dies ist eine weitere Bestätigung für die Existenz solcher Strukturen. Die Eigenschaften der gefundenen Gruppierungen bevorzugen, dass die Mitglieder einer Gruppierung von offenen Sternhaufen aus einer gemeinsamen Riesenmolekülwolke stammen und in einem Sternentstehungsereignis geformt wurden, das möglicherweise auch sequenziell ablief. Außerdem zeigte die junge Population der offenen Sternhaufen kleinere räumliche Abstände zwischen den nächsten Nachbarn als die alte Haufenpopulation, was darauf hindeutet, dass die Lebenszeit von Gruppierungen von offenen Sternhaufen vergleichbar ist mit der für die Population galaktischer offener Sternhaufen selbst. Dennoch wurden auch unter den alten offenen Sternhaufen Gruppierungen identifiziert, was andeutete, dass die gefundenen Strukturen doch in einigen Fällen langlebiger ist als man denken könnte. In dieser Doktorarbeit konnte ich nur eine Pilotstudie zu Strukturen in der Population der galaktischen offenen Sternhaufen präsentieren, da der verwendete Datensatz höchst unvollständig war. Für zukünftige Untersuchungen wäre ein deutlich vollständigerer Datensatz notwendig. Ein Schritt in diese Richtung wäre die Verwendung von Daten aus großen momentan verfügbaren Beobachtungskampagnen, wie dem SDSS, RAVE, Gaia-ESO und dem VVV, sowie das miteinbeziehen der Ergebnisse von Studien an einzelnen offenen Sternhaufen. Später könnte dieser Datensatz durch die Verwendung von Daten aus kommenden Missionen, wie Gaia und 4MOST, komplettiert werden. Zukünftige Studien mit einem vollständigeren Datensatz werden den Einfluss von Gruppierungen von offenen Sternhaufen für die Sternentstehungstheorie und ihre Bedeutung für die Kinematik, Dynamik und Entwicklung der Milchstraße, und damit auch für andere Spiralgalaxien, enträtseln. KW - open clusters and stellar associations KW - stellar populations KW - offene Sternhaufen und stellare Assoziationen KW - Sternpopulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77605 ER - TY - THES A1 - Fischer, Jost Leonhardt T1 - Nichtlineare Kopplungsmechanismen akustischer Oszillatoren am Beispiel der Synchronisation von Orgelpfeifen T1 - Nonlinear coupling mechanisms of acoustical oscillators using the example of synchronization of organ pipes N2 - In dieser Arbeit werden nichtlineare Kopplungsmechanismen von akustischen Oszillatoren untersucht, die zu Synchronisation führen können. Aufbauend auf die Fragestellungen vorangegangener Arbeiten werden mit Hilfe theoretischer und experimenteller Studien sowie mit Hilfe numerischer Simulationen die Elemente der Tonentstehung in der Orgelpfeife und die Mechanismen der gegenseitigen Wechselwirkung von Orgelpfeifen identifiziert. Daraus wird erstmalig ein vollständig auf den aeroakustischen und fluiddynamischen Grundprinzipien basierendes nichtlinear gekoppeltes Modell selbst-erregter Oszillatoren für die Beschreibung des Verhaltens zweier wechselwirkender Orgelpfeifen entwickelt. Die durchgeführten Modellrechnungen werden mit den experimentellen Befunden verglichen. Es zeigt sich, dass die Tonentstehung und die Kopplungsmechanismen von Orgelpfeifen durch das entwickelte Oszillatormodell in weiten Teilen richtig beschrieben werden. Insbesondere kann damit die Ursache für den nichtlinearen Zusammenhang von Kopplungsstärke und Synchronisation des gekoppelten Zwei-Pfeifen Systems, welcher sich in einem nichtlinearen Verlauf der Arnoldzunge darstellt, geklärt werden. Mit den gewonnenen Erkenntnissen wird der Einfluss des Raumes auf die Tonentstehung bei Orgelpfeifen betrachtet. Dafür werden numerische Simulationen der Wechselwirkung einer Orgelpfeife mit verschiedenen Raumgeometrien, wie z. B. ebene, konvexe, konkave, und gezahnte Geometrien, exemplarisch untersucht. Auch der Einfluss von Schwellkästen auf die Tonentstehung und die Klangbildung der Orgelpfeife wird studiert. In weiteren, neuartigen Synchronisationsexperimenten mit identisch gestimmten Orgelpfeifen, sowie mit Mixturen wird die Synchronisation für verschiedene, horizontale und vertikale Pfeifenabstände in der Ebene der Schallabstrahlung, untersucht. Die dabei erstmalig beobachteten räumlich isotropen Unstetigkeiten im Schwingungsverhalten der gekoppelten Pfeifensysteme, deuten auf abstandsabhängige Wechsel zwischen gegen- und gleichphasigen Sychronisationsregimen hin. Abschließend wird die Möglichkeit dokumentiert, das Phänomen der Synchronisation zweier Orgelpfeifen durch numerische Simulationen, also der Behandlung der kompressiblen Navier-Stokes Gleichungen mit entsprechenden Rand- und Anfangsbedingungen, realitätsnah abzubilden. Auch dies stellt ein Novum dar. N2 - In this work non-linear coupling mechanisms in acoustic oscillator systems are examined which can lead to synchronization phenomena. This mechanisms are investigated in particular on organ pipes. Building up on the questions of preceding works the elements of the sound generation are identified using detailed experimental and theoretical studies, as well as numerical simulations. Furthermore the organ pipes interaction mechanisms of the mutual coupling are developed. This leads to a non-linear coupled oscillator model which is developed on the aeroacoustical and fluiddynamical first principles. The carried out model calculations are compared to the experimental results from preceding works. It appears that the sound generation and the coupling mechanisms are properly described by the developed nonlinear coupled model of self-sustained oscillators. In particular the cause can be cleared with it for the non-linear edges of the Arnold tongue of the coupled two-pipe system. With the new knowledge the influence of various space geometries on the sound generation of organ pipes is investigated. With numerical simulations the interaction of an organ pipe and different space geometries, like plane, convex, concave, and ridged geometry is studied. Also the influence of so called swell boxes on the sound generation and the sound pattern of the organ pipe is studied. In further new synchronization experiments with precisely equally tuned pairs of organ pipes, as well as with mixtures the synchronization is examined for various grids of horizontal and vertical pipe distances in the 2D-plane of sound radiation. The spatial discontinuities observed in the oscillation behaviour of the coupled pipe systems, point to changes between anti-phase and in-phase regimes of sychronization depending on pipes distances. Finally the possibility is documented to describe the phenomenon of the synchronization of two organ pipes realisticaly by solving the compressible Navier-Stokes equations numerically. KW - Synchronisation KW - Orgelpfeifen KW - Simulation KW - Experiment KW - Modell KW - synchronization KW - organ pipes KW - simulation KW - experiment KW - model Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71975 ER - TY - THES A1 - Hübner, Sandra T1 - Molekulare Grundlagen der Bittergeschmackswahrnehmung in der Maus T1 - Molecular basics of bitter taste perception in mice N2 - Der Bittergeschmack dient Säugern vermutlich zur Wahrnehmung und Vermeidung toxischer Substanzen. Bitterstoffe können jedoch auch gesund sein oder werden oft bereitwillig mit der Nahrung aufgenommen. Ob sie geschmacklich unterschieden werden können, ist allerdings umstritten. Detektiert werden Bitterstoffe von oralen Bittergeschmacksrezeptoren, den TAS2R (human) bzw. Tas2r (murin). In der Literatur gibt es aber immer mehr Hinweise darauf, dass überdies Tas2r nicht nur in extragustatorischen Organen exprimiert werden, sondern dort auch wichtige Aufgaben erfüllen könnten, was wiederum die Aufklärung ihrer noch nicht vollständig entschlüsselten Funktionsweisen erfordert. So ist noch unbekannt, ob alle bisher als funktionell identifizierten Tas2r wirklich gustatorische Funktionen erfüllen. Im Rahmen der Charakterisierung neu generierter, im Locus des Bittergeschmacksrezeptors Tas2r131 genetisch modifizierter Mauslinien, wurde in vorliegender Arbeit die gustatorische sowie extragustatorische Expression von Tas2r131 untersucht. Dass Tas2r131 nicht nur in Pilzpapillen, Wall- und Blätterpapillen (VP+FoP), Gaumen, Ductus nasopalatinus, Vomeronasalorgan und Kehldeckel, sondern auch in Thymus, Testes und Nebenhodenkopf, in Gehirnarealen sowie im Ganglion geniculatum nachgewiesen wurde, bildete die Grundlage für weiterführende Studien. Die vorliegende Arbeit zeigt außerdem, dass Tas2r108, Tas2r126, Tas2r135, Tas2r137 und Tas2r143 in Blut exprimiert werden, was auf eine heterogene Funktion der Tas2r hindeutet. Dass zusätzlich erstmals die Expression aller 35 als funktionell beschriebenen Tas2r im gustatorischen VP+FoP-Epithel von C57BL/6-Mäusen nachgewiesen wurde, verweist auf deren Relevanz als funktionelle Geschmacksrezeptoren. Weiter zeigten Untersuchungen zur Aufklärung eines möglichen Bitter-Unterscheidungsvermögens in Geschmackspapillen von Mäusen mit fluoreszenzmarkierten oder ablatierten Tas2r131-Zellen, dass Tas2r131 exprimierende Zellen eine Tas2r-Zellsubpopulation bilden. Darüber hinaus existieren innerhalb der Bitterzellen geordnete Tas2r-Expressionsmuster, die sich nach der chromosomalen Lage ihrer Gene richten. Isolierte Bitterzellen reagieren heterogen auf bekannte Bitterstoffe. Und Mäuse mit ablatierter Tas2r131-Zellpopulation besitzen noch andere Tas2r-Zellen und schmecken damit einige Bitterstoffe kaum noch, andere aber noch sehr gut. Diese Befunde belegen die Existenz verschiedener gustatorischer Tas2r-Zellpopulationen, welche die Voraussetzung bilden, Bitterstoffe heterogen zu detektieren. Ob dies die Grundlage für ein divergierendes Verhalten gegenüber unverträglichen und harmlosen oder gar nützlichen Bitterstoffen darstellt, kann mit Hilfe der dargelegten Tas2r-Expressionsmuster künftig in Verhaltensexperimenten geprüft werden. Die Bittergeschmackswahrnehmung in Säugetieren stellt sich als ein hochkomplexer Mechanismus dar, dessen Vielschichtigkeit durch die hier neu aufgezeigten heterogenen Tas2r-Expressions- und Funktionsmuster erneut verdeutlicht wird. N2 - In mammals bitter taste is assumed to serve as warning sensor and therefore prevent organisms from ingesting toxic substances. But bitter compounds can also be beneficial and often are readily consumed with food. However, it is disputed if they can be distinguished by taste. Bitter compounds are detected by oral bitter taste receptors, the TAS2Rs (human) or Tas2rs (murine). Moreover, literature provides more and more evidence that Tas2rs not only are expressed in extragustatory organs, but also appear to fulfill relevant functions there. This in turn requires elucidation of their modes of action, which are incompletely understood. Thus it is unknown, if all potentially functional Tas2rs really perform gustatory functions. Within present thesis, newly generated mouse lines with a genetically modified locus of bitter taste receptor Tas2r131 have been characterized by analyzing gustatory as well as extragustatory expression of Tas2r131. The detection of Tas2r131 in fungiform papillae, vallate and foliate papillae (VP+FoP), palate, naso-incisor duct, vomeronasal organ and epiglottis, as well as in thymus, testis and epididymis, in brain and in Ganglion geniculatum, provided the basis for further studies. In addition, present thesis shows expression of Tas2r108, Tas2r126, Tas2r135, Tas2r137, and Tas2r143 in blood, indicating heterogeneous function of Tas2rs. Nevertheless, the presently for the first time proven expression of all 35 potentially functional Tas2rs in gustatory VP+FoP tissue of C57BL/6 mice points to their role as functional taste receptors. To investigate the possibility of a bitter discrimination, further studies were performed in mice with fluorescent-labeled or ablated Tas2r131 cells. It could be demonstrated, that Tas2r131-expressing cells form a subpopulation of the whole Tas2r-expressing cell population. In addition, within bitter cells stable Tas2r expression patterns exist, that comply with chromosomal location of their genes. Single bitter cells respond heterogeneously to common bitter compounds. And mice with ablated Tas2r131 bitter cell population still posses further bitter cells and thereby hardly recognize some bitter substances, but well recognize others. These findings substantiate the existence of different gustatory Tas2r-expressing cell subpopulations, which built the prerequisite for a heterogeneous bitter compound detection. The demonstrated Tas2r expression patterns offer the basis for future behavioral experiments to clarify, if mice are able to distinguish between different bitter tastants. Bitter taste perception in mammals turns out to be a highly complex mechanism, which is again substantiated by the herein demonstrated heterogeneous Tas2r expression and functional patterns. KW - Geschmackswahrnehmung KW - Bittergeschmack KW - Bittergeschmacksrezeptor KW - Tas2r KW - taste KW - Tas2r-Expression KW - bitter taste perception KW - Tas2rs KW - Tas2r expression KW - murine Tas2rs Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77720 ER - TY - THES A1 - Arnold, Anne T1 - Modeling photosynthesis and related metabolic processes : from detailed examination to consideration of the metabolic context T1 - Modellierung von Photosynthese und damit zusammenhängende metabolische Prozesse : von detaillierter Betrachtung hin zur Erörterung im metabolischen Kontext N2 - Mathematical modeling of biological systems is a powerful tool to systematically investigate the functions of biological processes and their relationship with the environment. To obtain accurate and biologically interpretable predictions, a modeling framework has to be devised whose assumptions best approximate the examined scenario and which copes with the trade-off of complexity of the underlying mathematical description: with attention to detail or high coverage. Correspondingly, the system can be examined in detail on a smaller scale or in a simplified manner on a larger scale. In this thesis, the role of photosynthesis and its related biochemical processes in the context of plant metabolism was dissected by employing modeling approaches ranging from kinetic to stoichiometric models. The Calvin-Benson cycle, as primary pathway of carbon fixation in C3 plants, is the initial step for producing starch and sucrose, necessary for plant growth. Based on an integrative analysis for model ranking applied on the largest compendium of (kinetic) models for the Calvin-Benson cycle, those suitable for development of metabolic engineering strategies were identified. Driven by the question why starch rather than sucrose is the predominant transitory carbon storage in higher plants, the metabolic costs for their synthesis were examined. The incorporation of the maintenance costs for the involved enzymes provided a model-based support for the preference of starch as transitory carbon storage, by only exploiting the stoichiometry of synthesis pathways. Many photosynthetic organisms have to cope with processes which compete with carbon fixation, such as photorespiration whose impact on plant metabolism is still controversial. A systematic model-oriented review provided a detailed assessment for the role of this pathway in inhibiting the rate of carbon fixation, bridging carbon and nitrogen metabolism, shaping the C1 metabolism, and influencing redox signal transduction. The demand of understanding photosynthesis in its metabolic context calls for the examination of the related processes of the primary carbon metabolism. To this end, the Arabidopsis core model was assembled via a bottom-up approach. This large-scale model can be used to simulate photoautotrophic biomass production, as an indicator for plant growth, under so-called optimal, carbon-limiting and nitrogen-limiting growth conditions. Finally, the introduced model was employed to investigate the effects of the environment, in particular, nitrogen, carbon and energy sources, on the metabolic behavior. This resulted in a purely stoichiometry-based explanation for the experimental evidence for preferred simultaneous acquisition of nitrogen in both forms, as nitrate and ammonium, for optimal growth in various plant species. The findings presented in this thesis provide new insights into plant system's behavior, further support existing opinions for which mounting experimental evidences arise, and posit novel hypotheses for further directed large-scale experiments. N2 - Mathematische Modellierung biologischer Systeme eröffnet die Möglichkeit systematisch die Funktionsweise biologischer Prozesse und ihrer Wechselwirkungen mit der Umgebung zu untersuchen. Um präzise und biologisch relevante Vorhersagen treffen zu können, muss eine Modellierungsstrategie konzipiert werden, deren Annahmen das untersuchte Szenario bestmöglichst widerspiegelt und die dem Trade-off der Komplexität der zugrunde liegenden mathematischen Beschreibung gerecht wird: Detailtreue gegenüber Größe. Dementsprechend kann das System detailliert, in kleinerem Umfang oder in vereinfachter Darstellung im größeren Maßstab untersucht werden. In dieser Arbeit wird mittels verschiedener Modellierungsansätze, wie kinetischen und stöchiometrischen Modellen, die Rolle der Photosynthese und damit zusammenhängender biochemischer Prozesse im Rahmen des Pflanzenstoffwechsels analysiert. Der Calvin-Benson-Zyklus, als primärer Stoffwechselweg der Kohlenstofffixierung in C3-Pflanzen, ist der erste Schritt der Stärke- und Saccharoseproduktion, welche maßgeblich für das Wachstum von Pflanzen sind. Basierend auf einer integrativen Analyse zur Modellklassifizierung wurden aus der größten bekannten Sammlung von (kinetischen) Modellen des Calvin-Benson-Zyklus diejenigen ermittelt, die für die Entwicklung von Metabolic-Engineering-Strategien geeignet sind. Angeregt von der Fragestellung warum Kohlenstoff transitorisch vorwiegend in Form von Stärke anstatt Saccharose gespeichert wird, wurden die metabolischen Kosten beider Syntheseprozesse genauer betrachtet. Die Einbeziehung der Bereitstellungskosten der beteiligten Enzyme stützt die Tatsache, dass bevorzugt Stärke als temporärer Kohlenstoffspeicher dient. Die entprechende Untersuchung erfolgte einzig auf Grundlage der Stöchiometrie der Synthesewege. In vielen photosynthetisch-aktiven Organismen findet zudem Photorespiration statt, die der Kohlenstofffixierung entgegenwirkt. Die genaue Bedeutung der Photorespiration für den Pflanzenmetabolismus ist noch umstritten. Eine detaillierte Einschätzung der Rolle dieses Stoffwechselweges bezüglich der Inhibierung der Kohlenstofffixierungsrate, der Verknüpfung von Kohlenstoff- und Stickstoffmetabolismus, der Ausprägung des C1-Stoffwechsels sowie die Einflussnahme auf die Signaltransduktion wurde in einer modell-basierten, kritischen Analyse vorgenommen. Um die Photosynthese in ihrem metabolischen Kontext verstehen zu können, ist die Betrachtung der angrenzenden Prozesse des primären Kohlenstoffmetabolismus unverzichtbar. Hierzu wurde in einem Bottom-up Ansatz das Arabidopsis core Modell entworfen, mittels dessen die Biomasseproduktion, als Indikator für Pflanzenwachtum, unter photoautotrophen Bedingungen simuliert werden kann. Neben sogenannten optimalen Wachstumsbedingungen kann dieses großangelegte Modell auch kohlenstoff- und stickstofflimitierende Umweltbedingungen simulieren. Abschließend wurde das vorgestellte Modell zur Untersuchung von Umwelteinflüssen auf das Stoffwechselverhalten herangezogen, im speziellen verschiedene Stickstoff-, Kohlenstoff- und Energiequellen. Diese auschließlich auf der Stöchiometrie basierende Analyse bietet eine Erklärung für die bevorzugte, gleichzeitige Aufnahme von Nitrat und Ammonium, wie sie in verschiedenen Spezies für optimales Wachstum experimentell beobachtet wurde. Die Resultate dieser Arbeit liefern neue Einsichten in das Verhalten von pflanzlichen Systemen, stützen existierende Ansichten, für die zunehmend experimentelle Hinweise vorhanden sind, und postulieren neue Hypothesen für weiterführende großangelegte Experimente. KW - stöchiometrische Modellierung KW - kinetische Modellierung KW - metabolische Netzwerke KW - metabolische Kosten KW - Photosynthese KW - stoichiometric modeling KW - kinetic modeling KW - metabolic networks KW - metabolic costs KW - photosynthesis Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72277 ER - TY - THES A1 - Fronton, Ludivine T1 - Modeling approaches to characterize the disposition of monoclonal antibodies T1 - Modellierungsansätze zur Charakterisierung der Verteilung und Eliminierung monoklonaler Antikörper BT - from detailed PBPK models to classical compartment models BT - vom detaillierten PBPK-Model zum klassischen Kompartiment-Model N2 - Monoclonal antibodies (mAbs) are engineered immunoglobulins G (IgG) used for more than 20 years as targeted therapy in oncology, infectious diseases and (auto-)immune disorders. Their protein nature greatly influences their pharmacokinetics (PK), presenting typical linear and non-linear behaviors. While it is common to use empirical modeling to analyze clinical PK data of mAbs, there is neither clear consensus nor guidance to, on one hand, select the structure of classical compartment models and on the other hand, interpret mechanistically PK parameters. The mechanistic knowledge present in physiologically-based PK (PBPK) models is likely to support rational classical model selection and thus, a methodology to link empirical and PBPK models is desirable. However, published PBPK models for mAbs are quite diverse in respect to the physiology of distribution spaces and the parameterization of the non-specific elimination involving the neonatal Fc receptor (FcRn) and endogenous IgG (IgGendo). The remarkable discrepancy between the simplicity of biodistribution data and the complexity of published PBPK models translates in parameter identifiability issues. In this thesis, we address this problem with a simplified PBPK model—derived from a hierarchy of more detailed PBPK models and based on simplifications of tissue distribution model. With the novel tissue model, we are breaking new grounds in mechanistic modeling of mAbs disposition: We demonstrate that binding to FcRn is indeed linear and that it is not possible to infer which tissues are involved in the unspecific elimination of wild-type mAbs. We also provide a new approach to predict tissue partition coefficients based on mechanistic insights: We directly link tissue partition coefficients (Ktis) to data-driven and species-independent published antibody biodistribution coefficients (ABCtis) and thus, we ensure the extrapolation from pre-clinical species to human with the simplified PBPK model. We further extend the simplified PBPK model to account for a target, relevant to characterize the non-linear clearance due to mAb-target interaction. With model reduction techniques, we reduce the dimensionality of the simplified PBPK model to design 2-compartment models, thus guiding classical model development with physiological and mechanistic interpretation of the PK parameters. We finally derive a new scaling approach for anatomical and physiological parameters in PBPK models that translates the inter-individual variability into the design of mechanistic covariate models with direct link to classical compartment models, specially useful for PK population analysis during clinical development. N2 - Monoklonale Antikörper (mAbs) sind gentechnisch hergestellte Immunglobuline G (IgG), die seit mehr als 20 Jahren therapeutisch gezielt gegen spezifische Antigene eingesetzt werden. Die Hauptindikationen sind vor allem die Gebiete Onkologie, Infektions- und (Auto-)Immun-Erkrankungen. Monoklonale Antikörper sind hydrophile und geladene Moleküle mit hoher Affinität und Selektivität für ihr Target. Diese Eigenschaften haben einen groçen Einfluss auf die Pharmacokinetik (PK), wobei oft lineares und nicht-lineares Verhalten beobachtet wird. Mathematische Modelle, wie zum Beispiel empirische Modelle, werden routinemässig in der Forschung und Entwicklung verwendet, um die PK für mAbs zu charakterisieren. Hingegen sind physiologisch-basierte PK (PBPK) Modelle für mAbs nur begrenzt einsetzbar. Zur Identifikation und Quantifizierung der Variabilität in klinischen PK-Daten werden meistens empirische 2-Kompartiment Modelle für populationspharmakokinetischen Analysen eingesetzt. Allerdings gibt es weder einen klaren Konsens noch Richtlinien, um lineare und nicht-lineare Clearances zu erklären und um physiologische und mechanistische PK-Parameter zu interpretieren. Prädiktive PBPK-Modelle, die für mAbs publiziert wurden, sind sehr unterschiedlich in Bezug auf die betrachteten Verteilungsvolumina (vaskulär, interstitiell, endosomal) und die Parametrisierung der nicht-spezifischen Elimination durch den neonatalen Fc-Rezeptor und endogenes IgG. Je detaillierter die Beschreibung dieser Prozesse ist, desto mehr Parameter werden benötigt. Allerdings sind deren Werte oftmals nicht bekannt. Dies führt zu Problemen in der Identifizierbarkeit bei den üblicherweise zur Verfügung stehenden in vivo Verteilungsdaten. In der vorliegenden Doktorarbeit präsentieren wir hierarchisch aufgebaute PBPK Modelle für mAbs. Dazu gehören detaillierte, intermediäre und vereinfachte Modelle, deren Ableitungen auf Simplifizierungen des Gewebe-Verteilungs-Modells basieren. Mit dem neuen, vereinfachten PBPK Modell können wir einen Einblick in die mechanistische Interpretation von Gewebe-Verteilungskoeffizienten geben. Diese können mit publizierten, auf Daten basierenden Antikörper Biodistributions Koeffizienten verglichen werden. Weiterhin erlaubt ein simplifiziertes Modell Parameter Identifizierbarkeit und die Auswahl an Gewebe, die bei der nicht-spezifischen Eliminierung der mAbs eine Rolle spielen. Das vereinfachte PBPK Modell kann nach Bedarf um ein Target erweitert werden, das relevant ist für die nicht-lineare Clearance in Folge einer mAb-Target Interaktion zu erklären. Mit Hilfe von Techniken zur Modell-Reduktion reduzieren wir das vereinfachte PBPK Modell, um Kompartiment-Modelle mit niedriger Dimensionalität zu entwickeln. Dadurch wird die physiologische und mechanistische Interpretation der PK Parameter garantiert. Zuletzt leiten wir eine neue Skalierungsmethode für anatomische und physiologische Parameter ab. Sie ermöglicht die Translation der inter-individuellen Variabilität in das Design eines mechanistischen Covariat-Models mit direktem Link zu klassischen Kompartiment-Modellen. Dies ist vor allem für populationspharmakokinetischen Analysen wÃdhrend der klinischen Entwicklung hilfreich. KW - mAb disposition KW - PBPK KW - extravasation-rate limited tissue model KW - classical compartment model KW - mAb Disposition KW - PBPK KW - Extravasation-rate limited Gewebemodelle KW - Kompartiment-Modelle Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76537 ER - TY - THES A1 - Serrano, Paloma T1 - Methanogens from Siberian permafrost as models for life on Mars : response to simulated martian conditions and biosignature characterization T1 - Methanogene Archaeen aus sibirischen Permafrost als Modelle für Leben auf dem Mars N2 - Mars is one of the best candidates among planetary bodies for supporting life. The presence of water in the form of ice and atmospheric vapour together with the availability of biogenic elements and energy are indicators of the possibility of hosting life as we know it. The occurrence of permanently frozen ground – permafrost, is a common phenomenon on Mars and it shows multiple morphological analogies with terrestrial permafrost. Despite the extreme inhospitable conditions, highly diverse microbial communities inhabit terrestrial permafrost in large numbers. Among these are methanogenic archaea, which are anaerobic chemotrophic microorganisms that meet many of the metabolic and physiological requirements for survival on the martian subsurface. Moreover, methanogens from Siberian permafrost are extremely resistant against different types of physiological stresses as well as simulated martian thermo-physical and subsurface conditions, making them promising model organisms for potential life on Mars. The main aims of this investigation are to assess the survival of methanogenic archaea under Mars conditions, focusing on methanogens from Siberian permafrost, and to characterize their biosignatures by means of Raman spectroscopy, a powerful technology for microbial identification that will be used in the ExoMars mission. For this purpose, methanogens from Siberian permafrost and non-permafrost habitats were subjected to simulated martian desiccation by exposure to an ultra-low subfreezing temperature (-80ºC) and to Mars regolith (S-MRS and P-MRS) and atmospheric analogues. They were also exposed to different concentrations of perchlorate, a strong oxidant found in martian soils. Moreover, the biosignatures of methanogens were characterized at the single-cell level using confocal Raman microspectroscopy (CRM). The results showed survival and methane production in all methanogenic strains under simulated martian desiccation. After exposure to subfreezing temperatures, Siberian permafrost strains had a faster metabolic recovery, whereas the membranes of non-permafrost methanogens remained intact to a greater extent. The strain Methanosarcina soligelidi SMA-21 from Siberian permafrost showed significantly higher methane production rates than all other strains after the exposure to martian soil and atmospheric analogues, and all strains survived the presence of perchlorate at the concentration on Mars. Furthermore, CRM analyses revealed remarkable differences in the overall chemical composition of permafrost and non-permafrost strains of methanogens, regardless of their phylogenetic relationship. The convergence of the chemical composition in non-sister permafrost strains may be the consequence of adaptations to the environment, and could explain their greater resistance compared to the non-permafrost strains. As part of this study, Raman spectroscopy was evaluated as an analytical technique for remote detection of methanogens embedded in a mineral matrix. This thesis contributes to the understanding of the survival limits of methanogenic archaea under simulated martian conditions to further assess the hypothetical existence of life similar to methanogens on the martian subsurface. In addition, the overall chemical composition of methanogens was characterized for the first time by means of confocal Raman microspectroscopy, with potential implications for astrobiological research. N2 - Der Mars ist unter allen Planeten derjenige, der aufgrund verschiedener Faktoren am wahrscheinlichsten Leben ermöglichen kann. Das Vorhandensein von Wasser in Form von Eis und atmosphärischem Dampf zusammen mit der Verfügbarkeit biogener Elemente sowie Energie sind Indikatoren für die Möglichkeit, Leben, wie wir es kennen, zu beherbergen. Das Auftreten von dauerhaft gefrorenen Böden, oder auch Permafrost, ist ein verbreitetes Phänomen auf dem Mars. Dabei zeigen sich vielfältige morphologische Analogien zum terrestrischen Permafrost. Permafrostgebiete auf der Erde, welche trotz extremer, Bedingungen durch eine große Zahl und Vielfalt mikrobieller Gemeinschaften besiedelt sind, sind hinsichtlich möglicher Habitate auf dem Mars die vielversprechendste Analogie. Die meisten methanogenen Archaeen sind anaerobe, chemolithotrophe Mikroorganismen, die auf der Marsoberfläche viele der metabolischen und physiologischen Erfordernisse zum Überleben vorfinden. Methanogene Archaeen aus dem sibirischen Permafrost sind zudem extrem resistent gegenüber unterschiedlichen Formen von physiologischem Stress sowie simulierten thermo-physikalischen Marsbedingungen. Die Hauptziele dieser Untersuchung bestehen darin, das Überleben der methanogenen Archaeen unter Marsbedingungen zu beurteilen, wobei der Fokus auf methanogenen Archaeen aus dem sibirischen Permafrost liegt, sowie deren Biosignaturen mit Hilfe der Raman-Spektroskopie zu charakterisieren, einer starken Technologie zur mikrobiellen Identifikation, welche bei der ExoMars-Mission zum Einsatz kommen wird. Zu diesem Zweck wurden methanogene Archaeen aus dem sibirischen Permafrost sowie aus Nicht-Permafrost-Habitaten in Simulationen Marsbedingungen ausgesetzt, wie Austrocknung durch Langzeitversuche bei ultraniedrigen Temperaturen unter dem Gefrierpunkt (-80ºC), Mars-analogen Mineralien (S-MRS und P-MRS) sowie einer Marsatmosphäre. Weiterhin wurden die Kulturen verschiedenen Konzentrationen von Magnesiumperchlorat, einem starken Oxidant, der im Marsboden nachgewiesenen wurde, ausgesetzt. Ferner wurden die Biosignaturen einzelner Zellen der methanogenen Archaeen mit Hilfe der konfokalen Raman-Mikrospektroskopie (CRM) charakterisiert. Die Ergebnisse zeigten für alle untersuchten methanogenen Stämme Überleben und Methanbildung, nachdem diese simulierten Austrocknungsbedingungen ausgesetzt worden waren. Nach Versuchen mit Temperaturen unter dem Gefrierpunkt zeigten die Stämme aus dem sibirischen Permafrost eine schnellere Wiederaufnahme der Stoffwechseltätigkeit, wohingegen bei den Referenzorganismen aus Nicht-Permafrost-Habitaten die Zell¬membranen im größeren Ausmaß intakt blieben. Der Stamm Methanosarcina soligelidi SMA-21 aus dem sibirischen Permafrost zeigte nach dem Belastungstest mit Marsboden und Mars-analoger Atmosphäre signifikant höhere Methanbildungsraten. Zudem überlebten alle untersuchten Stämme die Zugabe von Magnesiumperchlorat in der entsprechenden Konzentration, die auf dem Mars vorkommt. Weiterhin konnten durch die Raman-Spektroskopie beachtliche Unterschiede in der chemischen Zusammensetzung zwischen methanogenen Archaeen aus Permafrost- und Nicht-Permafrost-Habitaten, trotz ihrer phylogenetischen Verwandtschaft, ermittelt werden. Die Konvergenz der chemischen Zusammensetzung der Permafrost-Stämme könnte das Resultat ihrer Anpassung an die Umgebung sein, was auch die Unterschiede hinsichtlich ihrer Resistenz verglichen mit Nicht-Permafrost-Stämmen erklären könnte. Als Teil dieser Studie wurde die Raman-Spektroskopie als Analyse-Technik zur Ferndetektion von methanogenen Archaeen, welche in eine Mineral-Matrix eingebettet sind, evaluiert. Diese Dissertation trägt zu einem besseren Verständnis hinsichtlich der Grenzen für ein Überleben von methanogenen Archaeen unter simulierten Marsbedingungen bei und damit zu einer Beurteilung der Hypothese, ob es ähnliches Leben unter der Marsoberfläche geben könnte. Darüber hinaus wurde erstmalig die chemische Zusammensetzung von methanogenen Archaeen mit Hilfe der Raman-Mikrospektroskopie charakterisiert. Dieser Technologie kommt eine wesentliche Bedeutung für weitere Forschungstätigkeit in der Astrobiologie zu. KW - Methanogene Archaeen KW - sibirischen Permafrost KW - Mars KW - Raman Spektroskopie KW - Biosignaturen KW - methanogenic archaea KW - Siberian permafrost KW - Mars KW - Raman spectroscopy KW - biosignatures Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72299 ER - TY - THES A1 - Netchaev-Bakinski, Alexandre T1 - Les voies/voix radicales en Angleterre, 1789-1848 T1 - Ways to radicalism in England, 1789-1848 T1 - Die radikalen Strömungen in England von 1789 bis 1848 N2 - What is a radical? Somebody who goes against mainstream opinions? An agitator who suggests transforming society at the risk of endangering its harmony? In the political context of the British Isles at the end of the eighteenth century, the word radical had a negative connotation. It referred to the Levellers and the English Civil War, it brought back a period of history which was felt as a traumatic experience. Its stigmas were still vivid in the mind of the political leaders of these times. The reign of Cromwell was certainly the main reason for the general aversion of any form of virulent contestation of the power, especially when it contained political claims. In the English political context, radicalism can be understood as the different campaigns for parliamentary reforms establishing universal suffrage. However, it became evident that not all those who were supporting such a reform originated from the same social class or shared the same ideals. As a matter of fact, the reformist associations and their leaders often disagreed with each other. Edward Royle and Hames Walvin claimed that radicalism could not be analyzed historically as a concept, because it was not a homogeneous movement, nor it had common leaders and a clear ideology. For them, radicalism was merely a loose concept, « a state of mind rather than a plan of action. » At the beginning of the nineteenth-century, the newspaper The Northern Star used the word radical in a positive way to designate a person or a group of people whose ideas were conform to those of the newspaper. However, an opponent of parliamentary reform will use the same word in a negative way, in this case the word radical will convey a notion of menace. From the very beginning, the term radical covered a large spectrum of ideas and conceptions. In fact, the plurality of what the word conveys is the main characteristic of what a radical is. As a consequence, because the radicals tended to differentiate themselves with their plurality and their differences rather than with common features, it seems impossible to define what radicalism (whose suffix in –ism implies that it designate a doctrine, an ideology) is. Nevertheless, today it is accepted by all historians. From the mid-twentieth century, we could say that it was taken from granted to consider radicalism as a movement that fitted with the democratic precepts (universal suffrage, freedom of speech) of our modern world. Let us first look at radicalism as a convenient way to designate the different popular movements appealing to universal suffrage during the time period 1792-1848. We could easily observe through the successions of men and associations, a long lasting radical state of mind: Cartwright, Horne Tooke, Thomas Hardy, Francis Burdett, William Cobbett, Henry Hunt, William Lovett, Bronterre O’Brien, Feargus O’Connor, The London Society for Constitutional information (SCI), The London Corresponding Society (LCS), The Hampden Clubs, The Chartists, etc. These organizations and people acknowledged having many things in common and being inspired by one another in carrying out their activities. These influences can be seen in the language and the political ideology that British historians name as "Constitutionalist", but also, in the political organization of extra-parliamentary societies. Most of the radicals were eager to redress injustices and, in practice, they were inspired by a plan of actions drawn on from the pamphlets of the True Whigs of the eighteenth-century. We contest the argument that the radicals lacked coherence and imagination or that they did not know how to put into practice their ambitions. In fact, their innovative forms of protest left a mark on history and found many successors in the twentieth century. Radicals’ prevarications were the result of prohibitive legislation that regulated the life of associations and the refusal of the authorities to cooperate with them. As mentioned above, the term radical was greatly used and the contemporaries of the period starting from the French Revolution to Chartism never had to quarrel about the notions the word radical covered. However, this does not imply that all radicals were the same or that they belong to the same entity. Equally to Horne Tooke, the Reverend and ultra-Tory Stephens was considered as a radical, it went also with the shoemaker Thomas Hardy and the extravagant aristocrat Francis Burdett. Whether one belonged to the Aristocracy, the middle-class, the lower class or the Church, nothing could prevent him from being a radical. Surely, anybody could be a radical in its own way. Radicalism was wide enough to embrace everybody, from revolutionary reformers to paternalistic Tories. We were interested to clarify the meaning of the term radical because its inclusive nature was overlooked by historians. That’s why the term radical figures in the original title of our dissertation Les voix/voies radicales (radical voices/ways to radicalism). In the French title, both words voix/voies are homonymous; the first one voix (voice) correspond to people, the second one voies (ways) refers to ideas. By this, we wanted to show that the word radical belongs to the sphere of ideas and common experience but also to the nature of human beings. Methodoloy The thesis stresses less on the question of class and its formation than on the circumstances that brought people to change their destiny and those of their fellows or to modernize the whole society. We challenged the work of E.P. Thompson, who in his famous book, The Making of the English Working Class, defined the radical movements in accordance with an idea of class. How a simple shoe-maker, Thomas Hardy, could become the center of attention during a trial where he was accused of being the mastermind of a modern revolution? What brought William Cobbett, an ultra-Tory, self-taught intellectual, to gradually espouse the cause of universal suffrage at a period where it was unpopular to do so? Why a whole population gathered to hear Henry Hunt, a gentleman farmer whose background did not destine him for becoming the champion of the people? It seemed that the easiest way to answer to these questions and to understand the nature of the popular movements consisted in studying the life of their leaders. We aimed at reconstructing the universe which surrounded the principal actors of the reform movements as if we were a privileged witness of theses times. This idea to associate the biographies of historical characters for a period of more than fifty years arouse when we realized that key events of the reform movements were echoing each other, such the trial of Thomas Hardy in 1794 and the massacre of Peterloo of 1819. The more we learned about the major events of radicalism and the life of their leaders, the more we were intrigued. Finally, one could ask himself if being a radical was not after all a question of character rather than one of class. The different popular movements in favour of a parliamentary reform were in fact far more inclusive and diversified from what historians traditionally let us to believe. For instance, once he manage to gather a sufficient number of members of the popular classes, Thomas Hardy projected to give the control of his association to an intellectual elite led by Horne Tooke. Moreover, supporters of the radical reforms followed leaders whose background was completely different as theirs. For example, O’Connor claimed royal descent from the ancient kings of Ireland. William Cobbett, owner of a popular newspaper was proud of his origins as a farmer. William Lovett, close to the liberals and a few members of parliament came from a very poor family of fishermen. We have thus put together the life of these five men, Thomas hardy, William Cobbett, Henry Hunt, William Lovett and Feargus O’Connor in order to compose a sort of a saga of the radicals. This association gives us a better idea of the characteristics of the different movements in which they participated, but also, throw light on the circumstances of their formation and their failures, on the particular atmosphere which prevailed at these times, on the men who influenced these epochs, and finally on the marks they had left. These men were at the heart of a whole network and in contact with other actors of peripheral movements. They gathered around themselves close and loyal fellows with whom they shared many struggles but also quarreled and had strong words. The original part of our approach is reflected in the choice to not consider studying the fluctuations of the radical movements in a linear fashion where the story follows a strict chronology. We decided to split up the main issue of the thesis through different topics. To do so, we simply have described the life of the people who inspired these movements. Each historical figure covers a chapter, and the general story follows a chronological progression. Sometimes we had to go back through time or discuss the same events in different chapters when the main protagonists lived in the same period of time. Radical movements were influenced by people of different backgrounds. What united them above all was their wish to obtain a normalization of the political world, to redress injustices and obtain parliamentary reform. We paid particular attention to the moments where the life of these men corresponded to an intense activity of the radical movement or to a transition of its ideas and organization. We were not so much interested in their feelings about secondary topics nor did we about their affective relations. Furthermore, we had little interest in their opinions on things which were not connected to our topic unless it helped us to have a better understanding of their personality. We have purposely reduced the description of our protagonists to their radical sphere. Of course we talked about their background and their intellectual development; people are prone to experience reversals of opinions, the case of Cobbett is the most striking one. The life of these personalities coincided with particular moments of the radical movement, such as the first popular political associations, the first open-air mass meetings, the first popular newspapers, etc. We wanted to emphasize the personalities of those who addressed speeches and who were present in the radical associations. One could argue that the inconvenience of focusing on a particular person presents a high risk of overlooking events and people who were not part of his world. However, it was essential to differ from an analysis or a chronicle which had prevailed in the studies of the radical movements, as we aimed at offering a point of view that completed the precedents works written on that topic. In order to do so, we have deliberately put the humane character of the radical movement at the center of our work and used the techniques of biography as a narrative thread. Conclusion The life of each historical figure that we have portrayed corresponded to a particular epoch of the radical movement. Comparing the speeches of the radical leaders over a long period of time, we noticed that the radical ideology evolved. The principles of the Rights of Men faded away and gave place to more concrete reasoning, such as the right to benefit from one’s own labour. This transition is characterized by the Chartist period of Feargus O’Connor. This does not mean that collective memory and radical tradition ceased to play an important part. The popular classes were always appealed to Constitutional rhetoric and popular myths. Indeed, thanks to them they identified themselves and justified their claims to universal suffrage. We focused on the life of a few influent leaders of radicalism in order to understand its evolution and its nature. The description of their lives constituted our narrative thread and it enabled us to maintain consistency in our thesis. If the chapters are independent the one from the other, events and speeches are in correspondences. Sometimes we could believe that we were witnessing a repetition of facts and events as if history was repeating itself endlessly. However, like technical progress, the spirit of time, Zeitgeist, experiences changes and mutations. These features are fundamental elements to comprehend historical phenomena; the latter cannot be simplified to philosophical, sociological, or historical concept. History is a science which has this particularity that the physical reality of phenomena has a human dimension. As a consequence, it is essential not to lose touch with the human aspect of history when one pursues studies and intellectual activities on a historical phenomenon. We decided to take a route opposite to the one taken by many historians. We have first identified influential people from different epochs before entering into concepts analysis. Thanks to this compilation of radical leaders, a new and fresh look to the understanding of radicalism was possible. Of course, we were not the first one to have studied them, but we ordered them following a chronology, like Plutarch enjoyed juxtaposing Greeks and Romans historical figures. Thanks to this technique we wanted to highlight the features of the radical leaders’ speeches, personalities and epochs, but also their differences. At last, we tried to draw the outlines and the heart of different radical movements in order to follow the ways that led to radicalism. We do not pretend to have offered an original and exclusive definition of radicalism, we mainly wanted to understand the nature of what defines somebody as a radical and explain the reasons why thousands of people decided to believe in this man. Moreover, we wanted to distance ourselves from the ideological debate of the Cold War which permeated also the interpretation of past events. Too often, the history of radicalism was either narrated with a form of revolutionary nostalgia or in order to praise the merits of liberalism. If the great mass meetings ends in the mid-nineteenth-century with the fall of Chartism, this practice spread out in the whole world in the twentieth-century. Incidentally, the Arab Spring of the beginning of the twenty-first-century demonstrated that a popular platform was the best way for the people to claim their rights and destabilize a political system which they found too authoritative. Through protest the people express an essential quality of revolt, which is an expression of emancipation from fear. From then on, a despotic regime loses this psychological terror which helped it to maintain itself into power. The balance of power between the government and its people would also take a new turn. The radicals won this psychological victory more than 150 years ago and yet universal suffrage was obtained only a century later. From the acceptance of the principles of liberties to their cultural practice, a long route has to be taken to change people’s mind. It is a wearisome struggle for the most vulnerable people. In the light of western history, fundamental liberties must be constantly defended. Paradoxically, revolt is an essential and constitutive element of the maintenance of democracy. N2 - Die radikalen Strömungen in England von 1789 bis 1848 Formulierung der Problematik Was ist ein Radikaler? Eine Person die vorgefassten Meinungen zuwiderhandelt? Ein Agitator, der die Gesellschaft verändern will und dabei das Risiko eingeht, sie aus dem Gleichgewicht zu bringen? Im politischen Kontext, in dem sich die britischen Inseln am Ende des 18. Jahrhunderts befanden, hatte dieser Begriff eine negative Konnotation. Er erinnert nämlich an die levellers und an den Bürgerkrieg. Diese historische Epoche, die als traumatisches Erlebnis empfunden wurde, hat bei den politischen Führern Stigmata hinterlassen, die immer noch vorhanden sind. Die Herrschaft Cromwells hatte bestimmt einen direkten Einfluss auf die Aversion der Engländer gegen jede heftige Form des Protestes gegen die herrschende Macht, vor allem wenn er politisch vereinnahmt wird. Im politischen Kontext in England versteht man unter Radikalismus verschiedene Versuche, eine Parlamentsreform durchzusetzen, die das allgemeine Wahlrecht einführen sollte. Natürlich bedeutet dies nicht, dass die Befürworter solch einer Reform eine gesellschaftliche und ideologische Nähe verband. In der Tat waren sich die reformistischen Verbände oft untereinander nicht einig und ihre jeweiligen Führer hatten wenige Gemeinsamkeiten. Edward Royle und Hames Walvin erläutern, dass der Radikalismus historisch nicht wie ein Konzept analysiert werden kann, da er keine einheitliche Bewegung war, da sich die Führer untereinander nicht einig waren und da keine eindeutige Ideologie vorhanden war. Der Radikalismus war ihrer Meinung nach nur eine vage Ansammlung bunter Ideen. Er sei « eher eine Einstellung als ein Aktionsplan» gewesen. Am Beginn des 19. Jahrhunderts verwendete die Zeitung Northern Star den Begriff « radikal » in einem positiven Sinne, um eine Person oder eine Gruppe zu bezeichnen, deren Ideen mit den Ihrigen im Einklang standen. Gegner der Parlamentsreformbewegungen haben diesen Begriff im negativen Sinne verwendet. Der Radikale wurde dann also als Bedrohung wahrgenommen. Der Gebrauch des Begriffes radikal scheint kein semantisches Problem darzustellen im Vergleich zur Verwendung des Wortes Radikalismus dessen Suffix -ismus eine Doktrin bzw. eine Ideologie voraussetzt. Die Tatsache, dass die Radikalen so unterschiedliche Gesinnungen vertraten, scheint eine Definition des Radikalismus unmöglich zu machen. Trotzdem wird sein Gebrauch heute von allen Historikern akzeptiert. Man könnte also behaupten, dass es seit der Mitte des 20. Jahrhunderts gängig wurde, mit dem Begriff Radikalismus jede Bewegung zu bezeichnen, die Ideen durchsetzen wollte, die nach unserem heutigen Verständnis als demokratisch verstanden werden. Wir können den Begriff Radikalismus zwischen 1792 und 1848 also erst einmal als eine praktische Bezeichnung für die verschiedenen radikalen Volksbewegungen, die das Ziel verfolgten, das allgemeine Wahlrecht einzuführen, betrachten. Diese radikale Einstellung findet man bei einer ganzen Reihe von Menschen und Organisationen wieder. Cartwright, Horne Tooke, Thomas Hardy, Francis Burdett, William Cobbet, Henry Hunt, William Lovett, Bronterre O’Brien Feargus O’Connor, die London Society for Constitutional information (SCI), die London Corresponding Society (LCS), die Hampden Clubs, die Chartisten, usw. Man kann viele Gemeinsamkeiten zwischen den Protagonisten erkennen, die sie sich auch eingestanden haben. Auβerdem wird auch der Einfluss erkennbar, den sie aufeinander ausgeübt haben, um ihre Aktionen zu gestalten. Diese Einflüsse findet man sowohl in der Sprache und in der politischen Ideologie wieder, die von den britischen Historikern als « konstitutionalistisch » bezeichnet wurden, als auch in der politischen Organisation von auβerparlamentarischen Gruppierungen. Alle Radikalen wollten die Ungerechtigkeiten beheben, und in der Praxis haben sie sich von einem Aktionsplan anregen lassen, den sie im 18. Jahrhundert in den Pamphleten der true whigs gefunden haben. Wir müssen teilweise das Argument zurückweisen, dass die Radikalen nicht kohärent und einfallsreich waren, oder dass sie nicht genau wussten, wie sie ihre Ziele umsetzen konnten. Ganz im Gegenteil: Die innovativen Formen des Protestes, die ihnen zuzuschreiben sind, waren bezeichnend und haben eine Spur in der Geschichte hinterlassen. Das Zaudern der Radikalen war erstens auf die prohibitive Gesetzgebung zurückzuführen, der die Verbände unterlagen und zweitens auf die kategorische Ablehnung der Behörden zu kooperieren. Die Zeitgenossen der Epoche, die sich von der Französischen Revolution bis zum Chartismus erstreckt, haben nie über den Sinn des Begriffs radikal debattiert. Dies bedeutet allerdings nicht, dass alle Radikalen gleich waren, oder dass sie zu derselben Einheit gehörten. Horne Tooke und der Priester Stephens waren beide Radikale, so wie der Schuster Hardy und der extravagante Burdett. Ob man ein Adliger, ein Mitglied des Bürgertums, ein Handwerker, ein Gutsbesitzer oder ein Mann der Kirche war: Nichts hinderte einen daran, ein Radikaler zu sein. Jeder konnte auf seine Art ein Radikaler sein. In dem Radikalismus gab es in der Tat eine groβe Bandbreite, die sich vom revolutionären Radikalismus bis zum paternalistischen Torysmus erstreckte. Wir waren daran interessiert, genau zu verstehen, was der Begriff radikal bedeutet, denn sein integrativer Charakter wurde von Historikern übersehen.. Wir haben uns deshalb so genau mit der Bedeutung des Begriffs « radikal » beschäftigt, weil dieses Adjektiv im Plural im Titel die radikalen Strömungen enthalten ist. Mit dem im französischen Titel enthaltenen Gleichklang zwischen den Wörtern « voie » (Weg, Strömung) und « voix » (Stimme) wollten wir zeigen, dass sich der Begriff « radikal » sowohl auf ein Ideenbündel als auch auf eine Person bezieht. Die methodische Vorgehensweise In dieser Arbeit richtet sich unser Augenmerk weniger auf die Frage, wie eine Gesellschaftsschicht entstanden ist, als auf die Umstände, die die Menschen dazu bewogen haben, ihrem Schicksal und dem Ihresgleichen oder gar der ganzen Gesellschaft eine andere Wendung zu geben. Wir stellten das Werk von E.P.Thompson in Frage, welcher in seinem bekannten Buch "The Making of the English Working Class" radikale Bewegungen, entsprechend einer Vorstellung von Klasse, definiert. Wie kam es, dass ein einfacher Schuster wie Thomas Hardy, während eines Prozesses, in dem er beschuldigt wurde, eine moderne Revolution anzuzetteln, im Zentrum der Öffentlichkeit stand? Wie kam es, dass ein Autodidakt und ein Anhängiger der Ultra- Tories wie William Cobbett sich nach und nach für das allgemeine Wahlrecht einsetzte, zu einer Zeit, in der es unpopulär war? Wie kam es, dass sich die ganze Bevölkerung in Massen um Henry Hunt scharte, einen Gutsbesitzer, der nicht gerade dazu bestimmt war, sich für die Belange des Volkes stark zu machen? Unser Ziel ist es, das Universum, in dem die wichtigsten Beteiligten lebten, wiederzugeben, so als wären wir ein privilegierter Zeuge dieser Epochen. Die einfachste Art diese Fragen zu beantworten und die Beschaffenheit der Volksbewegungen zu verstehen besteht unserer Meinung nach darin, das Leben jener Männer zu studieren, die sie gestaltet haben. Wir hatten den Einfall, mehrere Männer, die in einem Zeitraum von mehr als 50 Jahren gelebt haben, miteinander in Verbindung zu bringen, als uns aufgefallen ist, dass Schlüsselmomente der Reformbewegungen miteinander korrespondieren, wie z.B der Prozess von Thomas Hardy und das Massaker von Peterloo 1819. Je mehr wir uns mit diesen Ereignissen beschäftigten, desto mehr weckte dies unsere Neugier auf das Leben jener Menschen, die sie verursacht haben. Schlussendlich konnte man sich fragen, ob radikal zu sein nicht eher eine Frage des Charakters als eine Frage der Klassenzugehörigkeit war. Die verschiedenen Volksbewegungen für eine Parlamentsreform haben in der Tat viel mehr unterschiedliche Menschen vereint und waren um einiges vielfältiger als es die Historiker behauptet haben. So war es zum Beispiel Thomas Hardys Vorhaben, die Führung des Verbandes einer intellektuellen Elite unter Horne Tookes Kommando zu überlassen, nachdem er es geschafft haben würde, genug Mitglieder der Arbeiterschicht zu versammeln. Auβerdem haben die Sympathisanten mit Freude Führer akzeptiert, deren Schicksal sehr wenig mit dem Ihrigen gemeinsam hatte. O’Connor z. B erhob den Anspruch, der Nachkomme eines irischen Königs zu sein. Cobbett, der Besitzer einer bedeutenden Zeitung, erinnerte daran, dass er aus einer Bauernfamilie stammte. William Lovett, der den Liberalen und einigen Parlamentsmitgliedern nahe stand, stammte aus einer armen Fischerfamilie. Wir haben diese fünf Männer Thomas Hardy, William Cobbett, Henry Hunt, William Lovett und Feargus O’Connor in Verbindung gebracht, um gewissermaßen eine Saga der Radikalen zu erstellen. Dies erlaubte es uns, uns ein genaueres Bild zu machen von den Merkmalen der verschiedenen Bewegungen, an denen sie teilgenommen haben, von dem Kontext, in dem die Bewegungen entstanden sind, von ihren Misserfolgen, von der besonderen Atmosphäre, die in diesen unterschiedlichen Epochen herrschte, von den Männern, die diese Bewegungen beeinflusst haben und zuletzt von dem Zeichen, das sie gesetzt haben. Diese Männer waren im Mittelpunkt eines Netzwerkes und standen in Verbindung mit anderen Akteuren, die an peripheren Bewegungen beteiligt waren. Sie waren umgeben von treuen Weggefährten, mit denen zusammen sie viele Kämpfe ausgetragen haben, oder mit denen sie sich heftig gestritten haben. Unsere Vorgehensweise ist insofern neu, als wir die Fluktuationen der radikalen Bewegungen weder linear bzw. chronologisch beleuchten, noch in einer zersplitterten Weise, indem wir die Problematik in mehrere Themen unterteilen. Wir sind ganz einfach dem Leben der Männer gefolgt, die am Ursprung dieser Bewegung standen. Jedes Kapitel behandelt eine historische Person und die gesamte Abhandlung ist chronologisch aufgebaut. Manchmal war es notwendig, Rückblenden einzubauen oder die gleichen Ereignisse mehrmals zu erwähnen, wenn verschiedene historische Personen daran beteiligt waren. Die radikalen Bewegungen wurden von Menschen aus verschiedenen Horizonten beeinflusst. Verbunden waren sie vor allem durch ihr Bestreben, eine Normalisierung der politischen Welt zu erreichen, gegen die Ungerechtigkeiten zu kämpfen und eine Parlamentsreform durchzusetzen. Wir haben uns auf die Momente konzentriert, in denen das Leben der Männer mit einem aktiven Handeln in der radikalen Bewegung oder mit einer Veränderung ihrer Ideen oder in ihrer Organisation einherging. Ihre emotionalen Beziehungen und ihre Einstellung zu belanglosen Fragen interessierten uns nicht. Ihre Meinungen zu Fragen, die unser Studienobjekt nicht betreffen, waren auch nicht Gegenstand dieser Abhandlung, es sei denn sie ermöglichten es uns, ihre Persönlichkeit besser zu umreiβen. Unser Augenmerk richtete sich ausdrücklich und vor allem auf die radikale Tätigkeit der Beteiligten. Natürlich haben wir auch die Lebensumstände und die geistige Entwicklung dieser Männer geschildert, denn wir wissen, dass Meinungen sich im Laufe eines Lebens ändern können, wie es der bemerkenswerte Fall von Cobbett verdeutlicht. Das Leben dieser Personen fiel zeitlich mit markanten Momenten in der radikalen Bewegung zusammen, wie z. B die ersten politischen Organisationen der Arbeiterschichten, die ersten Massendemonstrationen oder die ersten politisch ausgerichteten Volkszeitungen. Wir wollten die menschlichen Züge jener Männer wiedergeben, die Reden gehalten haben und die in den radikalen Verbänden anwesend waren. Man könnte uns vorwerfen, dass wir- wenn wir uns auf eine historische Person konzentriert haben- andere Fakten oder Personen, die nicht zu ihrem Umfeld gehörten aber dennoch an der Bewegung beteiligt waren, ausgeblendet haben. Uns schien es aber wesentlich, die analytische Methode oder die historische Chronik, die die Studien über die radikalen Bewegungen maßgeblich prägt, aufzugeben. Unser Ziel war es nämlich, diese Schilderungen zu vervollständigen, indem wir den menschlichen Aspekt in den Vordergrund stellten. Dazu haben wir die biografische Perspektive gewählt und unserer Studie angepasst. Schluss Jeder Mann, dessen Rolle wir hervorgehoben haben, lebte in einer bestimmten Phase der radikalen Bewegung. Der Vergleich der Reden, die sie in verschiedenen Epochen gehalten haben, hat aufgezeigt, dass die radikale Ideologie sich im Laufe der Zeit verändert hat. Die Verteidigung der Menschenrechte verlor an Bedeutung und die Argumentation wurde konkreter: Es ging z. B mehr und mehr um das Recht, die Früchte seiner Arbeit zu genieβen. Dieser Wandel fand in der chartistischen Epoche Feargus O’Connors statt. Die Traditionen des Radikalismus und die Erinnerung daran spielten jedoch weiterhin eine wichtige Rolle. Die Rhetorik des Konstitutionalismus und der Volksmythos waren Themen, mit denen die Arbeiterschichten sich immer identifiziert haben, und die ihre Forderung nach dem allgemeinen Wahlrecht gerechtfertigt haben. Wir haben uns auf das Leben einiger einflussreicher Männer des Radikalismus konzentriert, um seine Entwicklung und sein Wesen zu verstehen. Ihre Lebensläufe haben uns als Leitfaden gedient und haben es uns ermöglicht, eine Kohärenz in unserer Abhandlung zu wahren. Zwar sind die Kapitel unabhängig voneinander, aber die Ereignisse und die Reden korrespondieren miteinander. Man könnte manchmal den Eindruck haben, dass sich Fakten, Handlungen und die Geschichte im Allgemeinen endlos wiederholen. Allerdings ist der Zeitgeist im ständigen Wandel begriffen, so wie dies auch beim technischen Fortschritt der Fall ist. Wir sind der Ansicht, dass diese Besonderheiten fundamentale Elemente sind, die es ermöglichen, historische Phänomene zu begreifen, die nicht auf philosophische, soziologische oder historische Konzepte reduziert werden können. Die Geschichte als Wissenschaft weist die Besonderheit auf, dass die physische Realität und die erwähnten Phänomene auch eine menschliche Realität sind. Daher ist es wesentlich, bei der intellektuellen Auseinandersetzung mit einem historischen Phänomen den menschlichen Aspekt nicht aus den Augen zu verlieren. Wir wollten einen Weg einschlagen, der dem vieler Historiker entgegengesetzt ist. Unser Augenmerk richtete sich zunächst auf die Männer, die ihre jeweiligen Epochen maβgeblich geprägt haben, bevor wir uns mit Konzepten beschäftigt haben. Die Männer, die wir auserwählt haben, gaben uns einen neuen und frischen Blick auf den Radikalismus und brachten uns diesen näher. Natürlich sind wir nicht die ersten, die sich mit diesen historischen Personen beschäftigt haben. Durch die chronologische Anordnung unserer Abhandlung, wollten wir- so wie Plutarch, der griechische und römische historische Personen miteinander in Verbindung brachte- die Wesensmerkmale ihrer Reden, Persönlichkeiten und Epochen aber auch ihre Unterschiede in den Vordergrund rücken. Wir haben also versucht, eine Bewegung zu umreiβen und im Kern zu erfassen und die Wege nachzuzeichnen, die zum Radikalismus führten. Wir behaupten nicht, dass wir eine neuartige und ausschlieβliche Definition dieser Bewegung geliefert haben. Wir haben nur versucht, die Wesensmerkmale eines Radikalen zu begreifen und herauszufinden, aus welchen Gründen tausende Männer an diesen Mann geglaubt haben. Wir wollten uns von der ideologischen Debatte über den Kalten Krieg losmachen, die sogar auf die Interpretation zurückliegender Ereignisse abgefärbt hat. Zu oft wurde die Geschichte des Radikalismus mit einer Art revolutionären Nostalgie erzählt, oder mit der Absicht, die Vorzüge des Liberalismus zu preisen. Der Chartismus leitete zwar im 19. Jahrhundert das Ende der groβen Massenbewegungen in England ein, aber diese Methode hat sich im 20. Jahrhundert überall auf der Welt verbreitet. In der Tat zeigt der arabische Frühling am Beginn des 21. Jahrhunderts, dass die zahlenmäβige Überlegenheit das beste Druckmittel des Volkes ist, um seine Rechte einzufordern und das bestehenden Regime zu destabilisieren. Ein Volk, das demonstriert, zeigt, dass es keine Angst mehr hat. Von dem Moment an, in dem ein autoritäres Regime diese psychologische Waffe, die es ihm ermöglicht hat, an der Macht zu bleiben, verliert, kehrt sich das Machtgefälle zwischen der autoritären Staatsgewalt und dem unterworfenen Volk um. Diesen psychologischen Sieg haben die englischen Radikalen vor mehr als 150 Jahren errungen. Jedoch wurde das allgemeine Wahlrecht erst ein Jahrhundert später eingeführt. Damit es also nicht bei Prinzipienerklärungen bleibt, sondern die Freiheiten in die Wirklichkeit umgesetzt werden, bedarf es einer Bewusstseinsänderung, die nur durch eine langwierige Arbeit zustande kommen kann. Für die Schwächsten ist dies ein langer Kampf. In Anbetracht der abendländischen Geschichte muss man die Freiheiten als Rechte betrachten, die es immer wieder zu verteidigen gilt. Paradoxerweise scheint die Revolte also eine grundlegende und unabdingbare Bedingung zu sein, um die Demokratie zu erhalten. KW - radicalism KW - parliamentary reforms KW - universal suffrage KW - extra-parliamentary associations KW - English working class KW - Radikalismus KW - Parlamentsreform KW - allgemeine Wahlrecht KW - auβerparlamentarische Gruppierungen KW - englische Arbeiterklasse Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75472 ER - TY - THES A1 - Sayago, Jhosnella T1 - Late Paleozoic basin analysis of the Loppa High and Finnmark Platform in the Norwegian Barents Sea : integration of seismic attributes and seismic sequence stratigraphy T1 - Jungpaläozoikum becken analyse der Loppa High und Finnmark Platform in der norwegischen Barentssee : Integration von seismischen Attributen und seismische Sequenzstratigraphie N2 - The subsurface upper Palaeozoic sedimentary successions of the Loppa High half-graben and the Finnmark platform in the Norwegian Barents Sea (southwest Barents Sea) were investigated using 2D/3D seismic datasets combined with well and core data. These sedimentary successions represent a case of mixed siliciclastic-carbonates depositional systems, which formed during the earliest phase of the Atlantic rifting between Greenland and Norway. During the Carboniferous and Permian the southwest part of the Barents Sea was located along the northern margin of Pangaea, which experienced a northward drift at a speed of ~2–3 mm per year. This gradual shift in the paleolatitudinal position is reflected by changes in regional climatic conditions: from warm-humid in the early Carboniferous, changing to warm-arid in the middle to late Carboniferous and finally to colder conditions in the late Permian. Such changes in paleolatitude and climate have resulted in major changes in the style of sedimentation including variations in the type of carbonate factories. The upper Palaeozoic sedimentary succession is composed of four major depositional units comprising chronologically the Billefjorden Group dominated by siliciclastic deposition in extensional tectonic-controlled wedges, the Gipsdalen Group dominated by warm-water carbonates, stacked buildups and evaporites, the Bjarmeland Group characterized by cool-water carbonates as well as by the presence of buildup networks, and the Tempelfjorden Group characterized by fine-grained sedimentation dominated by biological silica production. In the Loppa High, the integration of a core study with multi-attribute seismic facies classification allowed highlighting the main sedimentary unconformities and mapping the spatial extent of a buried paleokarst terrain. This geological feature is interpreted to have formed during a protracted episode of subaerial exposure occurring between the late Palaeozoic and middle Triassic. Based on seismic sequence stratigraphy analysis the palaeogeography in time and space of the Loppa High basin was furthermore reconstructed and a new and more detailed tectono-sedimentary model for this area was proposed. In the Finnmark platform area, a detailed core analysis of two main exploration wells combined with key 2D seismic sections located along the main depositional profile, allowed the evaluation of depositional scenarios for the two main lithostratigraphic units: the Ørn Formation (Gipsdalen Group) and the Isbjørn Formation (Bjarmeland Group). During the mid-Sakmarian, two major changes were observed between the two formations including (1) the variation in the type of the carbonate factories, which is interpreted to be depth-controlled and (2) the change in platform morphology, which evolved from a distally steepened ramp to a homoclinal ramp. The results of this study may help supporting future reservoirs characterization of the upper Palaeozoic units in the Barents Sea, particularly in the Loppa High half-graben and the Finmmark platform area. N2 - Die unterirdischen Sedimentabfolgen des oberen Paläozoikums des Loppa High Halbgrabens und der Finnmark-Plattform in der norwegischen Barentssee (südwestliche Barentssee) wurden mit 2D/3D-Seismik Datensätzen untersucht, welche mit Bohrungs-und Kerndaten kombiniert wurde. Diese Sedimentabfolgen stellen einen Fall von gemischten siliziklastischen-karbonatischen Ablagerungssystemen dar, die während der ersten Phase des Atlantiks-Riftings zwischen Grönland und Norwegen gebildet wurden. Während des Karbons und Perms war der südwestliche Teil der Barentssee entlang des Nordrand von Pangäa lokalisiert, der einen Drift nach Norden mit einer Geschwindigkeit von ~ 2-3 mm pro Jahr erlebte. Diese allmähliche Verschiebung in der paläolatitudinalen Position spiegelt sich durch Veränderungen in den regionalen klimatischen Bedingungen wider: von warm-feuchten im frühen Karbon, zu warm-ariden im mittleren bis späten Karbon und schließlich zu gemäßigten-kalten Bedingungen im späten Perm. Solche Änderungen in Paläolatitude und Klima führten zu größeren Veränderungen im Sedimentationsstil, einschließlich Variationen in der Karbonatausfällungsart. Die obere paläozoische Sedimentfolge umfasst vier Hauptablagerungseinheiten, in chronologischer Reihenfolge, die Billefjorden-Gruppe, welche von siliziklastischen Ablagerungen in durch extensionale Tektonik gesteuerten Keilen dominiert wird, die Gipsdalen-Gruppe, die von Warmwasser-Karbonaten, „stacked buildups“ und Evaporiten dominiert wird, die Bjarmeland-Gruppe, von Kaltwasser-Karbonaten als auch durch die Anwesenheit von „buildup-networks“ charakterisiert, und die Tempelfjorden-Gruppe, die durch feinkörnige Sedimentation, dominiert durch biologische Produktion von Kieselsäure, gekennzeichnet. In der Loppa High war es durch die Integration einer Kernstudie mit einer Multi-Attribut Klassifizierung der seismischen Fazien möglich, die wichtigsten sedimentären Diskordanzen hervorzuheben und die räumliche Ausdehnung eines verborgenen Paläokarstsystems zu kartieren. Diese geologische Besonderheit soll sich während einer lang-anhaltenden Episode der subaerischen Exposition gebildet haben, die zwischen dem späten Paläozoikum und mittleren Trias auftrat. Basierend auf der Analyse seismischer Sequenzstratigraphie, wurde die Paläogeographie des Loppa High Beckens im Hinblick auf Zeit und Raum weiterhin umgebaut und eine neue und es wurde ein detaillierteres tektonisch-sedimentäres Modell für diesen Bereich vorgeschlagen. Im Bereich der Finnmark-Plattform konnte durch eine detaillierte Bohrkernanalyse zweier Explorationsbohrungen in Kombination mit seismischen 2D-Schlüssel-Sektionen, die sich entlang des Hauptablagerungsprofils befindet, Ablagerungsszenarien für die beiden wichtigsten lithologischen Einheiten bewertet werden: die Ørn Formation (Gipsdalen Gruppe) und die Isbjørn Formation (Bjarmeland-Gruppe). Im mittleren Sakmarian wurden zwei wichtige Änderungen zwischen den beiden Formationen beobachtet, einschließlich (1) der Veränderung in der Art der Karbotausfällungen, welche als Tiefen-abhängig beschrieben wird, und (2) die Veränderung der Plattformmorphologie, die sich von einer distal steilen Rampe zu einer homoklinalen Rampe entwickelte. Die Ergebnisse dieser Studie können dazu beitragen, zukünftige Reservoir-Charakterisierungen der Einheiten des oberen Paläozoikum in der Barentssee zu unterstützen, vor allem im Loppa High Halbgraben und dem Finmmark Plattformbereich. KW - Loppa High KW - seismische Sequenzstratigraphie KW - seismische Attribute KW - Finnmark Platform KW - Paläogeographie KW - Loppa High KW - seismic sequence stratigraphy KW - seismic attributes KW - Finnmark Platform KW - paleogeography Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72576 ER - TY - THES A1 - Nguyen, Van Manh T1 - Large-scale floodplain sediment dynamics in the Mekong Delta : present state and future prospects T1 - Großskalige Sedimentdynamik im Mekong Delta : aktuelle Situation und zukünftige Entwicklungen N2 - The Mekong Delta (MD) sustains the livelihood and food security of millions of people in Vietnam and Cambodia. It is known as the “rice bowl” of South East Asia and has one of the world’s most productive fisheries. Sediment dynamics play a major role for the high productivity of agriculture and fishery in the delta. However, the MD is threatened by climate change, sea level rise and unsustainable development activities in the Mekong Basin. But despite its importance and the expected threats, the understanding of the present and future sediment dynamics in the MD is very limited. This is a consequence of its large extent, the intricate system of rivers, channels and floodplains and the scarcity of observations. Thus this thesis aimed at (1) the quantification of suspended sediment dynamics and associated sediment-nutrient deposition in floodplains of the MD, and (2) assessed the impacts of likely future boundary changes on the sediment dynamics in the MD. The applied methodology combines field experiments and numerical simulation to quantify and predict the sediment dynamics in the entire delta in a spatially explicit manner. The experimental part consists of a comprehensive procedure to monitor quantity and spatial variability of sediment and associated nutrient deposition for large and complex river floodplains, including an uncertainty analysis. The measurement campaign applied 450 sediment mat traps in 19 floodplains over the MD for a complete flood season. The data also supports quantification of nutrient deposition in floodplains based on laboratory analysis of nutrient fractions of trapped sedimentation.The main findings are that the distribution of grain size and nutrient fractions of suspended sediment are homogeneous over the Vietnamese floodplains. But the sediment deposition within and between ring dike floodplains shows very high spatial variability due to a high level of human inference. The experimental findings provide the essential data for setting up and calibration of a large-scale sediment transport model for the MD. For the simulation studies a large scale hydrodynamic model was developed in order to quantify large-scale floodplain sediment dynamics. The complex river-channel-floodplain system of the MD is described by a quasi-2D model linking a hydrodynamic and a cohesive sediment transport model. The floodplains are described as quasi-2D presentations linked to rivers and channels modeled in 1D by using control structures. The model setup, based on the experimental findings, ignored erosion and re-suspension processes due to a very high degree of human interference during the flood season. A two-stage calibration with six objective functions was developed in order to calibrate both the hydrodynamic and sediment transport modules. The objective functions include hydraulic and sediment transport parameters in main rivers, channels and floodplains. The model results show, for the first time, the tempo-spatial distribution of sediment and associated nutrient deposition rates in the whole MD. The patterns of sediment transport and deposition are quantified for different sub-systems. The main factors influencing spatial sediment dynamics are the network of rivers, channels and dike-rings, sluice gate operations, magnitude of the floods and tidal influences. The superposition of these factors leads to high spatial variability of the sediment transport and deposition, in particular in the Vietnamese floodplains. Depending on the flood magnitude, annual sediment loads reaching the coast vary from 48% to 60% of the sediment load at Kratie, the upper boundary of the MD. Deposited sediment varies from 19% to 23% of the annual load at Kratie in Cambodian floodplains, and from 1% to 6% in the compartmented and diked floodplains in Vietnam. Annual deposited nutrients (N, P, K), which are associated to the sediment deposition, provide on average more than 50% of mineral fertilizers typically applied for rice crops in non-flooded ring dike compartments in Vietnam. This large-scale quantification provides a basis for estimating the benefits of the annual Mekong floods for agriculture and fishery, for assessing the impacts of future changes on the delta system, and further studies on coastal deposition/erosion. For the estimation of future prospects a sensitivity-based approach is applied to assess the response of floodplain hydraulics and sediment dynamics to the changes in the delta boundaries including hydropower development, climate change in the Mekong River Basin and effective sea level rise. The developed sediment model is used to simulate the mean sediment transport and sediment deposition in the whole delta system for the baseline (2000-2010) and future (2050-2060) periods. For each driver we derive a plausible range of future changes and discretize it into five levels, resulting in altogether 216 possible factor combinations. Our results thus cover all plausible future pathways of sediment dynamics in the delta based on current knowledge. The uncertainty of the range of the resulting impacts can be decreased in case more information on these drivers becomes available. Our results indicate that the hydropower development dominates the changes in sediment dynamics of the Mekong Delta, while sea level rise has the smallest effect. The floodplains of Vietnamese Mekong Delta are much more sensitive to the changes compared to the other subsystems of the delta. In terms of median changes of the three combined drivers, the inundation extent is predicted to increase slightly, but the overall floodplain sedimentation would be reduced by approximately 40%, while the sediment load to the Sea would diminish to half of the current rates. These findings provide new and valuable information on the possible impacts of future development on the delta, and indicate the most vulnerable areas. Thus, the presented results are a significant contribution to the ongoing international discussion on the hydropower development in the Mekong basin and its impact on the Mekong delta. N2 - Das Mekong Delta bildet die Existenzgrundlage und Nahrungsquelle für mehrere Millionen Menschen in Vietnam und Kambodscha. Die Sedimentdynamik spielt in diesem Zusammenhang eine große Rolle für die Landwirtschaft und Fischerei im Delta. Klimawandel und zweifelhaft nachhaltige Entwicklungen im Mekong Einzugsgebiet können jedoch diese essentielle Grundlage gefährden. Trotz der hohen Bedeutung des Sedimenthaushaltes für das Delta ist jedoch das Wissen um die räumliche und zeitliche Dynamik der Sedimentdynamik und insbesondere der Sedimentation auf den Überflutungsflächen sehr begrenzt. Dies liegt zum einen an der hohen Komplexität des Deltas mit unzähligen Kanälen, Deichen und hydraulischen Strukturen, zum anderen an dem Mangel an Beobachtungsdaten. Die vorliegende Arbeit zielte daher auf a) die Schaffung einer quantitativen Datenbasis zur Sedimentation auf den Überflutungsflächen, b) auf eine modellbasierte Abschätzung der Sedimentation im gesamten Mekong Delta, und c) auf die Abschätzung des Einflusses relevanter Änderungen in den Randbedingungen auf die zukünftige Sedimentdynamik. Im experimentellen Teil der Arbeit wurde die Sedimentation auf den Überflutungsflächen im vietnamesischen Teil des Deltas mittels Sedimentfallen, die über weite Bereiche des Deltas verteilt wurden, quantitativ inklusive einer Unsicherheitsabschätzung bestimmt. Die Ergebnisse zeigten, dass die Sedimentation räumlich sehr stark variiert, verursacht durch die Komplexität und Diversität des hydraulischen Systems und insbesondere die menschliche Steuerung der hydraulischen Bauten. Die experimentellen Daten geben einen ersten Einblick in die räumliche Variabilität der Sedimentation im Mekong Delta, und bilden die Basis für die Kalibrierung des hydraulischen Modells im nächsten Schritt. Zusätzlich konnten auch die Nährstoffanteile im Sediment bestimmt werden, wodurch eine Basis zur Abschätzung des Nutzens der Sedimente für die Landwirtschaft gelegt wurde. Die Sedimentdynamik wurde mittels eines quasi-2D hydraulischen Modells, das mit einer Sedimenttransportroutine für kohäsive Sedimente gekoppelt wurde, simuliert. Hierbei wurden die hydraulische und die Sedimenttransportroutine unabhängig voneinander mit mehreren Optimierungsfunktionen und Stations-, Feld- und Fernerkundungsdaten kalibriert. Durch die Modellergebnisse konnte zum ersten Mal die räumliche und zeitliche Variabilität des Sedimenttansports und der Sedimentation quantifiziert werden. Diese großskalige Quantifizierung bildet zudem die Basis für eine ökonomische Nutzensabschätzung der Sedimente für die Landwirtschaft und Fischerei. Mittels des entwickelten und kalibrierten Modells konnten auch zukünftige Entwicklungen abgeschätzt werden. Hierzu wurde ein Verfahren basierend auf einem Sensitivitätsansatz implementiert, mittels dessen die Auswirkungen des Baus von Staudämmen im Mekong Einzugsgebiet, des Klimawandels auf den Abfluss und Sedimenttransport aus dem Mekong Einzugsgebiet und des effektiven Meeresspiegelanstiegs auf die Sedimentdynamik im Delta einzeln in verschiedenen Ausprägungsstufen als auch kombiniert quantifiziert werden konnte. Durch diese Kombinationen können alle möglichen zukünftigen Entwicklungen basierend auf dem jetzigen Kenntnisstand betrachtet werden. Von den betrachteten Faktoren hat der Bau von Staudämmen den größten Einfluss auf die Sedimentdynamik im Delta, insbesondere auf den vietnamesischen Teil des Deltas. Der Klimawandel hat das Potential diese Änderungen partiell zu dämpfen, aber auch zu verstärken. Die Änderungen im Meeresspiegel haben den geringsten Effekt, beschränken sich in den Auswirkungen auf den Vietnamesischen Teil und modulieren im Wesentlichen die Auswirkungen des Klimawandels. Diese Ergebnisse liefern somit neue quantitative Erkenntnisse zur möglichen zukünftigen Sedimentdynamik im Mekong Delta, identifiziert die verwundbarsten Regionen und trägt dadurch zur internationalen kontroversen Diskussion über die Auswirkungen des Staudammbaus im Mekong bei. KW - Mekong Delta KW - Sedimentfallen KW - Sedimentation KW - Sedimenttransportroutine KW - Staudämme KW - Mekong Delta KW - sediment trap KW - floodplain sedimentation KW - sediment transport KW - hydropower dam impact Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72512 ER - TY - THES A1 - Steyrleuthner, Robert T1 - Korrelation von Struktur, optischen Eigenschaften und Ladungstransport in einem konjugierten Naphthalindiimid-Bithiophen Copolymer mit herausragender Elektronenmobilität T1 - Correlation of structure, optical properties and charge transport in a conjugated naphtalendiimide-bithiophene copolymer with outstanding electron mobility N2 - Organische Halbleiter besitzen neue, bemerkenswerte Materialeigenschaften, die sie für die grundlegende Forschung wie auch aktuelle technologische Entwicklung (bsw. org. Leuchtdioden, org. Solarzellen) interessant werden lassen. Aufgrund der starken konformative Freiheit der konjugierten Polymerketten führt die Vielzahl der möglichen Anordnungen und die schwache intermolekulare Wechselwirkung für gewöhnlich zu geringer struktureller Ordnung im Festkörper. Die Morphologie hat gleichzeitig direkten Einfluss auf die elektronische Struktur der organischen Halbleiter, welches sich meistens in einer deutlichen Reduktion der Ladungsträgerbeweglichkeit gegenüber den anorganischen Verwandten zeigt. So stellt die Beweglichkeit der Ladungen im Halbleiter einen der limitierenden Faktoren für die Leistungsfähigkeit bzw. den Wirkungsgrad von funktionellen organischen Bauteilen dar. Im Jahr 2009 wurde ein neues auf Naphthalindiimid und Bithiophen basierendes Dornor/Akzeptor Copolymer vorgestellt [P(NDI2OD‑T2)], welches sich durch seine außergewöhnlich hohe Ladungsträgermobilität auszeichnet. In dieser Arbeit wird die Ladungsträgermobilität in P(NDI2OD‑T2) bestimmt, und der Transport durch eine geringe energetischer Unordnung charakterisiert. Obwohl dieses Material zunächst als amorph beschrieben wurde zeigt eine detaillierte Analyse der optischen Eigenschaften von P(NDI2OD‑T2), dass bereits in Lösung geordnete Vorstufen supramolekularer Strukturen (Aggregate) existieren. Quantenchemische Berechnungen belegen die beobachteten spektralen Änderungen. Mithilfe der NMR-Spektroskopie kann die Bildung der Aggregate unabhängig von optischer Spektroskopie bestätigt werden. Die Analytische Ultrazentrifugation an P(NDI2OD‑T2) Lösungen legt nahe, dass sich die Aggregation innerhalb der einzelnen Ketten unter Reduktion des hydrodynamischen Radius vollzieht. Die Ausbildung supramolekularen Strukturen nimmt auch eine signifikante Rolle bei der Filmbildung ein und verhindert gleichzeitig die Herstellung amorpher P(NDI2OD‑T2) Filme. Durch chemische Modifikation der P(NDI2OD‑T2)-Kette und verschiedener Prozessierungs-Methoden wurde eine Änderung des Kristallinitätsgrades und gleichzeitig der Orientierung der kristallinen Domänen erreicht und mittels Röntgenbeugung quantifiziert. In hochauflösenden Elektronenmikroskopie-Messungen werden die Netzebenen und deren Einbettung in die semikristallinen Strukturen direkt abgebildet. Aus der Kombination der verschiedenen Methoden erschließt sich ein Gesamtbild der Nah- und Fernordnung in P(NDI2OD‑T2). Über die Messung der Elektronenmobilität dieser Schichten wird die Anisotropie des Ladungstransports in den kristallographischen Raumrichtungen von P(NDI2OD‑T2) charakterisiert und die Bedeutung der intramolekularen Wechselwirkung für effizienten Ladungstransport herausgearbeitet. Gleichzeitig wird deutlich, wie die Verwendung von größeren und planaren funktionellen Gruppen zu höheren Ladungsträgermobilitäten führt, welche im Vergleich zu klassischen semikristallinen Polymeren weniger sensitiv auf die strukturelle Unordnung im Film sind. N2 - Organic semiconductors are in the focus of recent research and technological development (eg. for organic light-emitting diodes and solar cells) due to their specific and outstanding material properties. The strong conformational freedom of conjugated polymer chains usually leads to a large number of possible geometric arrangements while weak intermolecular interactions additionally lead to poor structural order in the solid state. At the same time the morphology of those systems has direct influence on the electronic structure of the organic semiconductor which is accompanied by a significant reduction of the charge carrier mobility in contrast to their inorganic counterparts. In that way the transport of charges within the semiconductor represents one of the main limiting factors regarding the performance and efficiency of functional organic devices. In 2009 Facchetti and coworkers presented a novel conjugated donor/acceptor copolymer based on naphthalene diimide and bithiophene [P(NDI2OD‑T2)] which was characterized by an outstanding charge carrier mobility. In this work the mobility of electrons and holes in the bulk of P(NDI2OD‑T2) is determined by single carrier devices and the time-of-flight technique. The results imply a low energetic disorder in these polymer layers. While the material was initially expected to be mainly amorphous, a detailed study of the photophysical properties of P(NDI2OD‑T2) shows that precursors of supramolecular assemblies (aggregates) are already formed in polymer solution. Quantum-chemical calculations support the occurring optical changes. NMR spectroscopy was applied to independently prove the formation of chain aggregates in commonly used organic solvents. The investigation of P(NDI2OD‑T2) solutions by analytical ultracentrifugation implies that aggregation mainly proceeds within single polymer chains by reduction of the hydrodynamic radius. To understand the influence of the chemical structure, pre-aggregation and crystal packing of conventional regioregular P(NDI2OD-T2) on the charge transport, the corresponding regioirregular polymer RI-P(NDI2OD-T2) was synthesized. By combining optical, X-ray, and transmission electron microscopy data, a quantitatively characterization of the aggregation, crystallization, and backbone orientation of all of the polymer films was possible, which was then correlated to the electron mobilities in electron-only diodes. The anisotropy of the charge transport along the different crystallographic directions is demonstrated and how the mobility depends on π-stacking but is insensitive to the degree or coherence of lamellar stacking. The comparison between the regioregular and regioirregular polymers also shows how the use of large planar functional groups leads to improved charge transport, with mobilities that are less affected by chemical and structural disorder with respect to classic semicrystalline polymers such as poly(3-hexylthiophene). KW - organische Halbleiter KW - Ladungstransport KW - Solarzellen KW - Polymere KW - Photophysik KW - organic semiconductor KW - charge transport KW - solar cells KW - polymers KW - photo physics Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71413 ER - TY - THES A1 - Raiser, Christoph T1 - Kompromisse im Europäischen Parlament : eine kultursoziologische Analyse von Entscheidungsprozessen in einer supranationalen Institution T1 - Compromise in the European Parliament : a cultural sociological approach to decision-making processes in a supranational institution N2 - Das Europäische Parlament ist zweifelsohne die mächtigste parlamentarische Versammlung auf supranationaler Ebene. Das provoziert die Frage, wie Entscheidungen in diesem Parlament gefällt werden und wie sie begründet werden können. Darin liegt das Hauptanliegen dieser Arbeit, die zur Beantwortung dieser Frage auf soziologische Ansätze der Erklärung sozialen Handelns zurückgreift und damit einen neuen Zugang zur Beobachtung parlamentarischen Handelns schafft. Dabei arbeitet sie heraus, wie wichtig es ist, bei der Analyse politischer Entscheidungsprozesse zu beachten, wie politische Probleme von Akteuren interpretiert und gegenüber Verhandlungspartnern dargestellt werden. An den Fallbeispielen der Entscheidungsprozesse zur Dienstleistungsrichtlinie, zur Chemikalien-Verordnung REACH und dem TDIP (CIA)-Ausschuss in der Legislaturperiode 2004–2009, wird der soziale Mechanismus dargestellt, der hinter Einigungen im Europäischen Parlament steckt. Kultur als Interpretation der Welt wird so zum Schlüssel des Verständnisses politischer Entscheidungen auf supranationaler Ebene. N2 - The European Parliament is the most powerful parliamentary assembly on the supranational level. However, the question of how and why decisions are being taken in this parliament has been insufficiently addressed so far. This is the main aim of this book, which draws on sociological theories for explaining social action and thus opens up a new approach to the analysis of parliamentary action. It argues that it is necessary to take into account how actors interpret political problems and how they relate to their counterparts in negotiations. In three case studies on decision-making processes in the 6th European Parliament between 2004 and 2009 - Services Directive, REACH and the TDIP (CIA-)committee – the study reconstructs the social mechanism behind compromise in the EP. Culture as the way actors attach meaning to the world is the key to understanding political decisions on the supranational level. KW - Europäisches Parlament KW - Kompromiss KW - Kultur KW - Narration KW - Netzwerkanalyse KW - European Parliament KW - Compromise KW - Culture KW - Narration KW - Network analysis Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69560 SN - 978-3-86956-283-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Sarrar, Lea T1 - Kognitive Funktionen bei adoleszenten Patienten mit Anorexia nervosa und unipolaren Affektiven Störungen T1 - Cognitive functions in adolescent patients with anorexia nervosa and unipolar affective disorders N2 - Anorexia nervosa und unipolare Affektive Störungen stellen häufige und schwerwiegende kinder- und jugendpsychiatrische Störungsbilder dar, deren Pathogenese bislang nicht vollständig entschlüsselt ist. Verschiedene Studien zeigen bei erwachsenen Patienten gravierende Auffälligkeiten in den kognitiven Funktionen. Dahingegen scheinen bei adoleszenten Patienten lediglich leichtere Einschränkungen in den kognitiven Funktionen vorzuliegen. Die Prävalenz der Anorexia nervosa und unipolaren Affektiven Störung ist mit Beginn der Adoleszenz deutlich erhöht. Es ist anzunehmen, dass kognitive Dysfunktionen, die sich bereits in diesem Alter abzeichnen, den weiteren Krankheitsverlauf bis in das Erwachsenenalter, die Behandlungsergebnisse und die Prognose maßgeblich beeinträchtigen könnten. Zudem ist von einem höheren Chronifizierungsrisiko auszugehen. In der vorliegenden Arbeit wurden daher kognitive Funktionen bei adoleszenten Patientinnen mit Anorexia nervosa sowie Patienten mit unipolaren Affektiven Störungen untersucht. Die Überprüfung der kognitiven Funktionen bei Patientinnen mit Anorexia nervosa erfolgte vor und nach Gewichtszunahme. Weiterhin wurden zugrundeliegende biologische Mechanismen überprüft. Zudem wurde die Spezifität kognitiver Dysfunktionen für beide Störungsbilder untersucht und bei Patienten mit unipolaren Affektiven Störungen geschlechtsbezogene Unterschiede exploriert. Insgesamt gingen 47 Patientinnen mit Anorexia nervosa (mittleres Alter 16,3 + 1,6 Jahre), 39 Patienten mit unipolaren Affektiven Störungen (mittleres Alter 15,5 + 1,3 Jahre) sowie 78 Kontrollprobanden (mittleres Alter 16,5 + 1,3 Jahre) in die Untersuchung ein. Sämtliche Studienteilnehmer durchliefen eine neuropsychologische Testbatterie, bestehend aus Verfahren zur Überprüfung der kognitiven Flexibilität sowie visuellen und psychomotorischen Verarbeitungsgeschwindigkeit. Neben einem Intelligenzscreening wurden zudem das Ausmaß der depressiven Symptomatik sowie die allgemeine psychische Belastung erfasst. Die Ergebnisse legen nahe, dass bei adoleszenten Patientinnen mit Anorexia nervosa, sowohl im akut untergewichtigen Zustand als auch nach Gewichtszunahme, lediglich milde Beeinträchtigungen in den kognitiven Funktionen vorliegen. Im akut untergewichtigen Zustand offenbarten sich deutliche Zusammenhänge zwischen dem appetitregulierenden Peptid Agouti-related Protein und kognitiver Flexibilität, nicht jedoch zwischen Agouti-related Protein und visueller oder psychomotorischer Verarbeitungsgeschwindigkeit. Bei dem Vergleich von Anorexia nervosa und unipolaren Affektiven Störungen prädizierte die Zugehörigkeit zu der Patientengruppe Anorexia nervosa ein Risiko für das Vorliegen kognitiver Dysfunktionen. Es zeigte sich zudem, dass adoleszente Patienten mit unipolaren Affektiven Störungen lediglich in der psychomotorischen Verarbeitungsgeschwindigkeit tendenziell schwächere Leistungen offenbarten als gesunde Kontrollprobanden. Es ergab sich jedoch ein genereller geschlechtsbezogener Vorteil für weibliche Probanden in der visuellen und psychomotorischen Verarbeitungsgeschwindigkeit. Die vorliegenden Befunde unterstreichen die Notwendigkeit der Überprüfung kognitiver Funktionen bei adoleszenten Patienten mit Anorexia nervosa sowie unipolaren Affektiven Störungen in der klinischen Routinediagnostik. Die Patienten könnten von spezifischen Therapieprogrammen profitieren, die Beeinträchtigungen in den kognitiven Funktionen mildern bzw. präventiv behandeln. N2 - Anorexia nervosa and unipolar affective disorders are common and severe psychiatric disorders whose pathogenesis is not fully understood so far. Several studies have revealed serious impairments in cognitive functions among adult patients whereas recent research in adolescent patients shows only subtle cognitive dysfunctions. The prevalence in both disorders increases with the beginning of adolescence. Cognitive impairments that occur during adolescence may exacerbate the course of disease. Early cognitive deficits may also hinder treatment efforts and prognosis to a greater extent than during adulthood. Moreover, there is a higher risk for chronification. In the present study cognitive functions in adolescent patients with anorexia nervosa and unipolar affective disorders were examined. Cognitive functions in patients with anorexia nervosa were assessed before and after weight gain. Furthermore, the underlying biological mechanisms were explored. Moreover, the specificity for these psychiatric diagnoses as well as gender differences in patients with unipolar affective disorders were investigated. 47 patients with anorexia nervosa (mean age 16.3 + 1.6), 39 patients with unipolar affective disorders (mean age 15.5 + 1.3) and 78 healthy adolescents (mean age 16.5 + 1.3) participated in this study. Each of them completed a battery of neuropsychological tests for cognitive functions including tests for assessing cognitive flexibility as well as visual and psychomotor processing speed. Moreover, intelligence, depressive symptoms and psychological stress were explored. The findings revealed only subtle cognitive impairments in adolescent patients with anorexia nervosa, both in underweight condition and after weight gain. Besides, the results showed an association between cognitive flexibility and plasma agouti-related protein levels in female adolescent patients with acute anorexia nervosa, but not for visual or psychomotor speed and plasma agouti-related protein levels. Comparing anorexia nervosa and unipolar affective disorders, the results suggested a higher risk for cognitive dysfunctions when belonging to the anorexia nervosa group. Furthermore, the results only revealed a slightly weaker performance in psychomotor processing speed in adolescent patients with unipolar affective disorders compared to healthy adolescents. Moreover, female subjects generally displayed a better performance in visual and psychomotor processing speed. The present findings underlie the necessity of exploring cognitive functions in adolescent patients with anorexia nervosa and unipolar affective disorders within routine clinical diagnostic. Patients may benefit from specific therapy programs to reduce or prevent cognitive dysfunctions. KW - Anorexia nervosa KW - unipolare affektive Störungen KW - kognitive Funktionen KW - Jugendliche KW - anorexia nervosa KW - unipolar affective disorders KW - cognitive functions KW - adolescents Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72439 ER - TY - THES A1 - Sen, Ali Tolga T1 - Inversion of seismic source parameters for weak mining-induced and natural earthquakes T1 - Inversion von seismischen Quellparametern für schwache Bergbau-induzierte und natürliche Erdbeben N2 - The purpose of this thesis is to develop an automated inversion scheme to derive point and finite source parameters for weak earthquakes, here intended with the unusual meaning of earthquakes with magnitudes at the limit or below the bottom magnitude threshold of standard source inversion routines. The adopted inversion approaches entirely rely on existing inversion software, the methodological work mostly targeting the development and tuning of optimized inversion flows. The resulting inversion scheme is tested for very different datasets, and thus allows the discussion on the source inversion problem at different scales. In the first application, dealing with mining induced seismicity, the source parameters determination is addressed at a local scale, with source-sensor distance of less than 3 km. In this context, weak seismicity corresponds to event below magnitude MW 2.0, which are rarely target of automated source inversion routines. The second application considers a regional dataset, namely the aftershock sequence of the 2010 Maule earthquake (Chile), using broadband stations at regional distances, below 300 km. In this case, the magnitude range of the target aftershocks range down to MW 4.0. This dataset is here considered as a weak seismicity case, since the analysis of such moderate seismicity is generally investigated only by moment tensor inversion routines, with no attempt to resolve source duration or finite source parameters. In this work, automated multi-step inversion schemes are applied to both datasets with the aim of resolving point source parameters, both using double couple (DC) and full moment tensor (MT) models, source duration and finite source parameters. A major result of the analysis of weaker events is the increased size of resulting moment tensor catalogues, which interpretation may become not trivial. For this reason, a novel focal mechanism clustering approach is used to automatically classify focal mechanisms, allowing the investigation of the most relevant and repetitive rupture features. The inversion of the mining induced seismicity dataset reveals the repetitive occurrence of similar rupture processes, where the source geometry is controlled by the shape of the mined panel. Moreover, moment tensor solutions indicate a significant contribution of tensile processes. Also the second application highlights some characteristic geometrical features of the fault planes, which show a general consistency with the orientation of the slab. The additional inversion for source duration allowed to verify the empirical correlation for moment normalized earthquakes in subduction zones among a decreasing rupture duration with increasing source depth, which was so far only observed for larger events. N2 - Ziel dieser Dissertation ist es ein automatisches Inversionsschema zur Ableitung von Parametern für Punkt- und finite Quellen von "schwachen" Erdbeben im Sinne von aussergewöhnlich kleinen Erdbeben an oder unterhalb der Magnitudenschwelle für Standard-Inversionsroutinen zu entwickeln. Der verwendete Inversionsansatz baut auf bestehender Inversionssoftware auf, die methodische Arbeit zielt hauptsächlich auf die Entwicklung und das Tuning des optimierten Inversionsablaufs. Das resultierende Inversionsverfahren ist für verschiedene Datensätze getestet und erlaubt somit eine Diskussion über das Herdinversionsproblem auf unterschiedlichen Skalierungen. In der ersten Anwendung, die sich mit induzierter Seismizität in Minen beschäftigt, werden die Herdparameter im lokalen Bereich mit einer Herd-Empfänger Entfernung von weniger als 3 km bestimmt. In diesem Zusammenhang bezieht sich die "schwache" Seismizität auf Ereignisse mit Magnituden unter Mw 2.0, welche sehr selten das Ziel von automatisierten Herdinversionsroutinen sind. Die zweite Anwendung berücksichtigt den regionalen Datensatz der Nachbebesequenz des Maule (Chile) Erdbebens von 2010, aufgezeichnet durch Breitband-Stationen in einer maximalen Entfernung von 300 km. In diesem Fall umfasst der Magnitudenbereich Ereignisse mit Magnituden kleiner als Mw 4.0. Auch dieser Datensatz wird hier als "schwache" Seismizität interpretiert, da die Analyse solch moderater Seismizität normalerweise nur durch Routinen für Momententensorinversion erfolgt, welche keinerlei Auflösung für die Herddauer oder finite Herdparameter beinhaltet. In dieser Arbeit wird ein automatisiertes, mehrstufiges Inversionsverfahren auf beide Datensätze angewendet mit dem Ziel sowohl Punktquellen-Herdparameter für double-couple (DC) und volle Momententensor (MT) Modelle als auch für Herddauer und finite Herdparameter zu bestimmen. Ein Hauptergebnis dieser Analyse von schwachen Ereignissen ist die Vergrößerung von Momententensor-Katalogen, deren Interpretation wichtig werden könnte. Aus diesem Grund wurde ein neuartiger Cluster-Ansatz für Herdmechanismen angewendet um diese automatisch zu klassifizieren, der somit die Untersuchung der wichtigsten und sich wiederholenden Bruchprozessen erlaubt. Die Inversion des Datensatzes von induzierter Seismizität in Minen enthüllt das sich wiederholende Auftreten von ähnlichen Bruchprozessen, wobei die Herdgeometrie von der Form der Minentäfelung kontrolliert wird. Darüber hinaus deuten die Momententensorlösungen einen signifikanten Beitrag von tensilen Prozessen an. Auch die zweite Anwendung zeigt einige charackteristische, geometrische Besonderheiten der Bruchflächen auf, welche prinzipiell konsistent zur Orientierung der subduzierten Platte sind. Die zusätzliche Inversion nach der Herdzeit erlaubt die Verifizierung von empirischen Korrelationen von momentennormalisierten Erdbeben in Subduktionszonen zwischen einer abnehmenden Bruchdauer mit zunehmender Herdtiefe, welche bisher nur für größere Ereignisse beobachtet wurde. KW - Seismologie KW - induzierten Seismizität KW - Quellenumkehr KW - Momententensor KW - Aufenthaltsdauer KW - seismology KW - induced seismicity KW - source inversion KW - moment tensor KW - source duration Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71914 ER - TY - THES A1 - Abedjan, Ziawasch T1 - Improving RDF data with data mining T1 - Verbessern von RDF Daten durch Data-Mining N2 - Linked Open Data (LOD) comprises very many and often large public data sets and knowledge bases. Those datasets are mostly presented in the RDF triple structure of subject, predicate, and object, where each triple represents a statement or fact. Unfortunately, the heterogeneity of available open data requires significant integration steps before it can be used in applications. Meta information, such as ontological definitions and exact range definitions of predicates, are desirable and ideally provided by an ontology. However in the context of LOD, ontologies are often incomplete or simply not available. Thus, it is useful to automatically generate meta information, such as ontological dependencies, range definitions, and topical classifications. Association rule mining, which was originally applied for sales analysis on transactional databases, is a promising and novel technique to explore such data. We designed an adaptation of this technique for min-ing Rdf data and introduce the concept of “mining configurations”, which allows us to mine RDF data sets in various ways. Different configurations enable us to identify schema and value dependencies that in combination result in interesting use cases. To this end, we present rule-based approaches for auto-completion, data enrichment, ontology improvement, and query relaxation. Auto-completion remedies the problem of inconsistent ontology usage, providing an editing user with a sorted list of commonly used predicates. A combination of different configurations step extends this approach to create completely new facts for a knowledge base. We present two approaches for fact generation, a user-based approach where a user selects the entity to be amended with new facts and a data-driven approach where an algorithm discovers entities that have to be amended with missing facts. As knowledge bases constantly grow and evolve, another approach to improve the usage of RDF data is to improve existing ontologies. Here, we present an association rule based approach to reconcile ontology and data. Interlacing different mining configurations, we infer an algorithm to discover synonymously used predicates. Those predicates can be used to expand query results and to support users during query formulation. We provide a wide range of experiments on real world datasets for each use case. The experiments and evaluations show the added value of association rule mining for the integration and usability of RDF data and confirm the appropriateness of our mining configuration methodology. N2 - Linked Open Data (LOD) umfasst viele und oft sehr große öffentlichen Datensätze und Wissensbanken, die hauptsächlich in der RDF Triplestruktur bestehend aus Subjekt, Prädikat und Objekt vorkommen. Dabei repräsentiert jedes Triple einen Fakt. Unglücklicherweise erfordert die Heterogenität der verfügbaren öffentlichen Daten signifikante Integrationsschritte bevor die Daten in Anwendungen genutzt werden können. Meta-Daten wie ontologische Strukturen und Bereichsdefinitionen von Prädikaten sind zwar wünschenswert und idealerweise durch eine Wissensbank verfügbar. Jedoch sind Wissensbanken im Kontext von LOD oft unvollständig oder einfach nicht verfügbar. Deshalb ist es nützlich automatisch Meta-Informationen, wie ontologische Abhängigkeiten, Bereichs-und Domänendefinitionen und thematische Assoziationen von Ressourcen generieren zu können. Eine neue und vielversprechende Technik um solche Daten zu untersuchen basiert auf das entdecken von Assoziationsregeln, welche ursprünglich für Verkaufsanalysen in transaktionalen Datenbanken angewendet wurde. Wir haben eine Adaptierung dieser Technik auf RDF Daten entworfen und stellen das Konzept der Mining Konfigurationen vor, welches uns befähigt in RDF Daten auf unterschiedlichen Weisen Muster zu erkennen. Verschiedene Konfigurationen erlauben uns Schema- und Wertbeziehungen zu erkennen, die für interessante Anwendungen genutzt werden können. In dem Sinne, stellen wir assoziationsbasierte Verfahren für eine Prädikatvorschlagsverfahren, Datenvervollständigung, Ontologieverbesserung und Anfrageerleichterung vor. Das Vorschlagen von Prädikaten behandelt das Problem der inkonsistenten Verwendung von Ontologien, indem einem Benutzer, der einen neuen Fakt einem Rdf-Datensatz hinzufügen will, eine sortierte Liste von passenden Prädikaten vorgeschlagen wird. Eine Kombinierung von verschiedenen Konfigurationen erweitert dieses Verfahren sodass automatisch komplett neue Fakten für eine Wissensbank generiert werden. Hierbei stellen wir zwei Verfahren vor, einen nutzergesteuertenVerfahren, bei dem ein Nutzer die Entität aussucht die erweitert werden soll und einen datengesteuerten Ansatz, bei dem ein Algorithmus selbst die Entitäten aussucht, die mit fehlenden Fakten erweitert werden. Da Wissensbanken stetig wachsen und sich verändern, ist ein anderer Ansatz um die Verwendung von RDF Daten zu erleichtern die Verbesserung von Ontologien. Hierbei präsentieren wir ein Assoziationsregeln-basiertes Verfahren, der Daten und zugrundeliegende Ontologien zusammenführt. Durch die Verflechtung von unterschiedlichen Konfigurationen leiten wir einen neuen Algorithmus her, der gleichbedeutende Prädikate entdeckt. Diese Prädikate können benutzt werden um Ergebnisse einer Anfrage zu erweitern oder einen Nutzer während einer Anfrage zu unterstützen. Für jeden unserer vorgestellten Anwendungen präsentieren wir eine große Auswahl an Experimenten auf Realweltdatensätzen. Die Experimente und Evaluierungen zeigen den Mehrwert von Assoziationsregeln-Generierung für die Integration und Nutzbarkeit von RDF Daten und bestätigen die Angemessenheit unserer konfigurationsbasierten Methodologie um solche Regeln herzuleiten. KW - Assoziationsregeln KW - RDF KW - LOD KW - Mustererkennung KW - Synonyme KW - association rule mining KW - RDF KW - LOD KW - knowledge discovery KW - synonym discovery Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71334 ER - TY - THES A1 - Meissner, Sven T1 - Implications of Microcystin Production in Microcystis aeruginosa PCC 7806 T1 - Effekte der Produktion von Microcystin in Microcystis aeruginosa PCC 7806 N2 - Cyanobacteria produce about 40 percent of the world’s primary biomass, but also a variety of often toxic peptides such as microcystin. Mass developments, so called blooms, can pose a real threat to the drinking water supply in many parts of the world. This study aimed at characterizing the biological function of microcystin production in one of the most common bloom-forming cyanobacterium Microcystis aeruginosa. In a first attempt, the effect of elevated light intensity on microcystin production and its binding to cellular proteins was studied. Therefore, conventional microcystin quantification techniques were combined with protein-biochemical methods. RubisCO, the key enzyme for primary carbon fixation was a major microcystin interaction partner. High light exposition strongly stimulated microcystin-protein interactions. Up to 60 percent of the total cellular microcystin was detected bound to proteins, i.e. inaccessible for standard quantification procedures. Underestimation of total microcystin contents when neglecting the protein fraction was also demonstrated in field samples. Finally, an immuno-fluorescence based method was developed to identify microcystin producing cyanobacteria in mixed populations. The high light induced microcystin interaction with proteins suggested an impact of the secondary metabolite on the primary metabolism of Microcystis by e.g. modulating the activity of enzymes. For addressing that question, a comprehensive GC/MS-based approach was conducted to compare the accumulation of metabolites in the wild-type of Microcystis aeruginosa PCC 7806 and the microcystin deficient ΔmcyB mutant. From all 501 detected non-redundant metabolites 85 (17 percent) accumulated significantly different in either of both genotypes upon high light exposition. Accumulation of compatible solutes in the ΔmcyB mutant suggests a role of microcystin in fine-tuning the metabolic flow to prevent stress related to excess light, high oxygen concentration and carbon limitation. Co-analysis of the widely used model cyanobacterium Synechocystis PCC 6803 revealed profound metabolic differences between species of cyanobacteria. Whereas Microcystis channeled more resources towards carbohydrate synthesis, Synechocystis invested more in amino acids. These findings were supported by electron microscopy of high light treated cells and the quantification of storage compounds. While Microcystis accumulated mainly glycogen to about 8.5 percent of its fresh weight within three hours, Synechocystis produced higher amounts of cyanophycin. The results showed that the characterization of species-specific metabolic features should gain more attention with regard to the biotechnological use of cyanobacteria. N2 - Cyanobakterien produzieren etwa 40 Prozent der primären Biomasse auf der Welt aber auch giftige Peptide wie das leberschädigende Microcystin. Massenvorkommen, so genannte Blaualgenblüten, gefährden vielerorts regelmäßig die Trinkwasserversorgung. Diese Arbeit hatte zum Ziel, den Einfluss der Microcystinproduktion auf physiologische Abläufe in dem weit verbreiteten blütenbildenden Cyanobakterium Microcystis aeruginosa zu charakterisieren. Zum einen, wurde hierfür der Einfluss der Beleuchtungsintensität auf die Produktion von Microcystin und dessen Bindung an zelluläre Proteine ermittelt. Hierzu wurden etablierte Quantifizierungstechniken mit biochemischen Methoden kombiniert. RubisCO, das Schlüsselenzym zur primären Kohlenstofffixierung, war ein Hauptinteraktionspartner von Microcystin. Hohe Beleuchtungsintensität erhöhte die Menge von an Proteine gebundenem Microcystin. Bis zu 60 Prozent des gesamten zellulären Microcystins lag an Proteine gebunden vor, d.h. es wurde durch Standardquantifizierungsmethoden nicht erfasst. Die Notwendigkeit, zur Quantifizierung des gesamten Microcystins die Proteinfraktion mit einzubeziehen, wurde auch in Freilandproben demonstriert. Die Entwicklung einer immunofluoreszenzbasierten Methode erlaubte die Unterscheidung von toxischen und nichttoxischen Microcystis-Kolonien in Freilandproben. Die starklichtinduzierte Interaktion von Microcystin mit Proteinen deutete auf einen möglichen Einfluss des Sekundärmetabolits auf den Primärstoffwechsel von Microcystis hin. Um dieser Frage nachzugehen, wurde ein umfassender GC/MS-basierter Versuch durchgeführt, um die Akkumulation von Metaboliten im Microcystin produzierenden Stamm Microcystis aeruginosa PCC 7806 und dessen microcystinfreier ΔmcyB-mutierten Variante vergleichen zu können. Es zeigte sich, dass Microcystin einen Einfluss auf die Akkumulation von 85 (17 Prozent) aller 501 detektierten Metaboliten unter erhöhter Beleuchtungsstärke hatte. Besonders die vermehrte Synthese osmotisch aktiver Substanzen in der ΔmcyB Mutante, verstanden als generelle Reaktion auf allgemeinen Stress, deutete auf eine Beteiligung von Microcystin in der metabolischen Justierung von Microcystis hin. Die Parallelanalyse des Modellstamms Synechocystis PCC 6803 offenbarte grundsätzliche metabolische Unterschiede zwischen verschiedenen Cyanobakterienspezies. Demnach produzierte Microcystis vor allem Kohlehydrate und Synechocystis eher Aminosäuren. Die GC/MS-basierten Ergebnisse wurden durch elektronmikroskopische Aufnahmen und die Quantifizierung von Speichermetaboliten gestützt. Innerhalb drei Stunden bewirkte Starklicht die Akkumulation von Glykogen in Microcystis auf ca. 8.5 Prozent des Frischgewichts, wohingegen Synechocystis mehr Cyanophycin produzierte. Die Ergebnisse zeigten, dass im Hinblick auf die biotechnologische Nutzung von Cyanobakterien, die Charakterisierung speziesspezifischer metabolischer Eigenschaften mehr Beachtung finden sollte. KW - microcystin KW - Microcystin KW - cyanobacteria KW - Cyanobakterien Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75199 ER - TY - THES A1 - Scheinemann, Hendrik Alexander T1 - Hygienisierung von Rindergülle und Klärschlämmen mittels milchsaurer Fermentation T1 - Hygienisation of sewage sludge or cattle manure by lactic acid fermentation N2 - Tierische und menschliche Fäkalien aus Landwirtschaft und Haushalten enthalten zahlreiche obligat und opportunistisch pathogene Mikroorganismen, deren Konzentration u. a. je nach Gesundheitszustand der betrachteten Gruppe schwankt. Neben den Krankheitserregern enthalten Fäkalien aber auch essentielle Pflanzennährstoffe (276) und dienen seit Jahrtausenden (63) als Dünger für Feldfrüchte. Mit der unbedarften Verwendung von pathogenbelastetem Fäkaldünger steigt jedoch auch das Risiko einer Infektion von Mensch und Tier. Diese Gefahr erhöht sich mit der globalen Vernetzung der Landwirtschaft, z. B. durch den Import von kontaminierten Futter- bzw. Lebensmitteln (29). Die vorliegende Arbeit stellt die milchsaure Fermentation von Rindergülle und Klärschlamm als alternative Hygienisierungsmethode gegenüber der Pasteurisation in Biogasanlagen bzw. gebräuchlichen Kompostierung vor. Dabei wird ein Abfall der Gram-negativen Bakterienflora sowie der Enterokokken, Schimmel- und Hefepilze unter die Nachweisgrenze von 3 log10KbE/g beobachtet, gleichzeitig steigt die Konzentration der Lactobacillaceae um das Tausendfache. Darüber hinaus wird gezeigt, dass pathogene Bakterien wie Staphylococcus aureus, Salmonella spp., Listeria monocytogenes, EHEC O:157 und vegetative Clostridum perfringens-Zellen innerhalb von 3 Tagen inaktiviert werden. Die Inaktivierung von ECBO-Viren und Spulwurmeiern erfolgt innerhalb von 7 bzw. 56 Tagen. Zur Aufklärung der Ursache der beobachteten Hygienisierung wurde das fermentierte Material auf flüchtige Fettsäuren sowie pH-Wertänderungen untersucht. Es konnte festgestellt werden, dass die gemessenen Werte nicht die alleinige Ursache für das Absterben der Erreger sind, vielmehr wird eine zusätzliche bakterizide Wirkung durch eine mutmaßliche Bildung von Bakteriozinen in Betracht gezogen. Die parasitizide Wirkung wird auf die physikalischen Bedingungen der Fermentation zurückgeführt. Die methodischen Grundlagen basieren auf Analysen mittels zahlreicher klassisch-kultureller Verfahren, wie z. B. der Lebendkeimzahlbestimmung. Darüber hinaus findet die MALDI-TOF-Massenspektrometrie und die klassische PCR in Kombination mit der Gradienten-Gelelektrophorese Anwendung, um kultivierbare Bakterienfloren zu beschreiben bzw. nicht kultivierbare Bakterienfloren stichprobenartig zu erfassen. Neben den Aspekten der Hygienisierung wird zudem die Eignung der Methode für die landwirtschaftliche Nutzung berücksichtigt. Dies findet sich insbesondere in der Komposition des zu fermentierenden Materials wieder, welches für die verstärkte Humusakkumulation im Ackerboden optimiert wurde. Darüber hinaus wird die Masseverlustbilanz während der milchsauren Fermentation mit denen der Kompostierung sowie der Verarbeitung in der Biogasanlage verglichen und als positiv bewertet, da sie mit insgesamt 2,45 % sehr deutlich unter den bisherigen Alternativen liegt (73, 138, 458). Weniger Verluste an organischem Material während der Hygienisierung führen zu einer größeren verwendbaren Düngermenge, die auf Grund ihres organischen Ursprungs zu einer Verstärkung des Humusanteiles im Ackerboden beitragen kann (56, 132). N2 - Manure from animal farms and sewage sludge contain pathogens and opportunistic organisms in various concentrations depending on the health of the herds and human sources. Other than for the presence of pathogens, these waste substances are excellent nutrient sources and constitute a preferred organic fertilizer. However, because of the pathogens, the risks of infection of animals or humans increase with the indiscriminate use of manure, especially liquid manure or sludge, for agriculture. This potential problem can increase with the global connectedness of animal herds fed imported feed grown on fields fertilized with local manures. This paper describes a simple, easy-to-use, low-tech hygienization method which conserves nutrients and does not require large investments in infrastructure. The proposed method uses the microbiotic shift during mesophilic fermentation of cow manure or sewage sludge during which gram-negative bacteria, enterococci and yeasts were inactivated below the detection limit of 3 log10 cfu/g while lactobacilli increased up to a thousand fold. Pathogens like Salmonella, Listeria monocytogenes, Staphylococcus aureus, E. coli EHEC O:157 and vegetative Clostridium perfringens were inactivated within 3 days of fermentation. In addition, ECBO-viruses and eggs of Ascaris suum were inactivated within 7 and 56 days, respectively. Compared to the mass lost through composting (15–57%), the loss of mass during fermentation (< 2.45%) is very low and provides strong economic and ecological benefits for this process. This method might be an acceptable hygienization method for developed as well as undeveloped countries, and could play a key role in public and animal health while safely closing the nutrient cycle by reducing the necessity of using energy-inefficient inorganic fertilizer for crop production. Scheinemann HA, Dittmar K, Stöckel FS, Müller H, Krüger ME (2015) Hygienisation and Nutrient Conservation of Sewage Sludge or Cattle Manure by Lactic Acid Fermentation. PLoS ONE 10(3): e0118230. doi:10.1371/journal.pone.0118230 KW - pathogene Bakterien KW - organischer Dünger KW - terra preta KW - Salmonella KW - Schwarzerde KW - Stoffkreislauf KW - öffentliche Gesundheit KW - terra preta KW - salmonella KW - black earth KW - fertiliser KW - pathogen bacteria KW - compost Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77949 ER - TY - THES A1 - Negri, Michael T1 - How coaches influence referee decisions BT - a principal-agent perspective on non-professional soccer BT - eine Prinzipal-Agent Perspektive auf den nicht-professionellen Fußball N2 - The work elaborates on the question if coaches in non-professional soccer can influence referee decisions. Modeled from a principal-agent perspective, the managing referee boards can be seen as the principal. They aim at facilitating a fair competition which is in accordance with the existing rules and regulations. In doing so, the referees are assigned as impartial agents on the pitch. The coaches take over a non-legitimate principal-like role trying to influence the referees even though they do not have the formal right to do so. Separate questionnaires were set up for referees and coaches. The coach questionnaire aimed at identifying the extent and the forms of influencing attempts by coaches. The referee questionnaire tried to elaborate on the questions if referees take notice of possible influencing attempts and how they react accordingly. The results were put into relation with official match data in order to identify significant influences on personal sanctions (yellow cards, second yellow cards, red cards) and the match result. It is found that there is a slight effect on the referee’s decisions. However, this effect is rather disadvantageous for the influencing coach and there is no evidence for an impact on the match result itself. N2 - Die Arbeit untersucht die Frage, ob Trainer im nicht-professionellen Fußball Schiedsrichterentscheidungen beeinflussen können. Aufbauend auf einer Prinzipal-Agent Perspektive nehmen die Schiedsrichterausschüsse die Rolle des Prinzipals ein. Sie zielen darauf ab, einen fairen Wettkampf zu organisieren, der in Übereinstimmung mit dem geltenden Regelwerk durchgeführt wird. Um dies zu erreichen, werden die Schiedsrichter als unparteiische Agenten auf dem Spielfeld eingesetzt. Die Trainer nehmen in dieser Konstellation eine illegitime, prinzipal-ähnliche Rolle ein und versuchen, den Schiedsrichter zu ihren Gunsten zu beeinflussen. Dies geschieht, ohne dass die Trainer ein entsprechendes Recht dazu hätten. Sowohl für die Trainer als auch für die Schiedsrichter wurde ein Fragebogen entworfen. Der erstgenannte zielt darauf ab, das Ausmaß und die Form von Beeinflussungsversuchen zu erheben. Der Schiedsrichter-Fragebogen hingegen erörtert die Fragen, ob die Unparteiischen mögliche Beeinflussungsversuche durch die Trainer wahrnehmen und wie sie gegebenenfalls darauf reagieren. Die Ergebnisse wurden mit offiziellen Spieldaten in Verbindung gebracht um potentielle Einflüsse auf Spiele (persönliche Strafen sowie das Endergebnis) zu identifizieren. Es wurde herausgefunden, dass es einen leichten Effekt auf Schiedsrichterentscheidungen gibt. Dieser ist zumeist jedoch nachteilig für den jeweiligen Trainer und es gibt kein Indiz für einen Einfluss auf das Endergebnis. T2 - Wie Trainer Schiedsrichterentscheidungen beeinflussen KW - referees KW - decision making KW - soccer KW - bias KW - Schiedsrichter KW - Trainer KW - Entscheidungen KW - Urteilsverzerrung KW - Prinzipal-Agent Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72247 ER - TY - THES A1 - Andree, Kai T1 - Horizontale Fusionen bei räumlichem Wettbewerb T1 - Horizontal mergers with spatial competition BT - eine modelltheoretische Analyse intra- und interregionaler Fusionen BT - a theoretical analysis of inter- and intraregional mergers T2 - Potsdamer Schriften zur Raumwirtschaft N2 - Fusionen stellen einen zentralen Baustein der Industrieökonomik dar. In diesem Buch wird der Frage nachgegangen, welchen Einfluss die räumliche Dimension auf eine Fusion ausübt. Dabei wird ein Grundmodell entwickelt und über dieses hinaus eine Vielzahl Erweiterungen präsentiert. Der Leser erhält somit die Möglichkeit ein tiefes Verständnis für Fusionen bei räumlichem Wettbewerb zu erlangen. N2 - The analysis of mergers ia a central element of industrial organization. In this book the influence of spatial competition on mergers is analyzed. A basic model is developed and enhanced to take into account different economic environments. The reader gets the possibility to understand the effects of mergers with spatial competition. T3 - Potsdamer Schriften zur Raumwirtschaft - 6 KW - Fusionen KW - räumlicher Wettbewerb KW - asymmetrische Nachfrage KW - Mergers KW - spatial competition KW - asymmetric demand Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69209 SN - 978-3-86956-279-7 SN - 2190-8702 SN - 2190-8710 IS - 6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Sarkar, Saswati T1 - Holocene variations in the strength of the Indian Monsoon system T1 - Holozäne Schwankungen in der Stärke des Indischen Monsunsystems BT - a combined biomarker and stable isotope approach BT - ein kombinierter Ansatz mit Biomarkern und stabilen Isotopen N2 - The monsoon is an important component of the Earth’s climate system. It played a vital role in the development and sustenance of the largely agro-based economy in India. A better understanding of past variations in the Indian Summer Monsoon (ISM) is necessary to assess its nature under global warming scenarios. Instead, our knowledge of spatiotemporal patterns of past ISM strength, as inferred from proxy records, is limited due to the lack of high-resolution paleo-hydrological records from the core monsoon domain. In this thesis I aim to improve our understanding of Holocene ISM variability from the core ‘monsoon zone’ (CMZ) in India. To achieve this goal, I tried to understand modern and thereafter reconstruct Holocene monsoonal hydrology, by studying surface sediments and a high-resolution sedimentary record from the saline-alkaline Lonar crater lake, central India. My approach relies on analyzing stable carbon and hydrogen isotope ratios from sedimentary lipid biomarkers to track past hydrological changes. In order to evaluate the relationship of the modern ecosystem and hydrology of the lake I studied the distribution of lipid biomarkers in the modern ecosystem and compared it to lake surface sediments. The major plants from dry deciduous mixed forest type produced a greater amount of leaf wax n-alkanes and a greater fraction of n-C31 and n-C33 alkanes relative to n-C27 and n-C29. Relatively high average chain length (ACL) values (29.6–32.8) for these plants seem common for vegetation from an arid and warm climate. Additionally I found that human influence and subsequent nutrient supply result in increased lake primary productivity, leading to an unusually high concentration of tetrahymanol, a biomarker for salinity and water column stratification, in the nearshore sediments. Due to this inhomogeneous deposition of tetrahymanol in modern sediments, I hypothesize that lake level fluctuation may potentially affect aquatic lipid biomarker distributions in lacustrine sediments, in addition to source changes. I reconstructed centennial-scale hydrological variability associated with changes in the intensity of the ISM based on a record of leaf wax and aquatic biomarkers and their stable carbon (δ13C) and hydrogen (δD) isotopic composition from a 10 m long sediment core from the lake. I identified three main periods of distinct hydrology over the Holocene in central India. The period between 10.1 and 6 cal. ka BP was likely the wettest during the Holocene. Lower ACL index values (29.4 to 28.6) of leaf wax n-alkanes and their negative δ13C values (–34.8‰ to –27.8‰) indicated the dominance of woody C3 vegetation in the catchment, and negative δDwax (average for leaf wax n-alkanes) values (–171‰ to –147‰) argue for a wet period due to an intensified monsoon. After 6 cal. ka BP, a gradual shift to less negative δ13C values (particularly for the grass derived n-C31) and appearance of the triterpene lipid tetrahymanol, generally considered as a marker for salinity and water column stratification, marked the onset of drier conditions. At 5.1 cal. ka BP increasing flux of leaf wax n-alkanes along with the highest flux of tetrahymanol indicated proximity of the lakeshore to the center due to a major lake level decrease. Rapid fluctuations in abundance of both terrestrial and aquatic biomarkers between 4.8 and 4 cal. ka BP indicated an unstable lake ecosystem, culminating in a transition to arid conditions. A pronounced shift to less negative δ13C values, in particular for n-C31 (–25.2‰ to –22.8‰), over this period indicated a change of dominant vegetation to C4 grasses. Along with a 40‰ increase in leaf wax n-alkane δD values, which likely resulted from less rainfall and/or higher plant evapotranspiration, I interpret this period to reflect the driest conditions in the region during the last 10.1 ka. This transition led to protracted late Holocene arid conditions and the establishment of a permanently saline lake. This is supported by the high abundance of tetrahymanol. A late Holocene peak of cyanobacterial biomarker input at 1.3 cal. ka BP might represent an event of lake eutrophication, possibly due to human impact and the onset of cattle/livestock farming in the catchment. The most intriguing feature of the mid-Holocene driest period was the high amplitude and rapid fluctuations in δDwax values, probably due to a change in the moisture source and/or precipitation seasonality. I hypothesize that orbital induced weakening of the summer solar insolation and associated reorganization of the general atmospheric circulation were responsible for an unstable hydroclimate in the mid-Holocene in the CMZ. My findings shed light onto the sequence of changes during mean state changes of the monsoonal system, once an insolation driven threshold has been passed, and show that small changes in solar insolation can be associated to major environmental changes and large fluctuations in moisture source, a scenario that may be relevant with respect to future changes in the ISM system. N2 - Der Monsun ist ein wichtiger Bestandteil des Klimasystems der Erde. Er spielte in der Entwicklung und im Lebensunterhalt der weitgehend agrarisch geprägten Wirtschaft in Indien eine wesentliche Rolle. Ein besseres Verständnis von vergangenen Schwankungen im Indischen Sommermonsun (ISM) ist notwendig, um dessen Wesen unter dem Einfluss globaler Erwärmungsszenarien zu bewerten. Stattdessen ist unser Wissen über räumlich-zeitliche Muster der vergangenen ISM Intensität, wie sie aus Proxydaten abgeleitet wird, aufgrund des Mangels an hochauflösenden paläohydrologischen Datensätzen aus der Kernmonsunregion sehr eingeschränkt. In dieser Arbeit versuche ich unser Verständnis über die ISM Variabilität im Holozän in der Kernmonsunregion in Indien zu verbessern. Um dieses Ziel zu erreichen habe ich versucht, zunächst die rezente und danach die holozäne monsunale Hydrologie durch das Studium von Oberflächensedimenten und eines hochaufgelösten Sedimentkerns aus dem salzhaltigen-alkalischen Lonar Kratersee, Zentralindien zu verstehen. Mein Ansatz stützt sich auf der Analyse stabiler Wasserstoff- und Kohlenstoffisotopenverhältnisse von sedimentären Lipid Biomarkern, um vergangene hydrologische Veränderungen zu verfolgen. Um die Beziehung des modernen Ökosystems mit der Hydrologie des Sees zu bewerten, untersuchte ich die Verteilung von Lipid Biomarkern im rezenten Ökosystem und verglich sie mit den Oberflächensedimenten des Sees. Die bedeutendsten Pflanzen aus dem trockenen Laubmischwaldtyp erzeugten eine größere Menge an Blattwachs n-Alkanen und einen größeren Anteil von n-C31 und n-C33 Alkanen im Verhältnis zu n-C27 und n-C29. Die relativ hohen durchschnittlichen Werte der Kettenlängen (29.6–32.8) für diese Pflanzen scheinen für die Vegetation in einem ariden und warmen Klima weit verbreitet zu sein. Zusätzlich fand ich heraus, dass der menschliche Einfluss und eine nachfolgende Nährstoffzufuhr zu einer Erhöhung der Primärproduktion im See führen, die in einer ungewöhnlich hohen Konzentration von Tetrahymanol, einem Biomarker für Salzgehalt und Schichtung der Wassersäule, in den Sedimenten des Uferbereichs resultiert. Aufgrund dieser inhomogenen Ablagerung von Tetrahymanol in rezenten Sedimenten vermute ich, dass Seespiegelschwankungen möglicherweise aquatische Lipid Biomarker Verteilungen in limnischen Sedimenten, zusätzlich zu Änderungen in deren Herkunft, potentiell beeinflussen. Ich habe die hundertjährig-lange hydrologische Variabilität, die mit Veränderungen in der Intensität des ISM verbunden ist, auf der Basis von Blattwachs Lipid Biomarkern und ihrer stabilen Kohlenstoff- (δ13C) und Wasserstoffisotopenzusammensetzung (δD) ausgehend von einem 10 m langen Sedimentkern aus dem See rekonstruiert. Ich habe drei Hauptphasen von signifikanter Hydrologie im Holozän in Zentralindien identifiziert. Die Periode zwischen 10.1 und 6 cal. ka BP war wahrscheinlich die feuchteste während des Holozäns. Geringere durchschnittliche Kettenlängen Indexwerte (29.4 bis 28.6) von Blattwachs n-Alkanen und ihre negativen δ13C Werte (–34.8‰ bis –27.8‰) wiesen auf die Dominanz von holziger C3 Vegetation im Einzugsgebiet hin, und negative δDwax (Durchschnitt für Blattwachs n-Alkane) Werte (–171‰ bis –147‰) stehen für eine feuchte Periode in Verbindung mit einem verstärkten Monsun. Nach 6 cal. ka BP führte eine allmähliche Verschiebung zu weniger negativen δ13C Werten (insbesondere für Gras abgeleitete n-C31) und das Vorkommen von Triterpen Lipid Tetrahymanol, allgemein als Indikator für Salzgehalt und Wassersäulenstratifizierung verwendet, zum Beginn von trockeneren Bedingungen. Um 5.1 cal. ka BP deutete ein erhöhter Fluss von Blattwachs n-Alkanen in Zusammenhang mit dem höchsten Fluss von Tetrahymanol auf eine bedeutende Absenkung des Seeufers durch den Rückgang im Seespiegel. Rasche Schwankungen in der Menge von terrestrischen und aquatischen Biomarkern zwischen 4.8 und 4 cal. ka BP wiesen auf ein instabiles Seeökosystem hin, das in einem Übergang zu ariden Bedingungen kulminiert. Eine bedeutende Verschiebung zu weniger negativen δ13C Werten in dieser Periode, insbesondere für n-C31 (–25.2‰ bis –22.8‰), zeigte einen Wandel in der dominanten Vegetation hin zu C4 Gräsern. Zusammen mit einem 40‰ Anstieg in den δD Werten der Blattwachs n-Alkane, der wahrscheinlich von weniger Niederschlag und/oder höherer Evapotranspiration der Pflanzen ausgelöst wurde, interpretiere ich diese Periode als die trockenste der letzten 10.1 ka. Dieser Übergang führte zu lang anhaltenden spätholozänen ariden Bedingungen und zur Ausbildung eines dauerhaften salzhaltigen Sees. Dies wird durch ein hohes Vorkommen von Tetrahymanol unterstützt. Ein spätholozäner Höchstwert in der Zufuhr blaualgenhaltiger Biomarker um 1.3 cal. ka BP könnte ein Ereignis der Eutrophierung des Sees darstellen, wahrscheinlich in Verbindung mit dem menschlichen Einfluss und dem Beginn der Rinder- und Viehzucht im Einzugsgebiet. Die faszinierendsten Merkmale der trockensten Periode im mittleren Holozän waren die hohe Amplitude und rasche Fluktuationen in den δDwax Werten, wahrscheinlich in Verbindung mit einer Veränderung in der Herkunft der Feuchtigkeit und/oder Saisonalität im Niederschlag. Ich vermute, dass eine orbital induzierte Abschwächung der sommerlichen Solarstrahlung und eine damit verbundene Umstellung der allgemeinen atmosphärischen Zirkulation für ein instabiles Hydroklima im mittleren Holozän in der Kernmonsunregion verantwortlich waren. Meine Ergebnisse liefern den Aufschluss über die Abfolge von Veränderungen während der mittleren Zustandsänderungen des Monsunsystems, sobald ein einstrahlungsgetriebener Schwellenwert überschritten ist, und sie zeigen, dass kleine Änderungen in der solaren Einstrahlung mit markanten Umweltveränderungen und großen Schwankungen in der Herkunft der Feuchtigkeit einhergehen, ein Szenario, das in Bezug zu zukünftigen Veränderungen des ISM Systems relevant sein könnte. KW - Indian Monsoon KW - indischer Monsun KW - holocene KW - Holozän Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74905 ER - TY - THES A1 - Mallonn, Matthias T1 - Ground-based transmission spectroscopy of three inflated Hot Jupiter exoplanets T1 - Bodengebundene Transmissionsspektroskopie von drei ausgedehnten Hot Jupiter Exoplaneten N2 - The characterization of exoplanets is a young and rapidly expanding field in astronomy. It includes a method called transmission spectroscopy that searches for planetary spectral fingerprints in the light received from the host star during the event of a transit. This techniques allows for conclusions on the atmospheric composition at the terminator region, the boundary between the day and night side of the planet. Observationally a big challenge, first attempts in the community have been successful in the detection of several absorption features in the optical wavelength range. These are for example a Rayleighscattering slope and absorption by sodium and potassium. However, other objects show a featureless spectrum indicative for a cloud or haze layer of condensates masking the probable atmospheric layers. In this work, we performed transmission spectroscopy by spectrophotometry of three Hot Jupiter exoplanets. When we began the work on this thesis, optical transmission spectra have been available for two exoplanets. Our main goal was to advance the current sample of probed objects to learn by comparative exoplanetology whether certain absorption features are common. We selected the targets HAT-P-12b, HAT-P-19b and HAT-P-32b, for which the detection of atmospheric signatures is feasible with current ground-based instrumentation. In addition, we monitored the host stars of all three objects photometrically to correct for influences of stellar activity if necessary. The obtained measurements of the three objects all favor featureless spectra. A variety of atmospheric compositions can explain the lack of a wavelength dependent absorption. But the broad trend of featureless spectra in planets of a wide range of temperatures, found in this work and in similar studies recently published in the literature, favors an explanation based on the presence of condensates even at very low concentrations in the atmospheres of these close-in gas giants. This result points towards the general conclusion that the capability of transmission spectroscopy to determine the atmospheric composition is limited, at least for measurements at low spectral resolution. In addition, we refined the transit parameters and ephemerides of HAT-P-12b and HATP- 19b. Our monitoring campaigns allowed for the detection of the stellar rotation period of HAT-P-19 and a refined age estimate. For HAT-P-12 and HAT-P-32, we derived upper limits on their potential variability. The calculated upper limits of systematic effects of starspots on the derived transmission spectra were found to be negligible for all three targets. Finally, we discussed the observational challenges in the characterization of exoplanet atmospheres, the importance of correlated noise in the measurements and formulated suggestions on how to improve on the robustness of results in future work. N2 - Die Charakterisierung von Exoplaneten ist ein junger und sich schnell entwickelnder Zweig der Astronomie. Eine ihrer Methoden ist die Transmissionsspektroskopie, welche nach spektralen Abdrücken der Planetenatmosphäre im Licht des Muttersterns sucht. Diese Technik macht sich den Umstand zunutze, dass Planeten mit niedriger Bahnneigung einmal pro Umlauf vor ihrem Stern vorbeiziehen, wobei das Sternlicht Teile der Planetenatmosphäre durchläuft. Durch die Auswertung solcher Transitbeobachtungen lässt sich auf die chemische Zusammensetzung der Planetenatmosphäre schließen. Trotz der groβen Herausforderung an die benötigte Messgenauigkeit konnten bereits erste vielversprechende Ergebnisse erzielt werden und Entdeckungen wie zum Beispiel Rayleighstreuung und Absorption von Natrium und Kalium vermeldet werden. Andere Beobachtungen zeigten aber auch gänzlich flache Spektren ohne wellenlängenabhängige Absorption, welche auf eine Wolkenschicht oder Dunst in den Atmosphären hinweisen. In dieser Arbeit führten wir Transmissionsspektroskopie für drei extrasolare Planeten aus der Klasse der heißen Jupiter-artigen Gasriesen durch. Als wir mit unserer Studie begannen, waren erst zwei derartige Objekte erfolgreich auf ihr Spektrum im optischen Wellenlängenbereich untersucht worden. Unser Ziel war es, diese Anzahl zu erhöhen, um herauszufinden, welche spektralen Eigenschaften typisch für diese Exoplaneten sind. Wir wählten drei Objekte aus, für welche die zu erwartenden Messgenauigkeiten ausreichend für signifikante Ergebnisse sind: HAT-P-12b, HAT-P-19b und HAT-P-32b. Zusätzlich unternahmen wir Langzeitbeobachtungen der Muttersterne dieser Planeten, um die Transitbeobachtungen auf einen möglichen Einfluss von Sternaktivität zu korrigieren. Die erzielten Messungen der drei Planeten deuten alle auf Spektren ohne Absorptionslinien hin. Das Fehlen dieser Linien kann durch verschiedene Möglichkeiten zustande kommen, welche für die einzelnen Objekte individuell variieren können. Der Umstand jedoch, dass allen Objekten diese Linien fehlen und dass ähnliche Ergebnisse für weitere Objekte kürzlich in der Literatur publiziert wurden, deutet darauf hin, dass für einen bedeutenden Teil der Exoplaneten die Atmosphären nicht transparent, sondern durch kondensiertes Material optisch undurchlässig sind. Sollte sich dieses Ergebnis durch zukünftige Beobachtungen bestätigen, bedeutet es, dass die Transmissionsspektroskopie als Beobachtungstechnik nur sehr begrenzt für die Charakterisierung dieser Planetenatmosphären nützlich ist. Nur Beobachtungen hochaufgelöster Spektroskopie könnten dann verwertbare Informationen liefern. Weiterhin konnten wir in unserer Arbeit die Transitparameter und Ephemeriden von HAT-P-12b und HAT-P-19b genauer vermessen als es vorherigen Analysen möglich war. Durch unsere Langzeitbeobachtungen konnte die Rotationsperiode von HAT-P-19 bestimmt, sowie das Alter dieses Muttersterns neu berechnet werden. Ebenso leiteten wir Höchstwerte für eine mögliche Veränderlichkeit von HAT-P-12 und HAT-P-32 ab. Wir errechneten die Korrekturen der Transitparameter auf die Einflüsse von Sternaktivität und stellten fest, dass diese die Messergebnisse nicht wesentlich beeinflussen. Unsere Arbeit erlaubte tiefe Einblicke in die technischen Herausforderungen, welche diese Wissenschaft an die Sternbeobachtungen stellt. Wir diskutierten den Einfluss von systematischen Fehlern in den Messreihen und erarbeiteten Empfehlungen, wie die Messergebnisse weiter verbessert werden können. KW - extrasolar planets KW - atmospheric characterization KW - transmission spectroscopy KW - stellar variability KW - stellar activity KW - extrasolare Planeten KW - Charakterisierung Planetenatmosphären KW - Sternaktivität Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74403 ER - TY - THES A1 - Kollosche, David T1 - Gesellschaft, Mathematik und Unterricht : ein Beitrag zum soziologisch-kritischen Verständnis der gesellschaftlichen Funktionen des Mathematikunterrichts T1 - Society, mathematics and education : a contribution to the sociological-critical understanding of social functions of mathematics education N2 - Die vorliegende Studie untersucht die gesellschaftliche Rolle des gegenwärtigen Mathematikunterrichts an deutschen allgemeinbildenden Schulen aus einer soziologisch-kritischen Perspektive. In Zentrum des Interesses steht die durch den Mathematikunterricht erfahrene Sozialisation. Die Studie umfasst unter anderem eine Literaturdiskussion, die Ausarbeitung eines soziologischen Rahmens auf der Grundlage des Werks von Michel Foucault und zwei Teilstudien zur Soziologie der Logik und des Rechnens. Abschließend werden Dispositive des Mathematischen beschrieben, die darlegen, in welcher Art und mit welcher persönlichen und gesellschaftlichen Folgen der gegenwärtige Mathematikunterricht eine spezielle Geisteshaltung etabliert. N2 - This study examines the social role of contemporary mathematics classes at German schools of general education from a sociological-critical perspective. At the centre of attention is the socialisation experienced by mathematics education. The study includes but is not limited to a discussion of literature, the development of a sociological frame on the basis of the work of Michel Foucault, and two sub-studies on the sociology of logic and calculation. Conclusively, I present dispositives of the mathematical, which show in which way and with which personal and social consequences contemporary mathematics education establish a special mentality. KW - Mathematikunterricht KW - Foucault KW - Logik KW - Rechnen KW - Disziplinierung KW - mathematics education KW - Foucault KW - logic KW - calculation KW - socialisation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70726 ER - TY - THES A1 - Liebs, Göran T1 - Ground penetration radar wave velocities and their uncertainties T1 - Georadar-Wellengeschwindigkeiten mit Fehlerrechnung BT - global inversion of GPR traveltimes to assess uncertainties in CMP velocity models N2 - We develop three new approaches for ground penetration wave velocity calcultaions. The first is based on linear moveout spectra to find the optimum ground wave velocity including uncertainties from multi-offset data gathers. We used synthetic data to illustrate the principles of the method and to investigate uncertainties in ground wave velocity estimates. To demonstrate the applicability of the approach to real data, we analyzed GPR data sets recorded at field sites in Canada over an annual cycle from Steelman & Endres [2010]. The results obtained by this efficient and largely automated procedure agree well with the manual achieved results of Steelman & Endres [2010], derived by a more laborious largely manual analysis strategy. Then we develop a second methodology to global invert reflection traveltimes with a particle swarm optimization approach more precise then conventional spectral NMO-based velocity analysis (e.g., Greaves et al. [1996]). For global optimization, we use particle swarm optimization (PSO; Kennedy & Eberhart [1995]) in the combination with a fast eikonal solver as forward solver (Sethian [1996]; Fomel [1997a]; Sethian & Popovici [1999]). This methodology allows us to generate reliability CMP derived models of subsurface velocities and water content including uncertainties. We test this method with synthetic data to study the behavior of the PSO algorithm. Afterward, We use this method to analyze our field data from a well constrained test site in Horstwalde, Germany. The achieved velocity models from field data showed good agreement to borehole logging and direct-push data (Schmelzbach et al. [2011]) at the same site position. For the third method we implement a global optimization approach also based on PSO to invert direct-arrival traveltimes of VRP data to obtain high resolution 1D velocity models including quantitative estimates of uncertainty. Our intensive tests with several traveltime data sets helped to understand the behavior of PSO algorithm for inversion. Integration of the velocity model to VRP reflection imaging and attenuation model improved the potential of VRP surveying. Using field data, we examine this novel analysis strategy for the development of petrophysical models and the linking between GPR borehole and other logging data to surface GPR reflection data. N2 - Unterschiedliche Verfahren zur Ermittlung von Georadar-Wellengeschwindigkeiten wurden entwickelt und erfolgreich angewendet. Für die Verfahren wurden statistische Methoden und Schwarmintelligenz-Algorithmen benutzt. Es wurde gezeigt, dass die neuen Verfahren schneller, präziser und besser reproduzierbare Ergebnisse für Georadar-Wellengeschwindigkeit erzielen als herkömmliche Verfahren. Mit verbesserten Werten der Georadar-Wellengeschwindigkeit lassen sich die verzerrten dreidimensionalen Abbilder der obersten zehn Meter des Untergrundes, welche sich mit Georadar-Daten erzeugen lassen, korrigieren. In diesen korrigierten Abbildern sind dann realistische Tiefen von Schichten oder Objekten im Untergrund besser messbar. Außerdem verbessern präzisere Wellengeschwindigkeiten die Bestimmung von Bodenparametern, wie Wassergehalt oder Tonanteil. Die präsentierten Verfahren erlauben eine quantitative Angabe von Fehlern der bestimmten Wellengeschwindigkeit und der daraus folgenden Tiefen und Bodenparametern im Untergrund. Die Vorteile dieser neu entwickelten Verfahren zur Charakterisierung des Untergrundes der oberen Meter wurde an Feldbeispielen demonstriert. KW - ground-penetration radar KW - wave velocities KW - global inversion KW - particle swarm optimisation KW - soil water content KW - subsurface KW - geophyics KW - Georadar KW - Wellengeschwindigkeit KW - globale Inversion KW - Partikel Swarm Optimierung KW - Bodenwassergehalt KW - Untergrund KW - Geophysik Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-436807 ER - TY - THES A1 - Ziese, Ramona T1 - Geometric electroelasticity T1 - Geometrische Elektroelastizität N2 - In this work a diffential geometric formulation of the theory of electroelasticity is developed which also includes thermal and magnetic influences. We study the motion of bodies consisting of an elastic material that are deformed by the influence of mechanical forces, heat and an external electromagnetic field. To this end physical balance laws (conservation of mass, balance of momentum, angular momentum and energy) are established. These provide an equation that describes the motion of the body during the deformation. Here the body and the surrounding space are modeled as Riemannian manifolds, and we allow that the body has a lower dimension than the surrounding space. In this way one is not (as usual) restricted to the description of the deformation of three-dimensional bodies in a three-dimensional space, but one can also describe the deformation of membranes and the deformation in a curved space. Moreover, we formulate so-called constitutive relations that encode the properties of the used material. Balance of energy as a scalar law can easily be formulated on a Riemannian manifold. The remaining balance laws are then obtained by demanding that balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space. This generalizes a result by Marsden and Hughes that pertains to bodies that have the same dimension as the surrounding space and does not allow the presence of electromagnetic fields. Usually, in works on electroelasticity the entropy inequality is used to decide which otherwise allowed deformations are physically admissible and which are not. It is alsoemployed to derive restrictions to the possible forms of constitutive relations describing the material. Unfortunately, the opinions on the physically correct statement of the entropy inequality diverge when electromagnetic fields are present. Moreover, it is unclear how to formulate the entropy inequality in the case of a membrane that is subjected to an electromagnetic field. Thus, we show that one can replace the use of the entropy inequality by the demand that for a given process balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space and under linear rescalings of the temperature. On the one hand, this demand also yields the desired restrictions to the form of the constitutive relations. On the other hand, it needs much weaker assumptions than the arguments in physics literature that are employing the entropy inequality. Again, our result generalizes a theorem of Marsden and Hughes. This time, our result is, like theirs, only valid for bodies that have the same dimension as the surrounding space. N2 - In der vorliegenden Arbeit wird eine diffentialgeometrische Formulierung der Elektroelastizitätstheorie entwickelt, die auch thermische und magnetische Einflüsse berücksichtigt. Hierbei wird die Bewegung von Körpern untersucht, die aus einem elastischen Material bestehen und sich durch mechanische Kräfte, Wärmezufuhr und den Einfluss eines äußeren elektromagnetischen Feldes verformen. Dazu werden physikalische Bilanzgleichungen (Massenerhaltung, Impuls-, Drehimpuls- und Energiebilanz) aufgestellt, um mit deren Hilfe eine Gleichung zu formulieren, die die Bewegung des Körpers während der Deformation beschreibt. Dabei werden sowohl der Körper als auch der umgebende Raum als Riemannsche Mannigfaltigkeiten modelliert, wobei zugelassen ist, dass der Körper eine geringere Dimension hat als der ihn umgebende Raum. Auf diese Weise kann man nicht nur - wie sonst üblich - die Deformation dreidimensionaler Körper im dreidimensionalen euklidischen Raum beschreiben, sondern auch die Deformation von Membranen und die Deformation innerhalb eines gekrümmten Raums. Weiterhin werden sogenannte konstitutive Gleichungen formuliert, die die Eigenschaften des verwendeten Materials kodieren. Die Energiebilanz ist eine skalare Gleichung und kann daher leicht auf Riemannschen Mannigfaltigkeiten formuliert werden. Es wird gezeigt, dass die Forderung der Invarianz der Energiebilanz unter der Wirkung von beliebigen Diffeomorphismen auf den umgebenden Raum bereits die restlichen Bilanzgleichungen impliziert. Das verallgemeinert ein Resultat von Marsden und Hughes, das nur für Körper anwendbar ist, die die selbe Dimension wie der umgebende Raum haben und keine elektromagnetischen Felder berücksichtigt. Üblicherweise wird in Arbeiten über Elektroelastizität die Entropieungleichung verwendet, um zu entscheiden, welche Deformationen physikalisch zulässig sind und welche nicht. Sie wird außerdem verwendet, um Einschränkungen für die möglichen Formen von konstitutiven Gleichungen, die das Material beschreiben, herzuleiten. Leider gehen die Meinungen über die physikalisch korrekte Formulierung der Entropieungleichung auseinander sobald elektromagnetische Felder beteiligt sind. Weiterhin ist unklar, wie die Entropieungleichung für den Fall einer Membran, die einem elektromagnetischen Feld ausgesetzt ist, formuliert werden muss. Daher zeigen wir, dass die Benutzung der Entropieungleichung ersetzt werden kann durch die Forderung, dass für einen gegebenen Prozess die Energiebilanz invariant ist unter der Wirkung eines beliebigen Diffeomorphimus' auf den umgebenden Raum und der linearen Reskalierung der Temperatur. Zum einen liefert diese Forderung die gewünschten Einschränkungen für die Form der konstitutiven Gleichungen, zum anderen benoetigt sie viel schwächere Annahmen als die übliche Argumentation mit der Entropieungleichung, die man in der Physikliteratur findet. Unser Resultat ist dabei wieder eine Verallgemeinerung eines Theorems von Marsden und Hughes, wobei es, so wie deren Resultat, nur für Körper gilt, die als offene Teilmengen des dreidimensionalen euklidischen Raums modelliert werden können. KW - Elastizität KW - Elektrodynamik KW - Mannigfaltigkeit KW - konstitutive Gleichungen KW - Bewegungsgleichung KW - elasticity KW - electrodynamics KW - manifold KW - constitutive relations KW - equation of motion Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72504 ER - TY - THES A1 - Radeff, Giuditta T1 - Geohistory of the Central Anatolian Plateau southern margin (southern Turkey) T1 - Die geologische Entwicklung des südlichen zentralsanatolischen Plateaurandes (Süd-Türkei) N2 - The Adana Basin of southern Turkey, situated at the SE margin of the Central Anatolian Plateau is ideally located to record Neogene topographic and tectonic changes in the easternmost Mediterranean realm. Using industry seismic reflection data we correlate 34 seismic profiles with corresponding exposed units in the Adana Basin. The time-depth conversion of the interpreted seismic profiles allows us to reconstruct the subsidence curve of the Adana Basin and to outline the occurrence of a major increase in both subsidence and sedimentation rates at 5.45 – 5.33 Ma, leading to the deposition of almost 1500 km3 of conglomerates and marls. Our provenance analysis of the conglomerates reveals that most of the sediment is derived from and north of the SE margin of the Central Anatolian Plateau. A comparison of these results with the composition of recent conglomerates and the present drainage basins indicates major changes between late Messinian and present-day source areas. We suggest that these changes in source areas result of uplift and ensuing erosion of the SE margin of the plateau. This hypothesis is supported by the comparison of the Adana Basin subsidence curve with the subsidence curve of the Mut Basin, a mainly Neogene basin located on top of the Central Anatolian Plateau southern margin, showing that the Adana Basin subsidence event is coeval with an uplift episode of the plateau southern margin. The collection of several fault measurements in the Adana region show different deformation styles for the NW and SE margins of the Adana Basin. The weakly seismic NW portion of the basin is characterized by extensional and transtensional structures cutting Neogene deposits, likely accomodating the differential uplift occurring between the basin and the SE margin of the plateau. We interpret the tectonic evolution of the southern flank of the Central Anatolian Plateau and the coeval subsidence and sedimentation in the Adana Basin to be related to deep lithospheric processes, particularly lithospheric delamination and slab break-off. N2 - Il Bacino di Adana (Turchia meridionale) é situato in posizione esterna rispetto al margine sud-orientale del plateau anatolico centrale. Il bacino risulta ubicato in posizione strategica per registrare i principali cambiamenti della topografia e dell’assetto tettonico avvenuti durante il Neogene nel Mediterraneo orientale. Utilizzando dati sismici provenienti dall’industria petrolifera abbiamo correlato 34 profili sismici con le unitá corrispondenti affioranti nel Bacino di Adana. La conversione da tempi a profonditá dei profili sismici interpretati ci ha permesso di ricostruire la curva di subsidenza del Bacino di Adana e di individuare un evento caratterizato da un importante aumento della subsidenza associato ad un considerevole incremento del tasso di sedimentazione. Questo evento, avvenuto tra 5.45 e 5.33 Ma ha portato alla deposizione di quasi 1500 km3 di conglomerati e marne. La nostra analisi di provenienza della porzione conglomeratica mostra che la maggior parte del sedimento proviene dal margine sud-orientale del plateau anatolico centrale e dalle aree situate a nord di questo. La comparazione di questi risultati con la composizione litologica di conglomerati recenti e con le litologie affioranti nei bacini di drenaggio attuali mostra cambiamenti rilevanti tra le aree di provenienza del sedimento Messiniane e quelle attuali. Riteniamo che questi cambiamenti nelle aree sorgente siano il risultato del sollevamento e della successiva erosione del margine sud-orientale del plateau anatolico centrale. Questa ipotesi é supportata dal confronto delle curve di subsidenza del Bacino di Adana e del Bacino di Mut, un bacino principalmente neogenico situato sulla sommitá del margine meridionale del plateau. La comparazione delle due curve di subsidenza mostra che l’evento di forte subsidenza del Bacino di Adana é coevo ad un episodio di sollevamento del margine meridionale del plateau anatolico centrale. La raccolta di un fitto dataset strutturale acquisito nella regione di Adana mostra differenti stili deformativi per i margini nord-occidentale e sud-orientale del bacino. La porzione nord-occidentale del bacino, debolmente sismica, é caratterizzata da strutture estensionali e transtensive che tagliano I depositi neogenici, verosimilmente accomodando il sollevamento differenziale tra il bacino e il margine sud-orientale del plateau. Riteniamo che l’evoluzione tettonica del margine meridionale del plateau anatolico centrale e la contemporanea subsidenza e sedimentazione nel Bacino di Adana sia da ricondurre a processi litosferici profondi, in particolar modo delaminazione litosferica e slab break-off. KW - Hebung des Plateaus KW - Sedimentenabfolge KW - Subsidenzgeschichte KW - Adana Becken KW - Süd-Türkei KW - plateau uplift KW - sedimentary record KW - subsidence history KW - Adana Basin KW - southern Turkey Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71865 ER - TY - THES A1 - Albrecht, Steve T1 - Generation, recombination and extraction of charges in polymer T1 - Generierung, Rekombination und Extraktion von Ladungen in Polymer BT - fullerene bulk heterojunction solar cells BT - Fulleren Mischsolarzellen N2 - A dramatic efficiency improvement of bulk heterojunction solar cells based on electron-donating conjugated polymers in combination with soluble fullerene derivatives has been achieved over the past years. Certified and reported power conversion efficiencies now reach over 9% for single junctions and exceed the 10% benchmark for tandem solar cells. This trend brightens the vision of organic photovoltaics becoming competitive with inorganic solar cells including the realization of low-cost and large-area organic photovoltaics. For the best performing organic materials systems, the yield of charge generation can be very efficient. However, a detailed understanding of the free charge carrier generation mechanisms at the donor acceptor interface and the energy loss associated with it needs to be established. Moreover, organic solar cells are limited by the competition between charge extraction and free charge recombination, accounting for further efficiency losses. A conclusive picture and the development of precise methodologies for investigating the fundamental processes in organic solar cells are crucial for future material design, efficiency optimization, and the implementation of organic solar cells into commercial products. In order to advance the development of organic photovoltaics, my thesis focuses on the comprehensive understanding of charge generation, recombination and extraction in organic bulk heterojunction solar cells summarized in 6 chapters on the cumulative basis of 7 individual publications. The general motivation guiding this work was the realization of an efficient hybrid inorganic/organic tandem solar cell with sub-cells made from amorphous hydrogenated silicon and organic bulk heterojunctions. To realize this project aim, the focus was directed to the low band-gap copolymer PCPDTBT and its derivatives, resulting in the examination of the charge carrier dynamics in PCPDTBT:PC70BM blends in relation to by the blend morphology. The phase separation in this blend can be controlled by the processing additive diiodooctane, enhancing domain purity and size. The quantitative investigation of the free charge formation was realized by utilizing and improving the time delayed collection field technique. Interestingly, a pronounced field dependence of the free carrier generation for all blends is found, with the field dependence being stronger without the additive. Also, the bimolecular recombination coefficient for both blends is rather high and increases with decreasing internal field which we suggest to be caused by a negative field dependence of mobility. The additive speeds up charge extraction which is rationalized by the threefold increase in mobility. By fluorine attachment within the electron deficient subunit of PCPDTBT, a new polymer F-PCPDTBT is designed. This new material is characterized by a stronger tendency to aggregate as compared to non-fluorinated PCPDTBT. Our measurements show that for F-PCPDTBT:PCBM blends the charge carrier generation becomes more efficient and the field-dependence of free charge carrier generation is weakened. The stronger tendency to aggregate induced by the fluorination also leads to increased polymer rich domains, accompanied in a threefold reduction in the non-geminate recombination coefficient at conditions of open circuit. The size of the polymer domains is nicely correlated to the field-dependence of charge generation and the Langevin reduction factor, which highlights the importance of the domain size and domain purity for efficient charge carrier generation. In total, fluorination of PCPDTBT causes the PCE to increase from 3.6 to 6.1% due to enhanced fill factor, short circuit current and open circuit voltage. Further optimization of the blend ratio, active layer thickness, and polymer molecular weight resulted in 6.6% efficiency for F-PCPDTBT:PC70BM solar cells. Interestingly, the double fluorinated version 2F-PCPDTBT exhibited poorer FF despite a further reduction of geminate and non-geminate recombination losses. To further analyze this finding, a new technique is developed that measures the effective extraction mobility under charge carrier densities and electrical fields comparable to solar cell operation conditions. This method involves the bias enhanced charge extraction technique. With the knowledge of the carrier density under different electrical field and illumination conditions, a conclusive picture of the changes in charge carrier dynamics leading to differences in the fill factor upon fluorination of PCPDTBT is attained. The more efficient charge generation and reduced recombination with fluorination is counterbalanced by a decreased extraction mobility. Thus, the highest fill factor of 60% and efficiency of 6.6% is reached for F-PCPDTBT blends, while 2F-PCPDTBT blends have only moderate fill factors of 54% caused by the lower effective extraction mobility, limiting the efficiency to 6.5%. To understand the details of the charge generation mechanism and the related losses, we evaluated the yield and field-dependence of free charge generation using time delayed collection field in combination with sensitive measurements of the external quantum efficiency and absorption coefficients for a variety of blends. Importantly, both the yield and field-dependence of free charge generation is found to be unaffected by excitation energy, including direct charge transfer excitation below the optical band gap. To access the non-detectable absorption at energies of the relaxed charge transfer emission, the absorption was reconstructed from the CT emission, induced via the recombination of thermalized charges in electroluminescence. For a variety of blends, the quantum yield at energies of charge transfer emission was identical to excitations with energies well above the optical band-gap. Thus, the generation proceeds via the split-up of the thermalized charge transfer states in working solar cells. Further measurements were conducted on blends with fine-tuned energy levels and similar blend morphologies by using different fullerene derivatives. A direct correlation between the efficiency of free carrier generation and the energy difference of the relaxed charge transfer state relative to the energy of the charge separated state is found. These findings open up new guidelines for future material design as new high efficiency materials require a minimum energetic offset between charge transfer and the charge separated state while keeping the HOMO level (and LUMO level) difference between donor and acceptor as small as possible. N2 - Die Effizienz von organischen Mischsolarzellen ist in den letzten Jahren durch die Entwicklung neuer halbleitender Materialen beträchtlich gestiegen. Die besten organischen Mischsolarzellen zeigen heute sehr effiziente Ladungsgeneration. Dennoch ist die genaue Funktionsweise der fundamentalen Ladungsgenerationsschritte nicht bis ins Detail verstanden. Zur weiteren Steigerung der Wirkungsgrade und für die kommerzielle Nutzung organischer Mischsolarzellen, sind ein übergreifendes Verständnis der Funktionsweise und die Entwicklung neuer Messmethoden unumgänglich. Die vorliegende Arbeit ist auf diese Fragestellung fokussiert: die Arbeit soll helfen, fundierte Kenntnisse der Ladungsträgererzeugung, der Rekombination und der Extraktion freier Ladungsträger in organischen Mischsolarzellen zu erlangen. Zuerst wurde der Fokus auf Mischsolarzellen mit dem Polymer PCPDTBT gelegt. Dieses Polymer durchmischt stark mit dem Fulleren-Derivat PCBM. Durch Verwendung eines Lösungsmitteladditives kann die Phasenentmischung und damit der Wirkungsgrad deutlich gesteigert werden. Die Generations- und Rekombinationsprozesse wurden mittels zeitverzögerter Sammelfeld-Methode untersucht. Dabei wurde zum ersten Mal eine signifikante Feldabhängigkeit der Ladungsträger-erzeugung entdeckt. Interessanterweise korreliert diese Feldabhängigkeit mit der Domänengröße also dem Grad der Entmischung. In größeren und reineren Polymerphasen ist die Feldabhängigkeit kleiner und die Extraktion verbessert, was zum höheren Wirkungsgrad führt. In einem weiteren Schritt wurde untersucht, wie sich die Fluorinierung des Polymers PCPDTBT auf das Bauteilverhalten auswirkt. Durch Fluorinierung des Polymer-Rückgrats von PCPDTBT wurden zum einen die Energieniveaus abgesenkt, ohne dass sich das Absorptionsverhalten geändert hat. Zum anderen wurde die Phasenentmischung beeinflusst. Mit Fluorinierung entstehen größere, reinere und kristallinere Polymerphasen. Dadurch wird die Generation der Ladungsträger effizienter und die Rekombination stärker unterdrückt. Eindeutige Korrelationen zwischen Phasengröße und Generationseffizienz konnten hierbei gefunden werden. Insgesamt steigt die Bauteileffizienz bei Verwendung von fluoriniertem PCPDTBT von 3.6 auf 6.1% bei gleicher Prozessierung. Durch weitere Optimierung konnte die Effizienz auf 6.6% für fluoriniertes PCPDTBT gesteigert werden. Eine di-Fluorinierung von PCPDTBT limitiert die Bauteileffizienz, speziell den Füll Faktor, trotz der Entstehung noch reinerer Polymerphasen. Eine genauere Analyse der Extraktionseffizienz mittels der genauen Bestimmung der Gleichgewichts-Ladungsträgerdichte für verschiedenen Beleuchtungs- und Feldsituationen zeigte, dass die Fluorinierung die Effizienz der Extraktion deutlich absenkt und dadurch bei di-Fluorinierung die Rekombinationsverluste im Bauteil trotz verlangsamter Rekombination ansteigen. Um weitere fundierte Kenntnisse der Ladungsgeneration zu gewinnen, wurde die Ladungsgeneration für verschiedene Gemische mit veränderten Energieniveaus in Abhängigkeit der Anregungsenergie untersucht. Dabei wurde die wichtige Kenntnis erlangt, dass die Photonenenergie, unabhängig von der Lage der Energieniveaus, keinen Einfluss auf die Effizienz der Generation hat und somit die Bildung freier Ladungsträger aus relaxierten Transferzuständen erfolgt. Dadurch ergeben sich neue Leitlinien für zukünftige Materialeigenschaften mit optimierten Wirkungsgraden. KW - organic solar cells KW - bulk heterojunction KW - charge carrier dynamics KW - charge generation KW - non geminate recombination KW - Generierung von Ladungsträgern KW - nicht geminale Rekombination KW - Extraktion KW - Polymer KW - Fulleren Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72285 ER - TY - THES A1 - Federici, Simone T1 - Gamma-ray studies of the young shell-type SNR RX J1713.7-3946 T1 - Untersuchung im Gamma-Strahlungsbereich des schalenartigen Supernova-Überrests RX J1713.7−3946 N2 - One of the most significant current discussions in Astrophysics relates to the origin of high-energy cosmic rays. According to our current knowledge, the abundance distribution of the elements in cosmic rays at their point of origin indicates, within plausible error limits, that they were initially formed by nuclear processes in the interiors of stars. It is also believed that their energy distribution up to 1018 eV has Galactic origins. But even though the knowledge about potential sources of cosmic rays is quite poor above „ 1015 eV, that is the “knee” of the cosmic-ray spectrum, up to the knee there seems to be a wide consensus that supernova remnants are the most likely candidates. Evidence of this comes from observations of non-thermal X-ray radiation, requiring synchrotron electrons with energies up to 1014 eV, exactly in the remnant of supernovae. To date, however, there is not conclusive evidence that they produce nuclei, the dominant component of cosmic rays, in addition to electrons. In light of this dearth of evidence, γ-ray observations from supernova remnants can offer the most promising direct way to confirm whether or not these astrophysical objects are indeed the main source of cosmic-ray nuclei below the knee. Recent observations with space- and ground-based observatories have established shell-type supernova remnants as GeV-to- TeV γ-ray sources. The interpretation of these observations is however complicated by the different radiation processes, leptonic and hadronic, that can produce similar fluxes in this energy band rendering ambiguous the nature of the emission itself. The aim of this work is to develop a deeper understanding of these radiation processes from a particular shell-type supernova remnant, namely RX J1713.7–3946, using observations of the LAT instrument onboard the Fermi Gamma-Ray Space Telescope. Furthermore, to obtain accurate spectra and morphology maps of the emission associated with this supernova remnant, an improved model of the diffuse Galactic γ-ray emission background is developed. The analyses of RX J1713.7–3946 carried out with this improved background show that the hard Fermi-LAT spectrum cannot be ascribed to the hadronic emission, leading thus to the conclusion that the leptonic scenario is instead the most natural picture for the high-energy γ-ray emission of RX J1713.7–3946. The leptonic scenario however does not rule out the possibility that cosmic-ray nuclei are accelerated in this supernova remnant, but it suggests that the ambient density may not be high enough to produce a significant hadronic γ-ray emission. Further investigations involving other supernova remnants using the improved back- ground developed in this work could allow compelling population studies, and hence prove or disprove the origin of Galactic cosmic-ray nuclei in these astrophysical objects. A break- through regarding the identification of the radiation mechanisms could be lastly achieved with a new generation of instruments such as CTA. N2 - Eine der gegenwärtigen bedeutendsten geführten Diskussionen in der Astrophysik bezieht sich auf den Ursprung der hochenergetischen Kosmischen Strahlung. Nach unserem heutigen Verständnis weist die am Ort des Ursprungs elementare Zusam- mensetzung der Kosmischen Strahlung darauf hin, dass diese zu Beginn mittels nuklearer Prozesse im Inneren von Sternen gebildet wurde. Weiterhin wird ange- nommen, dass die Kosmische Strahlung bis 1018 eV galaktischen Ursprungs ist. Auch wenn das Verständnis über die potentiellen Quellen der Kosmischen Strahlung ober- halb von 1015 eV, dem sogenannten „Knie“ des Spektrums der Kosmischen Strah- lung, lückenhaft ist, so liegt doch der Konsens vor, dass Supernovaüberreste (SNR) die wahrscheinlichsten Quellen für Energien bis 1015 eV sind. Unterstützt wird die- ser Sachverhalt durch Beobachtungen von nichtthermischer Röntgenstrahlung von SNR, deren Emission Elektronen mit Energien bis zu 1014 eV erfordern. Jedoch gibt es bis heute keinen überzeugenden Beweis, dass SNR zusätzlich zu den Elektronen auch Atomkerne, die den dominierenden Anteil in der Kosmischen Strahlung bilden, beschleunigen. Trotz fehlender überzeugender Beweise ermöglichen nun Beobachtungen von SNR im γ-Strahlungsbereich einen vielversprechenden Weg zur Aufklärung der Fra- ge, ob diese astrophysikalischen Objekte in der Tat die Hauptquelle der Kosmischen Strahlung unterhalb des Knies sind. Kürzlich durchgeführte Beobachtungen im Welt- raum und auf der Erdoberfläche haben zu der Erkenntnis geführt, dass schalenartige SNR γ-Strahlung im GeV- und TeV-Bereich emittieren. Die Interpretation dieser Beobachtungen ist jedoch schwierig, da sowohl Atomkerne als auch Elektronen im betrachteten Energiebereich zu ähnlichen γ-Emissionen führen. Dadurch wird die eindeutige Identifizierung der Emission als das Resultat hadronischer oder leptoni- scher Emissionsprozesse erschwert. Das Ziel dieser Arbeit ist es, am Beispiel des schalenartigen SNR RX J1713.7- 3946 ein tieferes Verständnis über die Strahlungsprozesse zu erhalten, indem vom γ-Weltraumteleskop Fermi durchgeführte Beobachtungen analysiert werden. Um ge- naue Spektren und die Ausdehnung der Region der Emission zu erhalten, wird ein verbessertes Modell für die diffuse galaktische γ-Hintergrundstrahlung entwickelt. Die mit diesem verbesserten Hintergrund durchgeführte Analyse von RX J1713.7- 3946 zeigt, dass das vom Fermi-Satelliten beobachtete Spektrum nicht dem hadro- nischen Szenario zugeschrieben werden kann, sodass das leptonische Szenario für die γ-Emissionen von diesem SNR verantwortlich ist. Das leptonische Szenario schließt jedoch nicht die Möglichkeit aus, dass auch Atomkerne in diesem SNR beschleu- nigt werden. Aber es deutet darauf hin, dass die umgebende Teilchendichte nicht ausreichend hoch genug ist, um zu einer signifikanten hadronischen γ-Emission zu führen. Weitere Untersuchungen, die andere SNR in Kombination mit dem hier ent- wickelten verbesserten Modell der Hintergrundstrahlung beinhalten, können Popu- lationsstudien erlauben. Dies könnte klären, ob die SNR tatsächlich die Quellen der galaktischen Kosmischen Strahlung sind. Ein Durchbruch bezüglich der Identi- fikation des Strahlungsmechanismus könnte auch durch eine neue Generation von Beobachtungsinstrumenten, wie das Cherenkov Telescope Array, erreicht werden. KW - Supernovaüberrest KW - gamma-ray KW - cosmic-rays KW - supernova remnants Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71734 ER - TY - THES A1 - Czesnick, Hjördis T1 - Functional specialization of Arabidopsis poly(A) polymerases in relation to flowering time and stress T1 - Funktionelle Spezialisierung von Arabidopsis Poly(A)-Polymerasen in Hinsicht auf Blühzeit und Stress N2 - Polyadenylation is a decisive 3’ end processing step during the maturation of pre-mRNAs. The length of the poly(A) tail has an impact on mRNA stability, localization and translatability. Accordingly, many eukaryotic organisms encode several copies of canonical poly(A) polymerases (cPAPs). The disruption of cPAPs in mammals results in lethality. In plants, reduced cPAP activity is non-lethal. Arabidopsis encodes three nuclear cPAPs, PAPS1, PAPS2 and PAPS4, which are constitutively expressed throughout the plant. Recently, the detailed analysis of Arabidopsis paps1 mutants revealed a subset of genes that is preferentially polyadenylated by the cPAP isoform PAPS1 (Vi et al. 2013). Thus, the specialization of cPAPs might allow the regulation of different sets of genes in order to optimally face developmental or environmental challenges. To gain insights into the cPAP-based gene regulation in plants, the phenotypes of Arabidopsis cPAPs mutants under different conditions are characterized in detail in the following work. An involvement of all three cPAPs in flowering time regulation and stress response regulation is shown. While paps1 knockdown mutants flower early, paps4 and paps2 paps4 knockout mutants exhibit a moderate late-flowering phenotype. PAPS1 promotes the expression of the major flowering inhibitor FLC, supposedly by specific polyadenylation of an FLC activator. PAPS2 and PAPS4 exhibit partially overlapping functions and ensure timely flowering by repressing FLC and at least one other unidentified flowering inhibitor. The latter two cPAPs act in a novel regulatory pathway downstream of the autonomous pathway component FCA and act independently from the polyadenylation factors and flowering time regulators CstF64 and FY. Moreover, PAPS1 and PAPS2/PAPS4 are implicated in different stress response pathways in Arabidopsis. Reduced activity of the poly(A) polymerase PAPS1 results in enhanced resistance to osmotic and oxidative stress. Simultaneously, paps1 mutants are cold-sensitive. In contrast, PAPS2/PAPS4 are not involved in the regulation of osmotic or cold stress, but paps2 paps4 loss-of-function mutants exhibit enhanced sensitivity to oxidative stress provoked in the chloroplast. Thus, both PAPS1 and PAPS2/PAPS4 are required to maintain a balanced redox state in plants. PAPS1 seems to fulfil this function in concert with CPSF30, a polyadenylation factor that regulates alternative polyadenylation and tolerance to oxidative stress. The individual paps mutant phenotypes and the cPAP-specific genetic interactions support the model of cPAP-dependent polyadenylation of selected mRNAs. The high similarity of the polyadenylation machineries in yeast, mammals and plants suggests that similar regulatory mechanisms might be present in other organism groups. The cPAP-dependent developmental and physiological pathways identified in this work allow the design of targeted experiments to better understand the ecological and molecular context underlying cPAP-specialization. N2 - Polyadenylierung ist ein entscheidender Schritt der 3‘-End-Prozessierung und somit der Reifung von prä-mRNAs. Die Länge des Poly(A)-Schwanzes entscheidet unter anderem über die Stabilität und Lokalisierung von mRNAs. Viele Eukaryoten besitzen mehrere Kopien der kanonischen Poly(A)-Polymerasen (PAP). In Säugetieren ist das Ausknocken dieser Enzyme letal. Pflanzen mit reduzierter PAP-Aktivität sind hingegen überlebensfähig. Arabidopsis exprimiert drei im Zellkern lokalisierte PAPs namens PAPS1, PAPS2 und PAPS4. Kürzlich ergab die Analyse von Arabidopsis paps1-Mutanten, dass eine Gen-Untergruppe vorzugsweise von PAPS1 polyadenyliert wird (Vi et al. 2013). Die Spezialisierung der PAPs könnte der Regulierung verschiedener Gengruppen in Anpassung an die Pflanzenentwicklung und an bestimmte Umweltbedingungen dienen. In der vorliegenden Arbeit werden die Phänotypen von Arabidopsis PAP-Mutanten unter verschiedenen Bedingungen im Detail charakterisiert, um die PAP-basierte Genregulation besser zu verstehen. Es wird gezeigt, dass alle drei PAPs an der Regulation der Blühzeit und an der Regulation von Stressantworten beteiligt sind. Während paps1-Mutanten früh blühen, zeigen paps4- und paps2 paps4-Mutanten einen spät blühenden Phänotypen. PAPS1 fördert die Expression des Blühzeitinhibitors FLC vermutlich über die Polyadenylierung eines FLC-Aktivators. PAPS2 und PAPS4 haben teilweise überlappende Funktionen und unterdrücken die Expression von FLC und mindestens einem weiteren, bisher unbekannten Blühzeitinhibitor. Die beiden PAPs agieren in einem neu entdeckten, genetischen Pfad gemeinsam mit dem Blühzeitregulator FCA, jedoch unabhängig von den Polyadenylierungsfaktoren und Blühzeitregulatoren CstF64 und FY. Des Weiteren regulieren PAPS1 und PAPS2/PAPS4 verschiedene Stressantworten. Das Reduzieren der PAPS1-Aktivität führt zu verstärkter Resistenz gegen osmotischen und oxidativen Stress, bei gleichzeitig erhöhter Kältesensitivität der Pflanzen. PAPS2/PAPS4 sind im Gegensatz dazu nicht an der Regulation von Kälte- oder osmotischem Stress beteiligt. Die paps2 paps4-Mutanten besitzen jedoch reduzierte Toleranz gegen oxidativen Stress in Chloroplasten. Das heißt, sowohl PAPS1 als auch PAPS2/PAPS4 sind nötig, um einen ausgeglichenen Redoxstatus der Pflanzenzellen zu gewährleisten. PAPS1 arbeitet bei dieser Regulation scheinbar mit dem Polyadenylierungsfaktor CPSF30 zusammen. Die individuellen Phänotypen der paps-Mutanten und die spezifischen genetischen Interaktionen der Poly(A)-Polymerasen in Arabidopsis unterstützen das Modell der PAP-abhängigen Polyadenylierung von selektierten mRNAs. Da die Polyadenylierungskomplexe in Hefen, Säugetieren und Pflanzen starke Ähnlichkeiten aufweisen, ist es denkbar, dass dieser Regulierungsmechanismus auch in anderen Organismengruppen präsent ist. Basierend auf den Ergebnissen dieser Arbeit können gezielt weitere Experimente entwickelt werden, um die ökologischen und molekularen Grundlagen der PAP-Spezialisierung zu untersuchen. KW - polyadenylation KW - flowering KW - Polyadenylierung KW - Arabidopsis KW - Poly(A)-Polymerasen KW - Blühzeit Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78015 ER - TY - THES A1 - Lotkowska, Magda Ewa T1 - Functional analysis of MYB112 transcription factor in the model plant Arabidopsis thaliana T1 - Funktionelle Charakterisierung von MYB112 Transkriptionsfaktor aus der Modellpflanze Arabidopsis thaliana N2 - Transcription factors (TFs) are ubiquitous gene expression regulators and play essential roles in almost all biological processes. This Ph.D. project is primarily focused on the functional characterisation of MYB112 - a member of the R2R3-MYB TF family from the model plant Arabidopsis thaliana. This gene was selected due to its increased expression during senescence based on previous qRT-PCR expression profiling experiments of 1880 TFs in Arabidopsis leaves at three developmental stages (15 mm leaf, 30 mm leaf and 20% yellowing leaf). MYB112 promoter GUS fusion lines were generated to further investigate the expression pattern of MYB112. Employing transgenic approaches in combination with metabolomics and transcriptomics we demonstrate that MYB112 exerts a major role in regulation of plant flavonoid metabolism. We report enhanced and impaired anthocyanin accumulation in MYB112 overexpressors and MYB112-deficient mutants, respectively. Expression profiling reveals that MYB112 acts as a positive regulator of the transcription factor PAP1 leading to increased anthocyanin biosynthesis, and as a negative regulator of MYB12 and MYB111, which both control flavonol biosynthesis. We also identify MYB112 early responsive genes using a combination of several approaches. These include gene expression profiling (Affymetrix ATH1 micro-arrays and qRT-PCR) and transactivation assays in leaf mesophyll cell protoplasts. We show that MYB112 binds to an 8-bp DNA fragment containing the core sequence (A/T/G)(A/C)CC(A/T)(A/G/T)(A/C)(T/C). By electrophoretic mobility shift assay (EMSA) and chromatin immunoprecipitation coupled to qPCR (ChIP-qPCR) we demonstrate that MYB112 binds in vitro and in vivo to MYB7 and MYB32 promoters revealing them as direct downstream target genes. MYB TFs were previously reported to play an important role in controlling flavonoid biosynthesis in plants. Many factors acting upstream of the anthocyanin biosynthesis pathway show enhanced expression levels during nitrogen limitation, or elevated sucrose content. In addition to the mentioned conditions, other environmental parameters including salinity or high light stress may trigger anthocyanin accumulation. In contrast to several other MYB TFs affecting anthocyanin biosynthesis pathway genes, MYB112 expression is not controlled by nitrogen limitation, or carbon excess, but rather is stimulated by salinity and high light stress. Thus, MYB112 constitutes a previously uncharacterised regulatory factor that modifies anthocyanin accumulation under conditions of abiotic stress. N2 - Transkriptionsfaktoren (TFs) sind ubiquitäre Regulatoren der Genexpression und spielen eine essentielle Rolle in nahezu allen biologischen Prozessen. Diese Doktorarbeit hat vor allem die funktionelle Charakterisierung von MYB112 zum Thema, einem Mitglied der R2R3-MYB-TF-Familie aus der Modellpflanze Arabidopsis thaliana. Ausgesucht wurde das Gen aufgrund seiner erhöhten Expression in seneszenten Blättern, basierend auf vorangegangenen qRT-PCR Expressions-Profiling Experimenten für 1880 TFs in Arabidopsis Blättern aus drei Entwicklungsstadien (15 mm Blatt, 30 mm Blatt und 20 % vergilbtes Blatt). MYB112-Promotor-GUS-Fusionslinien wurden generiert um das Expressionsmuster von MYB112 detailliert zu untersuchen. Unter Zuhilfenahme transgener Ansätze in Kombination mit Metabolomics und Transcriptomics können wir zeigen, dass MYB112 eine wichtige Rolle in der Regulation des pflanzlichen Flavonoid-Metabolismus spielt. In MYB112 Überexpressoren und MYB112-defizienten Mutanten kommt es zu erhöhter bzw. verminderter Anthocyanin-Akkumulation. Expressions-Profiling zeigt, dass MYB112 einerseits als ein positiver Regulator des Transkriptionsfaktors PAP1 fungiert, was zu einer erhöhten Anthocyanin-Biosynthese führt, andererseits als negativer Regulator von MYB12 und MYB111 auftritt, welche beide die Flavonol-Biosynthese kontrollieren. Wir haben früh auf MYB112 reagierende Gene durch eine Kombination verschiedener Ansätze identifiziert. Diese umfassen Genexpressions-Profiling (Affymetrix ATH1 Microarrays und qRT-PCR) und Transaktivierungs-Experimente in Mesophyll-Protoplasten aus Blättern. Wir zeigen, dass MYB112 an eine 8-bp DNA-Fragment, welches die Kernsequenz (A/T/G)(A/C)CC(A/T)(A/G/T)(A/C)(T/C) aufweist. Mit Hilfe von Electrophoretic Mobility Shift Assay (EMSA) und Chromatin-Immunopräzipitation gekoppelt mit qPCR (ChIP-qPCR) zeigen wir, dass MYB112 in vitro und in vivo an die Promotoren von MYB7 und MYB32 bindet was sie damit als direkte Zielgene von MYB112 identifiziert. Es wurde bereits gezeigt, dass MYB TFs eine wichtige Rolle bei der Kontrolle der Flavonoid-Biosynthese in Pflanzen haben. Viele Faktoren, die oberhalb des Anthocyanin-Biosyntheseweges agieren, werden bei Stickstofflimitierung oder erhöhter Saccharose-Konzentration auch verstärkt exprimiert. Außer den erwähnten Bedingungen können auch andere Umweltparameter, wie z. B. erhöhter Salzgehalt und Starklicht zu erhöhter Expression führen. Im Gegensatz jedoch zu einigen anderen MYB TFs, die einen Einfluss auf Gene des Anthocyanin-Biosyntheseweges ausüben, ist die Expression von MYB112 nicht durch Stickstoff-Limitierung oder Kohlenstoffüberfluss kontrolliert, sondern wird durch erhöhten Salzgehalt sowie Starklicht stimuliert. Somit ist MYB112 ein neuer Regulator, der eine Anthocyanin-Akkumulation unter abiotischen Stressbedingungen kontrolliert. KW - Transkriptionsfaktoren KW - Flavonoid-Metabolismus KW - Stress KW - Transaktivierungs-Experimente KW - Chromatin-Immunopräzipitation KW - transcription factors KW - flavonoid biosynthesis KW - stress KW - transactivation assay KW - chromatin immunoprecipitation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72131 ER - TY - THES A1 - Sorce, Jenny T1 - From Spitzer mid-infrared observations and measurements of peculiar velocities to constrained simulations of the local universe T1 - Von Spitzer-Beobachtungen im mittleren Infrarotbereich und Messungen der Pekuliargeschwindigkeiten zu Constrained Simulationen des Lokalen Universums N2 - Galaxies are observational probes to study the Large Scale Structure. Their gravitational motions are tracers of the total matter density and therefore of the Large Scale Structure. Besides, studies of structure formation and galaxy evolution rely on numerical cosmological simulations. Still, only one universe observable from a given position, in time and space, is available for comparisons with simulations. The related cosmic variance affects our ability to interpret the results. Simulations constrained by observational data are a perfect remedy to this problem. Achieving such simulations requires the projects Cosmic flows and CLUES. Cosmic flows builds catalogs of accurate distance measurements to map deviations from the expansion. These measures are mainly obtained with the galaxy luminosity-rotation rate correlation. We present the calibration of that relation in the mid-infrared with observational data from Spitzer Space Telescope. Resulting accurate distance estimates will be included in the third catalog of the project. In the meantime, two catalogs up to 30 and 150 Mpc/h have been released. We report improvements and applications of the CLUES' method on these two catalogs. The technique is based on the constrained realization algorithm. The cosmic displacement field is computed with the Zel'dovich approximation. This latter is then reversed to relocate reconstructed three-dimensional constraints to their precursors' positions in the initial field. The size of the second catalog (8000 galaxies within 150 Mpc/h) highlighted the importance of minimizing the observational biases. By carrying out tests on mock catalogs, built from cosmological simulations, a method to minimize observational bias can be derived. Finally, for the first time, cosmological simulations are constrained solely by peculiar velocities. The process is successful as resulting simulations resemble the Local Universe. The major attractors and voids are simulated at positions approaching observational positions by a few megaparsecs, thus reaching the limit imposed by the linear theory. N2 - Die Verteilung der Galaxien liefert wertvolle Erkenntnisse über die großräumigen Strukturen im Universum. Ihre durch Gravitation verursachte Bewegung ist ein direkter Tracer für die Dichteverteilung der gesamten Materie. Die Strukturentstehung und die Entwicklung von Galaxien wird mithilfe von numerischen Simulationen untersucht. Es gibt jedoch nur ein einziges beobachtbares Universum, welches mit der Theorie und den Ergebnissen unterschiedlicher Simulationen verglichen werden muß. Die kosmische Varianz erschwert es, das lokale Universum mit Simulationen zu reproduzieren. Simulationen, deren Anfangsbedingungen durch Beobachtungsdaten eingegrenzt sind (Constrained Simulations'') stellen eine geeignete Lösung dieses Problems dar. Die Durchführung solcher Simulationen ist das Ziel der Projekte Cosmicflows und CLUES. Im Cosmicflows-Projekt werden genaue Entfernungsmessungen von Galaxien erstellt, welche die Abweichung von der allgemeinen Hubble-Expansion abbilden. Diese Messungen werden hauptsächlich aus der Korrelation zwischen Leuchtkraft und Rotationsgeschwindigkeit von Spiralgalaxien gewonnen. In dieser Arbeit wird die Kalibrierung dieser Beziehung im mittleren Infrarot mithilfe von Daten vom Spitzer Space Telescope vorgestellt. Diese neuen Entfernungsbestimmungen werden im dritten Katalog des Cosmicflows-Projekts enthalten sein. Bisher wurden zwei Kataloge veröffentlicht, mit Entfernungen bis zu 30 beziehungsweise 150 Mpc/h. In dieser Arbeit wird die CLUES-Methode auf diese zwei Kataloge angewendet und Verbesserungen werden vorgestellt und diskutiert. Zunächst wird das kosmische Verschiebungsfeld mithilfe der Zeldovich-Näherung bestimmt. In umgekehrter Richtung kann man damit die aus heutigen Beobachtungsdaten rekonstruierten dreidimensionalen Constraints an ihren Ursprungsort im frühen Universum zurückzuversetzen. Durch den großen Datenumfang des cosmicflows-2 Katalogs (8000 Galaxien bis zu einer Entfernung von 150 Mpc/h) ist es besonders wichtig, den Einfluss verschiedener Beobachtungsfehler zu minimieren. Eine für das lokale Universum angepasste Korrekturmethode lässt sich durch die Untersuchung von Mock-Katalogen finden, welche aus kosmologischen Simulationen gewonnen werden. Schließlich stellt diese Arbeit erstmals kosmologische Simulationen vor, die ausschließlich durch Pekuliargeschwindigkeiten eingegrenzt sind. Der Erfolg dieser Methode wird dadurch bestätigt, dass die dadurch erzeugten Simulationen dem beobachteten lokalen Universum sehr ähnlich sind. Die relevanten Attraktoren und Voids liegen in den Simulationen an Positionen, welche bis auf wenige Megaparsec mit den beobachteten Positionen übereinstimmen. Die Simulationen erreichen damit die durch die lineare Theorie gegebene Genauigkeitsgrenze. KW - Beobachtungen KW - Entfernungen KW - Pekuliargeschwindigkeiten KW - Simulationen KW - observations KW - distances KW - peculiar velocities KW - simulations Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72486 ER - TY - THES A1 - Munack, Henry T1 - From phantom blocks to denudational noise BT - downwearing of the Himalaya-Tibet orogen from a multi-scale perspective BT - die Abtragung des Himalaya-Tibet Orogens aus multiskaliger Perspektive N2 - Knowing the rates and mechanisms of geomorphic process that shape the Earth’s surface is crucial to understand landscape evolution. Modern methods for estimating denudation rates enable us to quantitatively express and compare processes of landscape downwearing that can be traced through time and space—from the seemingly intact, though intensely shattered, phantom blocks of the catastrophically fragmented basal facies of giant rockslides up to denudational noise in orogen-wide data sets averaging over several millennia. This great variety of spatiotemporal scales of denudation rates is both boon and bane of geomorphic process rates. Indeed, processes of landscape downwearing can be traced far back in time, helping us to understand the Earth’s evolution. Yet, this benefit may turn into a drawback due to scaling issues if these rates are to be compared across different observation timescales. This thesis investigates the mechanisms, patterns and rates of landscape downwearing across the Himalaya-Tibet orogen. Accounting for the spatiotemporal variability of denudation processes, this thesis addresses landscape downwearing on three distinctly different spatial scales, starting off at the local scale of individual hillslopes where considerable amounts of debris are generated from rock instantaneously: Rocksliding in active mountains is a major impetus of landscape downwearing. Study I provides a systematic overview of the internal sedimentology of giant rockslide deposits and thus meets the challenge of distinguishing them from macroscopically and microscopically similar glacial deposits, tectonic fault-zone breccias, and impact breccias. This distinction is important to avoid erroneous or misleading deduction of paleoclimatic or tectonic implications. -> Grain size analysis shows that rockslide-derived micro-breccia closely resemble those from meteorite impact or tectonic faults. -> Frictionite may occur more frequently that previously assumed. -> Mössbauer-spectroscopy derived results indicate basal rock melting in the absence of water, involving short-term temperatures of >1500°C. Zooming out, Study II tracks the fate of these sediments, using the example of the upper Indus River, NW India. There we use river sand samples from the Indus and its tributaries to estimate basin-averaged denudation rates along a ~320-km reach across the Tibetan Plateau margin, to answer the question whether incision into the western Tibetan Plateau margin is currently active or not. -> We find an about one-order-of-magnitude upstream decay—from 110 to 10 mm kyr^-1—of cosmogenic Be-10-derived basin-wide denudation rates across the morphological knickpoint that marks the transition from the Transhimalayan ranges to the Tibetan Plateau. This trend is corroborated by independent bulk petrographic and heavy mineral analysis of the same samples. -> From the observation that tributary-derived basin-wide denudation rates do not increase markedly until ~150–200 km downstream of the topographic plateau margin we conclude that incision into the Tibetan Plateau is inactive. -> Comparing our postglacial Be-10-derived denudation rates to long-term (>10^6 yr) estimates from low-temperature thermochronometry, ranging from 100 to 750 mm kyr^-1, points to an order- of-magnitude decay of rates of landscape downwearing towards present. We infer that denudation rates must have been higher in the Quaternary, probably promoted by the interplay of glacial and interglacial stages. Our investigation of regional denudation patterns in the upper Indus finally is an integral part of Study III that synthesizes denudation of the Himalaya-Tibet orogen. In order to identify general and time-invariant predictors for Be-10-derived denudation rates we analyze tectonic, climatic and topographic metrics from an inventory of 297 drainage basins from various parts of the orogen. Aiming to get insight to the full response distributions of denudation rate to tectonic, climatic and topographic candidate predictors, we apply quantile regression instead of ordinary least squares regression, which has been standard analysis tool in previous studies that looked for denudation rate predictors. -> We use principal component analysis to reduce our set of 26 candidate predictors, ending up with just three out of these: Aridity Index, topographic steepness index, and precipitation of the coldest quarter of the year. -> Topographic steepness index proves to perform best during additive quantile regression. Our consequent prediction of denudation rates on the basin scale involves prediction errors that remain between 5 and 10 mm kyr^-1. -> We conclude that while topographic metrics such as river-channel steepness and slope gradient—being representative on timescales that our cosmogenic Be-10-derived denudation rates integrate over—generally appear to be more suited as predictors than climatic and tectonic metrics based on decadal records. N2 - Die Kenntnis von Raten und Mechanismen geomorphologischer Prozesse, die die Erdoberfläche gestalten, ist entscheidend für das Verständnis von quartärer Landschaftsgeschichte. Denudationsraten sind dabei das Mittel zur Quantifizierung und zum Vergleich von Oberflächenabtrag; hinweg über zeitliche und räumliche Größenordnungen – von den optisch unversehrten, jedoch durchgehend zerrütteten “Phantom Blocks” der basalen Fazies katastrophaler Bergstürze bis hin zum “Denudational Noise”, dem durchaus informativen Rauschen in Datensätzen, die über ganze Orogene und tausende Jahre von Landschaftsgeschichte integrieren. Diese große räumlich-zeitliche Variabilität von Denudationsprozessen ist Chance und Herausforderung zugleich. Zum einen können Denudationsprozesse weit in der Zeit zurückverfolgt werden, was hilft, Landschaftsgeschichte nachzuvollziehen. Andererseits hat es sich gezeigt, dass geomorphologische Prozessraten mit dem Zeitraum ihrer Beobachtung skalieren, was einen Vergleich über zeitliche Größenordnungen hinweg erschwert. Diese Dissertation untersucht in drei Studien die Mechanismen, Muster und Raten von Denudation im Himalaja-Tibet Orogen. Der räumlichen (und zeitlichen) Variabilität von Denudationsprozessen folgend beginnt diese Arbeit dort, wo bedeutende Mengen von Festgestein schlagartig in erodierbaren Schutt umgewandelt werden: Bergstürze sind ein Hauptantrieb der Abtragung von aktiven Gebirgen. Studie I systematisiert die interne Sedimentologie gigantischer Bergsturzablagerungen. Sie adressiert damit Herausforderungen durch die makro- und mikroskopische Ähnlichkeit von Bergsturzablagerungen mit glazialen Ablagerungen, tektonischen Störungsbrekkzien und Impaktbrekkzien. Ziel einer solchen Systematisierung ist die Vermeidung fehlerhafter paläoklimatischer oder -tektonischer Interpretationen. -> Bergsturzbrekkzien sind auf mikroskopischer Ebene nicht von tektonischen oder Impaktbrekkzien unterscheidbar. -> Friktionit könnte weit häufiger vorkommen, als bisher angenommen. -> Mössbauer-Spektroskopie deutet auf Temperaturen ≥ 1500° C sowie die Abwesenheit von Wasser als Schmiermittel hin. Auf der mesoskaligen Ebene von Einzugsgebieten verfolgt Studie II, am Beispiel des oberen Indus in NW Indien den Weg dieser Sedimente, denn sie geben Auskunft über beckenweite Denudationsraten, sowie Pfade und Muster des Sedimenttransports am westlichen Tibetplateaurand. Diese Informationen sollen helfen, die Mechanismen der Einschneidung großer Flüsse in das Tibetplateau, sowie den gegenwärtigen erosionalen Status des Plateaurandes zu verstehen. -> Die beckenweiten Denudationsraten in den Tributären des Indus nehmen stromabwärts – und damit über den morphologischen Tibetplateaurand hinweg – von 10 auf 110 mm kyr^-1 zu. Dieser Trend wird durch unabhängige Petrographie- und Schwermineralanalysen aus denselben Proben nachgezeichnet. -> Es zeigt sich allerdings, dass der morphologische Plateaurand und der hierfür erwartbare Anstieg der Denudationsraten um ~150–200 km versetzt sind. Hieraus schließen wir, dass der westliche Rand des Tibetischen Plateaus rezent nicht maßgeblich erodiert wird. -> Ein Vergleich unserer postglazialen Denudationsraten von kosmogenem Be-10 mit Langzeit- (>10^6 yr)-Thermochronometriedaten von 100 bis 750 mm kyr^-1 deutet auf einen spätquartären Rückgang von Denudationsraten im Transhimalaya hin. Folglich muss es früher während des Quartärs Zeiten höherer erosionaler Effizienz gegeben haben. Studie III fokussiert schließlich, in einer Analyse beckenweiter Be-10-Denudationsraten, auf Denudationsmuster und -mechanismen für das gesamte Himalaja-Tibet Orogen. Auf der Suche nach zeit-invarianten tektonischen, klimatischen oder topographischen Prädiktoren für Denudationsraten wird ein Datensatz von 297 orogenweit verteilten Einzugsgebieten untersucht. Um Einblicke in die gesamte Response-Verteilung zwischen Denudationsrate und Prädiktor zu erhalten nutzen wir – anstelle der in diesem Zusammenhang vielbenutzten Methode der kleinsten Quadrate – Quantil-Regression. -> Dafür reduzieren wir einen Satz von 26 möglichen Prädiktoren, unter Nutzung der Hauptkomponentenanalyse, auf drei Prädiktoren: Ariditätsindex, topographischer Steilheitsindex und Niederschlag des kältesten Quartals. -> Die additive Quantil-Regression dieser drei Prädiktoren zeigt, dass der Steilheitsindex die besten Ergebnisse im Sinne einer zeit-invarianten Beziehung zwischen Denudationsrate und Prädiktoren liefert. -> Zusammenfassend zeigt sich, dass topographisch basierte Prädiktoren geeigneter für die Vorhersage von kosmogenen beckenweiten Denudationsraten sind als klimatische oder tektonische Prädiktoren. Wir erklären dieses Resultat mit den jeweils über Jahrtausende integrierenden Maßzahlen für Topographie und kosmogenen Denudationsraten, und der daraus folgenden Inkompatibilität der kosmogenen Denudationsraten mit den tektonischen und klimatischen Prädiktoren, die lediglich auf Jahrzehnten von Messungen beruhen. T2 - Von Phantomblöcken zu Denudationsrauschen KW - geomorphology KW - quaternary KW - denudation KW - Himalaya-Tibet orogen KW - cosmogenic nuclides KW - rockslide KW - Geomorphologie KW - Quartär KW - Denudation KW - Himalaya-Tibet Orogen KW - kosmogene Nuklide KW - Bergsturz Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72629 ER - TY - THES A1 - Goldshteyn, Jewgenij T1 - Frequency-resolved ultrafast dynamics of phonon polariton wavepackets in the ferroelectric crystals LiNbO₃ and LiTaO₃ N2 - During this work I built a four wave mixing setup for the time-resolved femtosecond spectroscopy of Raman-active lattice modes. This setup enables to study the selective excitation of phonon polaritons. These quasi-particles arise from the coupling of electro-magnetic waves and transverse optical lattice modes, the so-called phonons. The phonon polaritons were investigated in the optically non-linear, ferroelectric crystals LiNbO₃ and LiTaO₃. The direct observation of the frequency shift of the scattered narrow bandwidth probe pulses proofs the role of the Raman interaction during the probe and excitation process of phonon polaritons. I compare this experimental method with the measurement where ultra-short laser pulses are used. The frequency shift remains obscured by the relative broad bandwidth of these laser pulses. In an experiment with narrow bandwidth probe pulses, the Stokes and anti-Stokes intensities are spectrally separated. They are assigned to the corresponding counter-propagating wavepackets of phonon polaritons. Thus, the dynamics of these wavepackets was separately studied. Based on these findings, I develop the mathematical description of the so-called homodyne detection of light for the case of light scattering from counter propagating phonon polaritons. Further, I modified the broad bandwidth of the ultra-short pump pulses using bandpass filters to generate two pump pulses with non-overlapping spectra. This enables the frequency-selective excitation of polariton modes in the sample, which allows me to observe even very weak polariton modes in LiNbO₃ or LiTaO₃ that belong to the higher branches of the dispersion relation of phonon polaritons. The experimentally determined dispersion relation of the phonon polaritons could therefore be extended and compared to theoretical models. In addition, I determined the frequency-dependent damping of phonon polaritons. N2 - Während dieser Arbeit habe ich ein optisches Vier-Wellen-Misch-Experiment aufgebaut, um zeitaufgelöste Femtosekunden-Spektroskopie von Raman-aktiven Gittermoden durchzuführen. Dieser Aufbau erlaubt die Untersuchung selektiv angeregter Phonon Polaritonen. Diese Quasiteilchen entstehen durch die Kopplung von elektromagnetischen Wellen und transversal-optischer Gittermoden, den sogenannten Phononen. Die Phonon Polaritonen wurden in den optisch nichtlinearen, ferroelektrischen Kristallen LiNbO₃ und LiTaO₃ untersucht. Durch die direkte Beobachtung der Frequenzverschiebung der gestreuten, schmalbandigen Abfragepulse konnte die Raman-Wechselwirkung im Abfrage- und Erzeugungsprozess von Phonon Polaritonen nachgewießen werden. Diese experimentelle Methode vergleiche ich mit der Messung mittels ultrakurzen Laserpulsen. Hierbei ist die Frequenzverschiebung wegen der relativ großen Bandbreite der Laserpulse nicht auflösbar. Die Stokes und Anti-Stokes-Intensitäten sind hingegen in einem Experiment mit schmalbandigen Abfragepulsen spektral getrennt. Diese konnten den jeweiligen, entgegengesetzt propagierenden Wellenpaketen der Phonon Polaritonen zugeordnet werden. Deshalb war es moeglich, die Dynamik dieser Wellenpakete einzeln zu untersuchen. Basierend auf diesen Erkenntnissen konnte ich eine mathematische Beschreibung der sogenannten homodynen Detektion des Lichtes für den Fall von Lichtstreuung an entgegengesetzt propagierenden Phonon Polaritonen entwickeln. Desweiteren habe ich die breitbandigen, ultrakurzen Pumppulse mithilfe von zwei Bandpassfiltern so modifiziert, dass zwei spektral unterschiedliche und spektral nicht überlappende Anregepulse zur Verfügung standen. Dadurch wurde die frequenz-selektive Anregung von Polariton-Moden in der Probe ermöglicht. Diese Technik erlaubt mir die Untersuchung auch sehr schwacher Gittermoden in LiNbO₃ und LiTaO₃, die zu den höheren Ästen der Dispersionsrelation der Phonon Polaritonen gehören. Die experimentell bestimmte Dispersionsrelation der Phonon Polaritonen wurde erweitert und mit theoretischen Modellen verglichen. Zusätzlich habe ich die frequenzabhängige Dämpfung der Phonon Polaritonen bestimmt. T2 - Frequenzaufgelöste ultraschnelle Dynamik von Phonon Polariton Wellenpaketen in ferroelektrischen Kristallen LiNbO₃ und LiTaO₃ KW - transient grating KW - time resolved spectroskopy KW - non-linear optics KW - phonon polariton KW - impulsive stimulated Raman scattering KW - transientes Gitter KW - zeitaufgelöste Spektroskopie KW - nichtlineare Optik KW - Phonon-Polariton KW - impulsive stimulierte Raman Streuung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71623 ER - TY - THES A1 - Metzner, Christiane T1 - Freiwilligenmanagement als Instrument zur Förderung Bürgerschaftlichen Engagements in Nonprofit-Organisationen T1 - Volunteer management as a tool to promote civic engagement in nonprofit organizations N2 - Diese Arbeit untersucht, was passiert, wenn in Non-Profit-Organisation (NPO) der Anspruch des Bürgerschaftlichen Engagements auf Praktiken des Freiwilligenmanagements trifft. Ausgangspunkt dieser Fragestellung ist eine doppelte Diagnose: Zum einen setzen NPOs aufgrund mehrerer Faktoren - u.a. Ressourcenknappheit, Wettbewerb und Nachahmungseffekten – vermehrt auf Freiwilligenmanagement. Mit dieser von der BWL inspirierten, aber für NPO entwickelten Personalführungsmethode wollen sie mehr und bessere Freiwillige gewinnen und deren Einsatz effizienter strukturieren. Zum anderen haben sich gleichzeitig viele NPO dem Ziel des bürgerschaftlichen Engagements verschrieben. Damit reagieren sie auf den aus Politik und Wissenschaft zu vernehmenden Anspruch, die Zivilgesellschaft möge die knappen Kassen der öffentlichen Hand kompensieren und das wachsende Partizipationsbedürfnis weiter Teile der Bevölkerung durch eine neue Kultur der Teilhabe der Bürgerinnen und Bürger befriedigen. Bei näherer Betrachtung zeigt sich jedoch: Während Freiwilligenmanagement einer ökonomischen Handlungslogik folgt, ist bürgerschaftliches Engagement Ausdruck einer Handlungslogik der Zivilgesellschaft. Beide sind unter gegenwärtigen Bedingungen weder theoretisch noch praktisch miteinander vereinbar. Um beide Entwicklungen miteinander zu versöhnen, muss Freiwilligenmanagement unter dem Banner des Bürgerschaftlichen neu gedacht werden. Dieses Argument unterfüttert die Arbeit sowohl theoretisch und empirisch. Der Theorieteil gliedert sich in drei Teile. Zunächst wird der Begriff der NPO näher eingegrenzt. Dazu wird die bestehende Literatur zum Dritten Sektor und Non-Profit-Organisationen zu einem operationalisierbaren Begriff von NPO kondensiert. Daran anschließend werden aktuelle Trends im Feld der NPO identifiziert, die zeigen, dass NPO tatsächlich oft von widerstreitenden Handlungslogiken gekennzeichnet sind, darunter eine ökonomische und eine bürgerschaftliche. Die beiden folgenden Kapitel untersuchen dann jeweils eine der beiden Logiken. Zunächst wird das Leitbild des bürgerschaftlichen Engagements als Ausdruck einer zivilgesellschaftlichen Handlungslogik näher definiert. Dabei zeigt sich, dass dieser Begriff oft sehr unscharf verwendet wird. Daher greift die Arbeit auf die politiktheoretische Diskussion um Zivil- und Bürgergesellschaft auf und schmiedet daraus eine qualifizierte Definition von bürgerschaftlichem Engagement, die sich maßgeblich am Ideal von gesellschaftlich-politischer Partizipation und bürgerschaftlicher Kompetenz orientiert. Dem wird im dritten und letzten Kapitel des Theorieteils die ökonomische Handlungslogik in Form der Theorie des Freiwilligenmanagements gegenübergestellt. Bei der Darstellung zeigt sich schnell, dass dessen Grundprinzipien – anders als oft vorgebracht – mit den qualifizierten Idealen von Partizipation und Konkurrenz im Konflikt stehen. In der empirischen Analyse wird dann in den 8 Interviews den Widersprüchen zwischen bürgerschaftlichem Engagement und Freiwilligenmanagement in der Praxis nachgegangen. Die Ergebnisse dieser Untersuchung lassen sich in 5 Punkten zusammenfassen: 1. Freiwilligenmanagement orientiert sich erstens im wesentlichen an einer Zahl: Dem Zugewinn oder Verlust von freiwilliger Arbeit. 2. Freiwilligenmanagement installiert ein umfassendes System der Selektion von „passenden“ Freiwilligen. 3. Positiv hervorzuheben ist die institutionalisierte Ansprechbarkeit, die im Rahmen von Freiwilligenmanagement in NPO Einzug erhält. 4. Freiwilligenmanagement ist eng mit dem Anspruch verbunden, die Arbeit der Freiwilligen zu kontrollieren. Der Eigensinn des Engagements, die Notwendigkeit von Spielräumen, die Möglichkeit des Ausprobierens oder der Anspruch der Freiwilligen, an Entscheidungen zu partizipieren bzw. gar selbstorganisiert und -verantwortlich zu handeln, rückt dabei in den Hintergrund. 5. In den Interviews wird eine starke Ökonomisierung des Engagements sichtbar. Freiwillige werden als Ressource betrachtet, ihr Engagement als „Zeitspende“ statistisch erfasst, ihre (Dienst-)Leistung monetär bewertet. Im Zuge dessen erhält auch der Managerialism verstärkt Einfluss auf die Arbeit in NPO und begründet ein stark hierarchisches Verhältnis: Während die Freiwilligenmangerin aktiv handelt, wird die freiwillig Engagierte zum Objekt von Management-Techniken. Dass dies dem Anspruch der Partizipation entgegenläuft, ergibt sich dabei von selbst. Angesichts dieser Diagnose, dass real-existierendes Freiwilligenmanagement nicht mit dem Ideal des bürgerschaftlichen Engagement im engeren Sinne zusammenpasst, formuliert das Fazit Vorschläge für ein bürgerschaftlich orientiertes, engagement-sensibles Freiwilligenmanagement.
 N2 - This thesis examines what happens when the claim of civic engagement meets the practice of volunteer management. The starting point for this analysis is a dual diagnosis in non-profit organizations (NPO): First, due to several factors (resource scarcity, competition and imitation effects and others) NPOs increasingly employ techniques of volunteer management. Inspired by business administration, but adapted to NPO, this personnel management method promises to acquire more and better volunteers and restructure their work more efficiently. At the same time, many NPOs subscribe to the goal of civic engagement. They respond to the public claim that civil society should compensate for the tight budgets of the public sector and to the idea that there is a demand for increasing participation within the civil society that needs to be satisfied. The in-depth analysis of both concepts reveals: While volunteer management follows an economic logic of action, civic engagement reflects a logic of action that has its origins in the ideals of the civil society. Both are neither theoretically nor practically compatible with one another under present conditions in nonprofit organizations. In order to reconcile both developments, volunteer management needs to be rethought under the banner of the Civic (Civic Culture). The thesis underpins this argument both theoretically and empirically. The theoretical part is divided into three parts. First, the concept of NPO is explored. For this purpose, the existing literature on the third sector and non-profit organizations is condensed into an operationalized concept of NPO. Subsequently, current trends in the field of NPOs are identified, showing that NPO are actually often characterized by conflicting logics of action, including an economic and a civic. The following two chapters then examine each of these two logics. First, the model of civic engagement is further defined as an expression of the civic action logic. It turns out that this term is often used in a very blurred way. Therefore, the work draws on the theoretical discussion of civil politics and civil society, merging it into a qualified definition of civic engagement, focusing on the ideal of social and political participation and civic competence. The third chapter contrasts this civic logic with the economic logic of action in the form of volunteer management. It is shown that its basic principles - other than often argued - conflict with the ideal of participation. The empirical analysis then draws on 8 interviews to elucidate the contradictions between civic engagement and volunteer management in practice. The results of this study can be summarized in five points: 1. Volunteer management focus mostly on the gain or loss of voluntary work. 2. Volunteer management installs a comprehensive system of selection which seeks to match vorlunteers with the goals of the organization. Among other "interviews" and training are used to screen out those volunteers that do not fit into the organization. Notwithstanding, though, these decisions are not based on professional criteria, but on an elaborate set of criteria for „feeling cosy". 3. On the positive side stands institutionalized responsiveness, which surfaces as an effect of volunteer management in NPOs. 4. Volunteer management is closely connected to the aim of controlling the work of volunteers. This is also reflected in the practice of NPO. Volunteers are committed in contracts to show binding and predictable behavior. And they are administered as part of a personnel management. This hinders the obstinacy of commitment, the necessity of leeway, the possibility of trying out, or the volunteers’ demand to participate in decisions and to act even self-organized and self-responsible. 5. The interviews show a strong economization of commitment. Volunteers are viewed as a resource. Their commitment is statistically recorded as "time donation", their (business) performance is measured in monetary terms. NPOs that use volunteer management are also often marked by a growing managerialism which establishes a strong hierarchical relationship: While the volunteer manager is active, the volunteer is the object of management techniques. This is the opposite of the idea of participation. Given this diagnosis, it becomes apparent that existing volunteer management does not match the ideal of civic engagement in the narrower sense. The conclusion formulated proposals for a citizen-oriented, engagement-sensitive volunteer management. KW - Freiwilligenmanagement KW - Bürgerschaftliches Engagement KW - Ehrenamt KW - Zivilgesellschaft KW - Partizipation KW - volunteer management KW - civic culture KW - participation KW - volunteering KW - nonprofit Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72180 ER - TY - THES A1 - Widdrat, Marc T1 - Formation and alteration of magnetite nanoparticles N2 - Magnetite is an iron oxide, which is ubiquitous in rocks and is usually deposited as small nanoparticulate matter among other rock material. It differs from most other iron oxides because it contains divalent and trivalent iron. Consequently, it has a special crystal structure and unique magnetic properties. These properties are used for paleoclimatic reconstructions where naturally occurring magnetite helps understanding former geological ages. Further on, magnetic properties are used in bio- and nanotechnological applications –synthetic magnetite serves as a contrast agent in MRI, is exploited in biosensing, hyperthermia or is used in storage media. Magnetic properties are strongly size-dependent and achieving size control under preferably mild synthesis conditions is of interest in order to obtain particles with required properties. By using a custom-made setup, it was possible to synthesize stable single domain magnetite nanoparticles with the co-precipitation method. Furthermore, it was shown that magnetite formation is temperature-dependent, resulting in larger particles at higher temperatures. However, mechanistic approaches about the details are incomplete. Formation of magnetite from solution was shown to occur from nanoparticulate matter rather than solvated ions. The theoretical framework of such processes has only started to be described, partly due to the lack of kinetic or thermodynamic data. Synthesis of magnetite nanoparticles at different temperatures was performed and the Arrhenius plot was used determine an activation energy for crystal growth of 28.4 kJ mol-1, which led to the conclusion that nanoparticle diffusion is the rate-determining step. Furthermore, a study of the alteration of magnetite particles of different sizes as a function of their storage conditions is presented. The magnetic properties depend not only on particle size but also depend on the structure of the oxide, because magnetite oxidizes to maghemite under environmental conditions. The dynamics of this process have not been well described. Smaller nanoparticles are shown to oxidize more rapidly than larger ones and the lower the storage temperature, the lower the measured oxidation. In addition, the magnetic properties of the altered particles are not decreased dramatically, thus suggesting that this alteration will not impact the use of such nanoparticles as medical carriers. Finally, the effect of biological additives on magnetite formation was investigated. Magnetotactic bacteria¬¬ are able to synthesize and align magnetite nanoparticles of well-defined size and morphology due to the involvement of special proteins with specific binding properties. Based on this model of morphology control, phage display experiments were performed to determine peptide sequences that preferably bind to (111)-magnetite faces. The aim was to control the shape of magnetite nanoparticles during the formation. Magnetotactic bacteria are also able to control the intracellular redox potential with proteins called magnetochromes. MamP is such a protein and its oxidizing nature was studied in vitro via biomimetic magnetite formation experiments based on ferrous ions. Magnetite and further trivalent oxides were found. This work helps understanding basic mechanisms of magnetite formation and gives insight into non-classical crystal growth. In addition, it is shown that alteration of magnetite nanoparticles is mainly based on oxidation to maghemite and does not significantly influence the magnetic properties. Finally, biomimetic experiments help understanding the role of MamP within the bacteria and furthermore, a first step was performed to achieve morphology control in magnetite formation via co-precipitation. N2 - Magnetit ist ein Eisenoxid, welches ein häufiger Bestandteil in Mineralen ist und normalerweise als nm-großen Teilchen unter anderem Gesteinsmaterial verteilt ist. Es unterscheidet sich in seiner Zusammensetzung von den meisten anderen Eisenoxiden, da es sowohl divalente als auch trivalente Eisenoxide enthält. Die Folge ist eine besondere Kristallstruktur und somit einzigartige magnetische Eigenschaften. Diese Eigenschaften werden bei paläoklimatologischen Rekonstruktionen genutzt, bei denen natürlich vorkommender Magnetit hilft, die Bedingungen vergangener Zeitalter zu verstehen. Weiterhin werden die magnetischen Eigenschaften in bio- und nanotechnologischen Anwendungen genutzt. Synthetischer Magnetit dient als Kontrastmittel in der MRT, in biologischen Sensorsystemen, bei Hyperthermie-Behandlungen oder als Grundlage für Datenspeichermedien. Da die magnetischen Eigenschaften im nm-Bereich stark von der Größe der Teilchen abhängen, ist eine möglichst präzise Kontrolle der Größe von enormer Bedeutung. Mit Hilfe eines maßgefertigten Syntheseaufbaus war es möglich durch Mitfällung Teilchen oberhalb des superparamagnetischen Schwellenwerts zu produzieren. Außerdem konnte eine Temperaturabhängigkeit gezeigt werden; höhere Temperaturen während der Magnetit-Bildung resultieren in größeren Teilchen. Der Prozess dahinter ist jedoch noch nicht vollständig geklärt. Die Bildung von Magnetit in wässriger Lösung erfolgt nicht über Ionen, sondern wird über die zwischenzeitliche Bildung von nm-großen Vorläufern realisiert. Unter Berücksichtigung dieser Vorläufer wurde die Bildung von Magnetit in einen neuen theoretischen Rahmen gesetzt, jedoch mangelt es bisher an kinetischen Daten. Durch die Synthese von Magnetit bei unterschiedlichen Temperaturen konnte mit Hilfe des Arrhenius-Plots eine Aktivierungsenergie für das Kristallwachstum von 28.4 kJ mol-1 ermittelt werden. Dieser Wert deutet auf einen diffusionskontrollierten Prozess hin. Auch die Alterung von Magnetit-Nanopartikeln spielt eine wichtige Rolle, da Magnetit unter Umgebungsbedingungen zu Maghämit oxidiert wird. Deshalb wird hier eine Studie zur Alterung von Magnetit-Nanopartikeln unterschiedlicher Größe unter verschiedenen Lagerungsbedingungen präsentiert. Kleine Teilchen tendieren zu stärkerer Oxidation im selben Zeitraum und weiterhin oxidieren die Teilchen weniger, je geringer die Temperatur ist. Da Magnetit und Maghämit sich in ihren magnetischen Eigenschaften nur geringfügig unterscheiden, werden diese durch den oxidativen Prozess nur geringfügig beeinflusst. Als letztes wurde der Einfluss biologischer Zusätze zur Magnetit-Bildung überprüft. Magnetotaktische Bakterien sind in der Lage, Magnetit-Nanopartikel von definierter Größe und Morphologie herzustellen, involviert sind eine Reihe von spezifischen Proteinen mit speziellen Bindungseigenschaften. Darauf basierend wurden, zur Selektion spezifischer Peptidsequenzen, Phagen-Display-Experimente an einer (111)-Magnetitoberfläche durchgeführt. Diese sollten eine Morphologie-Kontrolle während der Magnetit-Synthese ermöglichen. Magnetotaktische Bakterien sind außerdem in der Lage das intrazelluläre Redox-Potential mit Hilfe von Proteinen, den Magnetochromen, zu kontrollieren. MamP ist eines dieser Proteine und sein oxidatives Potential wurde in einer in vitro-Magnetit-Synthese überprüft. Der Einsatz von FeII ergab sowohl Magnetit als auch trivalente Eisenoxide als Produkte. Diese Arbeit ermöglicht einen Einblick in die grundlegenden Mechanismen der Magnetit-Bildung, welche unter nicht-klassischen Bedingungen abläuft. Die Alterung der Nanopartikel, welche hauptsächlich die Oxidation zu Maghämit beinhaltet, hat nur geringen Einfluss auf die magnetischen Eigenschaften. Biomimetische Experimente halfen die Rolle von MamP innerhalb der Bakterien zu verstehen und zuletzt wurde ein erster Versuch unternommen, die von den Bakterien erreichte Morphologie-Kontrolle auch in vitro zu ermöglichen. T2 - Bildung und Alterung von Magnetit-Nanopartikeln KW - crystallization of magnetite nanoparticle KW - alteration of magnetite KW - growth kinetics KW - Kristallisation von Magnetit-Nanopartikeln KW - Wachstumskinetik KW - magnetische Eigenschaften KW - Röntgenbeugung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72239 ER - TY - THES A1 - Krügel, André T1 - Eye movement control during reading : factors and principles of computing the word center for saccade planning T1 - Augenbewegungskontrolle beim Lesen : Faktoren und Prinzipien der Bestimmung der Wortmitte zur Sakkadenplanung N2 - Reading is a complex cognitive task based on the analyses of visual stimuli. Due to the physiology of the eye, only a small number of letters around the fixation position can be extracted with high visual acuity, while the visibility of words and letters outside this so-called foveal region quickly drops with increasing eccentricity. As a consequence, saccadic eye movements are needed to repeatedly shift the fovea to new words for visual word identification during reading. Moreover, even within a foveated word fixation positions near the word center are superior to other fixation positions for efficient word recognition (O’Regan, 1981; Brysbaert, Vitu, and Schroyens, 1996). Thus, most reading theories assume that readers aim specifically at word centers during reading (for a review see Reichle, Rayner, & Pollatsek, 2003). However, saccades’ landing positions within words during reading are in fact systematically modulated by the distance of the launch site from the word center (McConkie, Kerr, Reddix, & Zola, 1988). In general, it is largely unknown how readers identify the center of upcoming target words and there is no computational model of the sensorimotor translation of the decision for a target word into spatial word center coordinates. Here we present a series of three studies which aim at advancing the current knowledge about the computation of saccade target coordinates during saccade planning in reading. Based on a large corpus analyses, we firstly identified word skipping as a further factor beyond the launch-site distance with a likewise systematic and surprisingly large effect on within-word landing positions. Most importantly, we found that the end points of saccades after skipped word are shifted two and more letters to the left as compared to one-step saccades (i.e., from word N to word N+1) with equal launch-site distances. Then we present evidence from a single saccade experiment suggesting that the word-skipping effect results from highly automatic low-level perceptual processes, which are essentially based on the localization of blank spaces between words. Finally, in the third part, we present a Bayesian model of the computation of the word center from primary sensory measurements of inter-word spaces. We demonstrate that the model simultaneously accounts for launch-site and saccade-type contingent modulations of within-word landing positions in reading. Our results show that the spatial saccade target during reading is the result of complex estimations of the word center based on incomplete sensory information, which also leads to specific systematic deviations of saccades’ landing positions from the word center. Our results have important implications for current reading models and experimental reading research. N2 - Lesen ist eine komplexe kognitive Aufgabe, die auf der Analyse visueller Reize beruht. Aufgrund der Physiologie des Auges kann jedoch nur eine kleine Anzahl von Buchstaben um den Fixationsort mit hoher visueller Genauigkeit wahrgenommen werden, während die Sichtbarkeit der Buchstaben und Wörter außerhalb der sogenannten fovealen Zone mit zunehmender Entfernung stark abnimmt. Während des Lesens sind deshalb sakkadische Augenbewegungen erforderlich, um die Fovea zur visuellen Identifikation neuer Wörter wiederholt innerhalb des Textes zu verschieben. Auch innerhalb eines direkt betrachteten Wortes erlauben mittige Fixationsorte eine effizientere Wortverarbeitung als randnahe Blickpositionen (O’Regan, 1981; Brysbaert, Vitu, and Schroyens, 1996). Die meisten Lesemodelle nehmen deshalb an, dass Leser auf die Mitte von Worten zielen (für eine Übersicht siehe Reichle, Rayner, & Pollatsek, 2003). Es zeigt sich aber, dass Landepositionen innerhalb von Wörtern im Lesen von der Distanz der Startposition einer Sakkade zur Mitte des Zielwortes moduliert werden (McConkie, Kerr, Reddix, & Zola, 1988). Noch ist weitgehend unklar, wie Leser die Mitte eines Zielwortes identifizieren. Es fehlt an computationalen Modellen die die sensumotorische Umwandlung der Auswahl eines Zielwortes in eine räumliche Koordinate der Wortmitte beschreiben. Wir präsentieren hier eine Reihe von drei Studien, die darauf abzielen, das Wissen über die Berechnung von Sakkadenzielkoordinaten im Lesen zu erweitern. In einer umfangreichen Korpusanalyse identifizerten wir zunächst das Überspringen von Wörtern als weiteren wichtigen Faktor bei der Sakkadenprogrammierung, der einen ähnlich systematischen und großen Effekt auf die Landepositionen hat wie die Startpositionen der Sakkaden. Anschließend zeigen wir Ergebnisse eines einfachen Sakkadenexperiments, welche nahelegen, dass der Effekt übersprungener Wörter das Ergebnis hoch automatisierter perzeptueller Prozesse ist, die wesentlich auf der Bestimmung von Leerzeichen zwischen Wörtern basieren. Schließlich präsentieren wir ein Bayesianisches Modell der Berechnung von Wortmitten auf der Grundlage der primären sensorischen Erfassungen von Leerzeichen zwischen Wörtern. Wir zeigen, dass das Modell gleichzeitig Effekte der Startposition und des Sakkadentyps erklärt. Unsere Arbeiten zeigen, dass die Berechnung räumlicher Koordinaten für die Sakkadenprogrammierung im Lesen auf einer komplexen Schätzung der Wortmitte anhand unvollständiger sensorischer Informationen beruht, die zu systematischen Abweichungen von der tatsächlichen Wortmitte führt. Unsere Ergebnisse haben wichtige Folgen für gegenwärtige Lesemodelle und für die experimentelle Leseforschung. KW - Blickbewegungen beim Lesen KW - Landepositionen KW - Modell der Bayesianischen Sakkadenplanung KW - Überspringen von Wörtern KW - Wortgrenzen KW - eye movements during reading KW - landing positions KW - model of Bayesian saccade planning KW - word skipping KW - word boundaries Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72599 ER - TY - THES A1 - Hebig, Regina T1 - Evolution of model-driven engineering settings in practice T1 - Evolution von Modelgetriebenen Entwicklungssettings in der Praxis N2 - Nowadays, software systems are getting more and more complex. To tackle this challenge most diverse techniques, such as design patterns, service oriented architectures (SOA), software development processes, and model-driven engineering (MDE), are used to improve productivity, while time to market and quality of the products stay stable. Multiple of these techniques are used in parallel to profit from their benefits. While the use of sophisticated software development processes is standard, today, MDE is just adopted in practice. However, research has shown that the application of MDE is not always successful. It is not fully understood when advantages of MDE can be used and to what degree MDE can also be disadvantageous for productivity. Further, when combining different techniques that aim to affect the same factor (e.g. productivity) the question arises whether these techniques really complement each other or, in contrast, compensate their effects. Due to that, there is the concrete question how MDE and other techniques, such as software development process, are interrelated. Both aspects (advantages and disadvantages for productivity as well as the interrelation to other techniques) need to be understood to identify risks relating to the productivity impact of MDE. Before studying MDE's impact on productivity, it is necessary to investigate the range of validity that can be reached for the results. This includes two questions. First, there is the question whether MDE's impact on productivity is similar for all approaches of adopting MDE in practice. Second, there is the question whether MDE's impact on productivity for an approach of using MDE in practice remains stable over time. The answers for both questions are crucial for handling risks of MDE, but also for the design of future studies on MDE success. This thesis addresses these questions with the goal to support adoption of MDE in future. To enable a differentiated discussion about MDE, the term MDE setting'' is introduced. MDE setting refers to the applied technical setting, i.e. the employed manual and automated activities, artifacts, languages, and tools. An MDE setting's possible impact on productivity is studied with a focus on changeability and the interrelation to software development processes. This is done by introducing a taxonomy of changeability concerns that might be affected by an MDE setting. Further, three MDE traits are identified and it is studied for which manifestations of these MDE traits software development processes are impacted. To enable the assessment and evaluation of an MDE setting's impacts, the Software Manufacture Model language is introduced. This is a process modeling language that allows to reason about how relations between (modeling) artifacts (e.g. models or code files) change during application of manual or automated development activities. On that basis, risk analysis techniques are provided. These techniques allow identifying changeability risks and assessing the manifestations of the MDE traits (and with it an MDE setting's impact on software development processes). To address the range of validity, MDE settings from practice and their evolution histories were capture in context of this thesis. First, this data is used to show that MDE settings cover the whole spectrum concerning their impact on changeability or interrelation to software development processes. Neither it is seldom that MDE settings are neutral for processes nor is it seldom that MDE settings have impact on processes. Similarly, the impact on changeability differs relevantly. Second, a taxonomy of evolution of MDE settings is introduced. In that context it is discussed to what extent different types of changes on an MDE setting can influence this MDE setting's impact on changeability and the interrelation to processes. The category of structural evolution, which can change these characteristics of an MDE setting, is identified. The captured MDE settings from practice are used to show that structural evolution exists and is common. In addition, some examples of structural evolution steps are collected that actually led to a change in the characteristics of the respective MDE settings. Two implications are: First, the assessed diversity of MDE settings evaluates the need for the analysis techniques that shall be presented in this thesis. Second, evolution is one explanation for the diversity of MDE settings in practice. To summarize, this thesis studies the nature and evolution of MDE settings in practice. As a result support for the adoption of MDE settings is provided in form of techniques for the identification of risks relating to productivity impacts. N2 - Um die steigende Komplexität von Softwaresystemen beherrschen zu können, werden heutzutage unterschiedlichste Techniken gemeinsam eingesetzt. Beispiele sind, Design Pattern, Serviceorientierte Architekturen, Softwareentwicklungsprozesse oder modellgetriebene Entwicklung (MDE). Ziel dabei ist die Erhöhung der Produktivität, so dass Entwicklungsdauer und Qualität stabil bleiben können. Während hoch entwickelte Softwareentwicklungsprozesse heute schon standardmäßig genutzt werden, fangen Firmen gerade erst an MDE einzusetzen. Jedoch zeigen Studien, dass der erhoffte Erfolg von MDE nicht jedes Mal eintritt. So scheint es, dass noch kein ausreichendes Verständnis dafür existiert, inwiefern MDE auch Nachteile für die Produktivität bergen kann. Zusätzlich ist bei der Kombination von unterschiedlichen Techniken damit zu rechnen, dass die erreichten Effekte sich gegenseitig negieren anstatt sich zu ergänzen. Hier entsteht die Frage wie MDE und andere Techniken, wie Softwareentwicklungsprozesse, zusammenwirken. Beide Aspekte, der direkte Einfluss auf Produktivität und die Wechselwirkung mit anderen Techniken, müssen aber verstanden werden um den Risiken für den Produktivitätseinfluss von MDE zu identifizieren. Außerdem, muss auch die Generalisierbarkeit dieser Aspekte untersucht werden. Das betrifft die Fragen, ob der Produktivitätseinfluss bei jedem Einsatz von MDE gleich ist und ob der Produktivitätseinfluss über die Zeit stabil bleibt. Beide Fragen sind entscheidend, will man geeignete Risikobehandlung ermöglichen oder künftige Studien zum Erfolg von MDE planen. Diese Dissertation widmet sich der genannten Fragen. Dafür wird zuerst der Begriff MDE Setting'' eingeführt um eine differenzierte Betrachtung von MDE-Verwendungen zu ermöglichen. Ein MDE Setting ist dabei der technische Aufbau, inklusive manueller und automatische Aktivitäten, Artefakten, Sprachen und Werkzeugen. Welche Produktivitätseinflüsse von MDE Settings möglich sind, wird in der Dissertation mit Fokus auf Änderbarkeit und die Wechselwirkung mit Softwareentwicklungsprozessen betrachtet. Dafür wird einerseits eine Taxonomie von Changeability Concerns'' (potentiell betroffene Aspekte von Änderbarkeit) vorgestellt. Zusätzlich, werden drei MDE Traits'' (Charakteristika von MDE Settings die unterschiedlich ausgeprägt sein können) identifiziert. Es wird untersucht welche Ausprägungen dieser MDE Traits Einfluss auf Softwareentwicklungsprozesse haben können. Um die Erfassung und Bewertung dieser Einflüsse zu ermöglichen wird die Software Manufaktur Modell Sprache eingeführt. Diese Prozessmodellierungssprache ermöglicht eine Beschreibung, der Veränderungen von Artefaktbeziehungen während der Anwendung von Aktivitäten (z.B. Codegenerierung). Weiter werden auf Basis dieser Modelle, Analysetechniken eingeführt. Diese Analysetechniken erlauben es Risiken für bestimmte Changeability Concerns aufzudecken sowie die Ausprägung von MDE Traits zu erfassen (und damit den Einfluss auf Softwareentwicklungsprozesse). Um die Generalisierbarkeit der Ergebnisse zu studieren, wurden im Rahmen der Arbeit mehrere MDE Settings aus der Praxis sowie teilweise deren Evolutionshistorien erhoben. Daran wird gezeigt, dass MDE Settings sich in einem breiten Spektrum von Einflüssen auf Änderbarkeit und Prozesse bewegen. So ist es weder selten, dass ein MDE Setting neutral für Prozesse ist, noch, dass ein MDE Setting Einschränkungen für einen Prozess impliziert. Ähnlich breit gestreut ist der Einfluss auf die Änderbarkeit.Zusätzlich, wird diskutiert, inwiefern unterschiedliche Evolutionstypen den Einfluss eines MDE Settings auf Änderbarkeit und Prozesse verändern können. Diese Diskussion führt zur Identifikation der strukturellen Evolution'', die sich stark auf die genannten Charakteristika eines MDE Settings auswirken kann. Mithilfe der erfassten MDE Settings, wird gezeigt, dass strukturelle Evolution in der Praxis üblich ist. Schließlich, werden Beispiele aufgedeckt bei denen strukturelle Evolutionsschritte tatsächlich zu einer Änderung der Charakteristika des betreffenden MDE Settings geführt haben. Einerseits bestärkt die ermittelte Vielfalt den Bedarf nach Analysetechniken, wie sie in dieser Dissertation eingeführt werden. Zum Anderen erscheint es nun, dass Evolution zumindest zum Teil die unterschiedlichen Ausprägungen von MDE Settings erklärt. Zusammenfassend wird studiert wie MDE Settings und deren Evolution in der Praxis ausgeprägt sind. Als Ergebnis, werden Techniken zur Identifikation von Risiken für Produktivitätseinflüsse bereitgestellt um den Einsatz von MDE Settings zu unterstützen. KW - modelgetriebene Entwicklung KW - Softwareentwicklung KW - Softwareentwicklungsprozesse KW - Änderbarkeit KW - empirische Studien KW - model-driven engineering KW - software development KW - software development processes KW - changeability KW - empirical studies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70761 ER - TY - THES A1 - Pixner, Sofia T1 - Evaluation einer Gesundheitspräventionsmaßnahme für baden-württembergische Lehrkräfte (Lehrergesundheitsprojekt) gemäß dem "Lehrer/innen-Coaching nach dem Freiburger Modell" in zwei Darbietungsmodi T1 - Evaluation of a manual based group program (Teachers´ Health Project) for improving mental health of German teachers in Baden-Württemberg in two implementation modes N2 - In der Berufsgruppe der Lehrerinnen und Lehrer besteht eine hohe Prävalenz psychischer und psychosomatischer Erkrankungen. Aus- und Weiterbildungsangebote zur Vermittlung lehrerspezifischer sozialer Kompetenzen spielen eine wichtige Rolle bei der Förderung der Lehrergesundheit. In der vorliegenden Studie wurde das „Lehrer/innen-Coaching nach dem Freiburger Modell“ evaluiert, welches die Kompetenz von Lehrkräften stärken soll, innerhalb der Schule und insbesondere im Unterricht, schwierige interpersonelle Situationen aktiv und konstruktiv zu gestalten. Damit sollen stressbedingte gesundheitliche Belastungen abgebaut und dem Entstehen gravierender psychischer Störungen vorgebeugt werden. In der vorliegenden Arbeit werden zwei modifizierte Versionen dieses Programms erstmalig im Rahmen einer landesweiten Feldstudie untersucht. Die zentralen Evaluationsfragestellungen beziehen sich auf die Effektivität der Intervention als Gesundheitsförderungsmaßnahme (Akzeptanz, Wirksamkeit, Wirksamkeitsvergleich der beiden Interventionsformen im landesweiten Einsatz). Daneben strebt die Studie einen Vergleich mit den Ergebnissen einer Vorgängerstudie sowie die Generierung weiterer Erkenntnisse zum Zusammenhang zwischen Aspekten der sozialen Kompetenz von Lehrkräften und ihrer psychischen Gesundheit an. An der Maßnahme konnten alle baden-württembergischen Lehrerinnen und Lehrer mit einer Berufserfahrung von mindestens 10 Jahren teilnehmen. Für die Untersuchung der Wirksamkeit der Maßnahme und des Wirksamkeitsvergleichs der beiden unterschiedlichen Formen liegt ein quasiexperimentelles Design mit insgesamt zwei Messzeitpunkten vor. In die Auswertung zur Wirksamkeit der Intervention konnten die Daten von den 314 Teilnehmern einbezogen werden. Die Messinstrumente, die in der vorliegenden Studie zur Anwendung kamen, waren der General Health Questionnaire (GHQ-12), das Maslach Burnout Inventory (MBI-D) und die ins Deutsche übersetzte Jefferson Scale of Empathy (JSE) in der an Lehrer adaptierten Form. Die Evaluationsergebnisse zeigen, dass die Teilnahme am „Lehrer/innen-Coaching nach dem Freiburger Modell” mit einer signifikanten Verbesserung der gesundheitsbezogenen abhängigen Variablen einhergeht. Besonders hervorzuheben ist die ausgeprägte Verbesserung der mittels GHQ-12 erfassten psychischen Gesundheit. Das Ergebnis des Prä-Post-Vergleichs der Gesundheitswerte beider Interventionsgruppen bestätigte sich auch im Vergleich zu einer Null-Interventionsgruppe: Entsprechend der Hypothese gab es bei den Teilnehmern eine signifikant stärkere Verbesserung der psychischen Gesundheit als bei den Nicht-Teilnehmern (Null-Interventionsgruppe). Die beiden Interventionsmodi „Kompaktform” und „Kurzform” erwiesen sich im Hinblick auf die Verbesserung der Lehrergesundheit als gleichermaßen wirksam. Zudem zeigen die Ergebnisse der Teilnehmerbefragung, dass die Maßnahme Anklang bei der Zielgruppe fand. Die Akzeptanz durch die Zielgruppe ist für die Wirksamkeit einer auf Freiwilligkeit basierenden verhaltenspräventiven Maßnahme naturgemäß eine essenzielle Voraussetzung. Bei der psychischen Gesundheit der Lehrer bestehen – wie aus weiteren Befunden der Studie ersichtlich – bedeutsame Zusammenhänge zu einer intakten zwischenmenschlichen Beziehung mit den Schülern, einer gelungenen, durch gegenseitige Unterstützung gekennzeichneten Interaktion im Kollegium und einem entsprechend unterstützenden Führungsverhalten der Schulleitung. Dies macht deutlich, welches besondere Gewicht einer gelingenden Beziehungsgestaltung an Schulen und im Unterricht beizumessen ist. Bezüglich der Vorgehensweise in der vorliegenden Untersuchung werden einige methodische Limitationen hinsichtlich des Designs diskutiert. Ergänzend wird im Ausblick der Evaluationsstudie darauf hingewiesen, wie sich durch die Verknüpfung des vorliegenden Programms mit weiteren, auf den Ebenen Verhalten, Verhältnisse und Führung ansetzenden gesundheitspräventiven Maßnahmen, zukünftig die Stärkung der psychischen Gesundheit von Lehrkräften weiter ausbauen ließe. N2 - Teachers are affected by stress-related health disorders at especially high rates. One of the main factors influencing teachers’ health are interpersonal conflicts which teachers are continuously confronted with. Improving specific social competencies helps teachers to cope with difficult interpersonal situations in school and thus to reduce stress-related health problems. The aim of this study was to evaluate the effects and the acceptance of two modified versions of a manual-based group coaching program entitled „Lehrer/innen-Coaching nach dem Freiburger Modell“. In its original version it was found to be effective in enhancing teachers’ health by improving their interpersonal competencies. Furthermore, this study extends previous investigations of the group coaching to a more widespread setting including all school types and all school districts in the German federal state of Baden-Württemberg. All teachers of all school types in Baden-Württemberg with a job experience of 10 years and more were invited to take part in the program. The study design was quasi-experimental with a pre-post-design and two treatment conditions to compare. The effectiveness of the intervention was measured with the General Health Questionnaire (GHQ-12), the Maslach Burnout Inventory (MBI-D) and the Jefferson Scale of Empathy (JSE). The latter was especially adapted to teachers and examined for its psychometric qualities. The results show that all health parameters of the N = 314 participating teachers significantly improved after the treatment. A remarkable result is the pronounced improvement of the GHQ-score with a strong effect size. The positive effects of the program on teachers’ health could also be confirmed in comparison to a non-treatment group, which was included post-hoc. No differences were found in the effectiveness of the two modified versions of the treatment. The participants’ acceptance of the group program was high. In accordance to previous studies further findings revealed significant positive correlations of intact interpersonal relationships, support by colleagues and school heads and a good state of mental health. As the results reveal, the two modified versions of the group coaching program „Lehrer/innen-Coaching nach dem Freiburger Modell“ are effective for enhancing teachers’ mental health. Some methodical limitations of the study design are discussed. Complementary, it is pointed out how teachers’ health may further be improved by combining this group coaching with additional interventions on the level of behavior, working conditions and leadership. KW - Lehrer KW - Gesundheitsförderung KW - arbeitsbezogene Belastungen KW - GHQ KW - MBI KW - teacher KW - health promotion KW - occupational burden KW - GHQ KW - MBI Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77998 ER - TY - THES A1 - Tietz, Marcel T1 - Europäisches Verwaltungsmanagement : Vergleich von Hauptstädten neuer und alter Mitgliedsstaaten der EU am Beispiel der Bürgerdienste T1 - European administrative management : comparison of capital cities of new and old member states of the EU using the example of citizen services N2 - Im Rahmen der Dissertation wird die Anwendung und Wirkung von Kernelementen des New Public Management (NPM) am Beispiel der Bürgerdienste der sechs europäischen Hauptstädte Berlin, Brüssel, Kopenhagen, Madrid, Prag und Warschau analysiert. Hierbei steht der Vergleich von Hauptstädten der MOE-Staaten mit Hauptstädten alter EU-Mitgliedsstaaten im Vordergrund. Es wird die folgende Forschungshypothese untersucht: Die Verwaltungen in den Hauptstädten der östlichen Mitgliedsstaaten der EU haben in Folge der grundsätzlichen gesellschaftlichen und politischen Umbrüche in den 1990er Jahren bedeutend mehr Kernelemente des NPM beim Neuaufbau ihrer öffentlichen Verwaltungen eingeführt. Durch den folgerichtigen Aufbau kundenorientierter und moderner Verwaltungen sowie der strikten Anwendung der Kernelemente des New Public Management arbeiten die Bürgerdienste in den Hauptstädten östlicher EU-Mitgliedsstaaten effizienter und wirkungsvoller als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten. Zur Überprüfung der Forschungshypothese werden die Vergleichsstädte zunächst den entsprechenden Rechts- und Verwaltungstraditionen (kontinentaleuropäisch deutsch, napoleonisch und skandinavisch) zugeordnet und bezüglich ihrer Ausgangslage zum Aufbau einer modernen Verwaltung (Westeuropäische Verwaltung, Wiedervereinigungsverwaltung und Transformations-verwaltung) kategorisiert. Im Anschluss werden die institutionellen Voraussetzungen hinterfragt, was die deskriptive Darstellung der Stadt- und Verwaltungsgeschichte sowie die Untersuchung von organisatorischen Strukturen der Bürgerdienste, die Anwendung der NPM-Instrumente als auch die Innen- und Außenperspektive des NPM umfasst. Es wird festgestellt, ob und in welcher Form die Bürgerdienste der Vergleichsstädte die Kernelemente des NPM anwenden. Im Anschluss werden die Vergleichsstädte bezüglich der Anwendung der Kernelemente miteinander verglichen, wobei der Fokus auf dem persönlichen Vertriebsweg und der Kundenorientierung liegt. Der folgende Teil der Dissertation befasst sich mit dem Output der Bürgerdienste, der auf operative Resultate untersucht und verglichen wird. Hierbei stellt sich insbesondere die Frage nach den Leistungsmengen und der Produktivität des Outputs. Es werden aber auch die Ergebnisse von Verwaltungsprozessen untersucht, insbesondere in Bezug auf die Kundenorientierung. Hierfür wird ein Effizienzvergleich der Bürgerdienste in den Vergleichsstädten anhand einer relativen Effizienzmessung und der Free Disposal Hull (FDH)-Methode nach Bouckaert durchgeführt. Es ist eine Konzentration auf populäre Dienstleistungen aus dem Portfolio der Bürgerdienste notwendig. Daher werden die vergleichbaren Dienstleistungen Melde-, Personalausweis-, Führerschein- und Reisepass-angelegenheiten unter Einbeziehung des Vollzeitäquivalents zur Berechnung der Effizienz der Bürgerdienste herangezogen. Hierfür werden Daten aus den Jahren 2009 bis 2011 genutzt, die teilweise aus verwaltungsinternen Datenbanken stammen. Anschließend wird der Versuch unternommen, den Outcome in die Effizienzanalyse der Bürgerdienste einfließen zu lassen. In diesem Zusammenhang wird die Anwendbarkeit von verschiedenen erweiterten Best-Practice-Verfahren und auch eine Erweiterung der relativen Effizienzmessung und der FDH-Methode geprüft. Als Gesamtfazit der Dissertation kann festgehalten werden, dass die Bürgerdienste in den untersuchten Hauptstädten der MOE-Staaten nicht mehr Kernelemente des NPM anwenden, als die Hauptstädte der westlichen Mitgliedsstaaten der EU. Im Gegenteil wendet Prag deutlich weniger NPM-Instrumente als andere Vergleichsstädte an, wohingegen Warschau zwar viele NPM-Instrumente anwendet, jedoch immer von einer westeuropäischen Vergleichsstadt übertroffen wird. Auch die Hypothese, dass die Bürgerdienste in den Hauptstädten der MOE-Staaten effizienter arbeiten als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten wurde durch die Dissertation entkräftet. Das Gegenteil ist der Fall, da Prag und Warschau im Rahmen des Effizienzvergleichs lediglich durchschnittliche oder schlechte Performances aufweisen. Die aufgestellte Hypothese ist durch die Forschungsergebnisse widerlegt, lediglich das gute Abschneiden der Vergleichsstadt Warschau bei der Anwendungsanalyse kann einen Teil der These im gewissen Umfang bestätigen. N2 - In the context of the thesis, the application and impact of core elements of the New Public Management (NPM) is analysed using the example of the Citizen Services of six European capital cities Berlin, Brussels, Copenhagen, Madrid, Prague and Warsaw. In this connection the comparison of the capital cities in the CEE countries with capital cities in the old EU Member States is foregrounded. The following research hypothesis is examined: In consequence of the fundamental social and political upheavals in the 1990s the administrations in the capital cities of the eastern EU Member States have introduced significantly more core elements of NPM during the reorganisation of their public administrations. Due to the consequent erection of customer-oriented and modern administrations and the strict application of core elements of the New Public Management, the Citizen Services in the capital cities of eastern EU Member States work more efficient and effective than comparable Citizen Services in the capital cities of western EU Member States. To survey the research hypothesis, the capital cities are initially assigned to the relevant legal and administrative traditions (Continental European German, Napoleonic and Scandinavian) and afterwards categorised with respect to their initial position to build up a modern administration (western European administration, reunion administration and transformation administration). Thereafter institutional requirements are questioned, which includes a descriptive presentation of urban and administrative history and the analyses of organisational structures of the Citizen Services, the application of NPM instruments as well as the internal and external perspectives of the NPM. It is concluded, whether and in what form the Citizen Services of the capital cities utilise the core elements of NPM. Following the capital cities are compared regarding the application of core elements, whereat the focus is on the personal channel of distribution and customer orientation. The following part of the thesis deals with the output of Citizen Services, which is examined and compared to operational results. This raises in particular the question of the activity quantity and the efficiency of the output. But there are also examines of the results of administrative processes, particularly in reference to customer orientation. Thus a comparison of efficiency of Citizen Services in the capital cities is performed, which is based on a relative measurement of efficiency and the Free Disposal Hull Method (FDH) according to Bouckaert. A focus on popular services from the portfolio of the Citizen Services is needed, wherefore the efficiency of the Citizen Services is calculated with the comparable services identity card, driving license and passport involving the full-time equivalent. Therefor data from the years 2009 to 2011 are used, which originate from internal administrative databases. Following an attempt is made to include the outcome in the analysis of efficiency of the Citizen Services. In this context, the applicability of various advanced best practice methods and an extension of the relative measurement of efficiency and the FDH method is verified. As an overall conclusion of the thesis can be stated that the Citizen Services in the investigated capital cities of the CEE countries do not apply more core elements of the NPM compared to the capital cities of the western EU Member States. In contrast Prague applies significantly less NPM instruments compared to other capital cities, whereas Warsaw applies many NPM instruments but is always exceeded by a western European capital city. The hypothesis that the Citizen Services in the capital cities of the CEE countries work more efficiently than comparable Citizen Services in the capital cities of the western EU Member States is also ruled by the thesis. The opposite is the case as Prague and Warsaw show only an average or poor performance in the context of the comparison of efficiency. The established hypothesis is disproved by the research results, only the good performance of the capital city of Warsaw in the analysis of application is able to confirm a part of the thesis to a certain extent. KW - New Public Management KW - Bürgerdienste KW - Effizienzanalyse KW - Kommunale Verwaltung KW - new public management KW - citizen services KW - analysis of efficiency KW - local government Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72171 ER - TY - THES A1 - Kölsch, Jonas David T1 - Entwicklung neuer farbstoffmarkierter Polymere zur Visualisierung des LCST-Phasenübergangs in wässriger Lösung T1 - Development of new dye labeled polymers for visualisation of LCST transition in water N2 - Ziel der Arbeit war die Entwicklung von farbstoffmarkierten Polymeren, die einen temperaturgetriebenen Knäuel-Kollaps-Phasenübergang in wässriger Lösung ("thermo-responsive Polymere") zeigen und diesen in ein optisches Signal übersetzen können. Solche Polymere unterliegen innerhalb eines kleinen Temperaturintervalls einer massiven Änderung ihres Verhaltens, z B. ihrer Konformation und ihres Quellungsgrads. Diese Änderungen sind mit einem Wechsel der Löseeigenschaften von hydrophil zu hydrophob verbunden. Als Matrixpolymere wurden Poly-N-isopropylacrylamid (polyNIPAm), Poly(oligoethylen-glykolacrylat) (polyOEGA) und Poly(oligoethylenglykolmethacrylat) (polyOEGMA) ein-gesetzt, in die geeignete Farbstoffen durch Copolymerisation eingebaut wurden. Als besonders geeignet, um den Phasenübergang in ein optisches Signal zu übersetzen, erwiesen sich hierfür kompakte, solvatochrome Cumarin- und Naphthalimidderivate. Diese beeinträchtigten weder das Polymerisationsverhalten noch den Phasenübergang, reagierten aber sowohl bezüglich Farbe als auch Fluoreszenz stark auf die Polarität des Lösemittels. Weiterhin wurden Systeme entwickelt, die mittels Energietransfer (FRET) ein an den Phasenübergang gekoppeltes optisches Signal erzeugen. Hierbei wurde ein Cumarin als Donor- und ein Polythiophen als Akzeptorfarbstoff eingesetzt. Es zeigte sich, dass trotz scheinbarer Ähnlichkeit bestimmte Polymere ausgeprägt auf einen Temperaturstimulus mit Änderung ihrer spektralen Eigenschaften reagieren, andere aber nicht. Hierfür wurden die molekularen Ursachen untersucht. Als wahrscheinliche Gründe für das Ausbleiben einer spektralen Änderung in Oligo(ethylenglykol)-basierten Polymeren sind zum einen die fehlende Dehydratationseffektivität infolge des Fehlens eines selbstgenügenden Wasserstoffbrückenbindungsmotivs zu nennen und zum anderen die sterische Abschirmung der Farbstoffe durch die Oligo(ethylenglykol)-Seitenketten. Als Prinzipbeweis für die Nützlichkeit solcher Systeme für die Bioanalytik wurde ein System entwickelt, dass die Löslichkeitseigenschaft eines thermoresponsiven Polymers durch Antikörper-Antigen-Reaktion änderte. Die Bindung selbst kleiner Mengen eines Antikörpers ließ sich so direkt optisch auslesen und war bereits mit dem bloßen Auge zu erkennen. N2 - This work is based on different dye labeled thermo responsive polymers. These polymers are useful tool for the visualisation of the LCST phase transition in water. KW - LCST KW - Farbstoff KW - Polymer KW - Fluoreszens KW - LCST KW - dye KW - polymer KW - fluorescence Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72531 ER - TY - THES A1 - Memczak, Henry T1 - Entwicklung influenzabindender Peptide für die Biosensorik T1 - Engineering of influenza-binding peptides for biosensing N2 - Das Influenzavirus infiziert Säugetiere und Vögel. Der erste Schritt im Infektionszyklus ist die Anbindung des Viruses über sein Oberflächenprotein Hämagglutinin (HA) an Zuckerstrukturen auf Epithelzellen des respiratorischen Traktes im Wirtsorganismus. Aus den drei komplementaritätsbestimmenden Regionen (complementarity determining regions, CDRs) der schweren Kette eines monoklonalen Hämagglutinin-bindenden Antikörpers wurden drei lineare Peptide abgeleitet. Die Bindungseigenschaften der drei Peptide wurden experimentell mittels Oberflächenplasmonenresonanzspektroskopie untersucht. Es zeigte sich, dass in Übereinstimmung mit begleitenden Molekulardynamik-Simulationen zwei der drei Peptide (PeB und PeC) analog zur Bindefähigkeit des Antikörpers in der Lage sind, Influenzaviren vom Stamm X31 (H3N2 A/Aichi/2/1968) zu binden. Die Interaktion des Peptids PeB, welches potentiell mit der konservierten Rezeptorbindestelle im HA interagiert, wurde anschließend näher charakterisiert. Die Detektion der Influenzaviren war unter geeigneten Immobilisationsbedingungen im diagnostisch relevanten Bereich möglich. Die Spezifität der PeB-Virus-Bindung wurde mittels geeigneter Kontrollen auf der Seite des Analyten und des Liganden nachgewiesen. Des Weiteren war das Peptid PeB in der Lage die Bindung von X31-Viren an Mimetika seines natürlichen Rezeptors zu inhibieren, was die spezifische Interaktion mit der Rezeptorbindungsstelle im Hämagglutinin belegt. Anschließend wurde die Primärsequenz von PeB durch eine vollständige Substitutionsanalyse im Microarray-Format hinsichtlich der Struktur-Aktivitäts-Beziehungen charakterisiert. Dies führte außerdem zu verbesserten Peptidvarianten mit erhöhter Affinität und breiterer Spezifität gegen aktuelle Influenzastämme verschiedener Serotypen (z.B. H1N1/2009, H5N1/2004, H7N1/2013). Schließlich konnte durch Verwendung einer in der Primärsequenz angepassten höher affinen Peptidvariante die Influenzainfektion in vitro inhibiert werden. Damit stellen die vom ursprünglichen Peptid PeB abgeleiteten Varianten Rezeptormoleküle in biosensorischen Testsystemen sowie potentielle Wirkstoffe dar. N2 - The influenza virus infects mammals and birds. The first step of the infection cycle comprises the attachment of the viral surface protein hemagglutinin (HA) on glycan structures on epithelial cells within the respiratory tract of the host organism. Starting from the complementarity determining regions (CDRs) of the heavy chain of a monoclonal hemagglutinin-binding antibody three linear peptides were derived. The binding properties of these peptides was characterized experimentally using surface plasmon resonance spectroscopy. In accordance with accompanying molecular dynamics simulation it was shown, that two of the three peptides (PeB and PeC) were able to bind the influenza virus of the strain X31 (H3N2 A/Aichi/2/1968) comparably to the antibody itself. The interaction of peptide PeB, which was supposed to bind to the conserved receptor binding site at the HA, was then characterized more in detail. The detection of influenza viruses was achieved within the diagnostically relevant concentration range using defined immobilization conditions. The specificity of the peptide-virus-binding was proven by appropriate control experiments. Additionally, peptide PeB was able to inhibit the binding of X31 viruses to mimics of its natural receptor. Furthermore the structure-activity-relationship within all the amino acids of peptide PeB was characterized using a full substitutional analysis in a microarray format. This led to improved peptidic variants, which were able to bind different influenza serotypes and inhibit the influenza infection in vitro. The found peptides and their variants can now be used as receptor molecules in biosensors and also represent potential drug candidates. KW - Influenza KW - Peptid KW - Biosensor KW - Virus KW - Interaktionsstudie KW - influenza KW - peptide KW - biosensor KW - virus KW - interaction analysis Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72470 ER - TY - THES A1 - Wunderlich, Kai T1 - Entwicklung einer parallelen Mehrkomponentenanalyse von Antigen-Antikörper-Reaktionen in der Dopinganalyse T1 - Development of a multiplex-assay for the analysis of antigen-antibody reactions in doping analysis N2 - Weltweit streben Anti-Doping Institute danach jene Sportler zu überführen, welche sich unerlaubter Mittel oder Methoden bedienen. Die hierfür notwendigen Testsysteme werden kontinuierlich weiterentwickelt und neue Methoden aufgrund neuer Wirkstoffe der Pharmaindustrie etabliert. Gegenstand dieser Arbeit war es, eine parallele Mehrkomponentenanalyse auf Basis von Antigen-Antikörper Reaktionen zu entwickeln, bei dem es primär um Verringerung des benötigten Probevolumens und der Versuchszeit im Vergleich zu einem Standard Nachweis-Verfahren ging. Neben der Verwendung eines Multiplex Ansatzes und der Mikroarraytechnologie stellten ebenfalls die Genauigkeit aller Messparameter, die Stabilität des Versuchsaufbaus sowie die Performance über einen Einfach-Blind-Ansatz Herausforderungen dar. Die Anforderung an den Multiplex Ansatz, keine falschen Signale trotz ähnlicher Strukturen zu messen, konnte durch die gezielte Kombination von spezifischen Antikörpern realisiert werden. Hierfür wurden neben Kreuzreaktivitätstests auf dem Mikroarray parallel erfolgreich Western Blot Versuche durchgeführt. Jene Antikörper, welche in diesen Versuchen die gesetzten Anforderungen erfüllten, wurden für das Ermitteln der kleinsten nachweisbaren Konzentration verwendet. Über das Optimieren der Versuchsbedingungen konnte unter Verwendung von Tween in der Waschlösung sowohl auf Glas als auch auf Kunststoff die Hintergrundfluoreszenz reduziert und somit eine Steigerung des Signal/Hintergrundverhältnisses erreicht werden. In den Versuchen zu Ermittlung der Bestimmungsgrenze wurde für das humane Choriongonadotropin (hCG-i) eine Konzentration von 10 mU/ml, für dessen beta-Untereinheit (hCG-beta) eine Konzentration von 3,6 mU/ml und für das luteinisierende Hormon (LH) eine Konzentration von 10 mU/ml bestimmt. Den ermittelten Wert im Serum für das hCG-i entspricht dem von der Welt-Anti-Dopin-Agentur (WADA) geforderten Wert in Urin von 5 mU/ml. Neben der Ermittlung von Bestimmungsgrenzen wurden diese hinsichtlich auftretender Matrixeffekte in Serum und Blut gemessen. Wie aus den Versuchen zur Ermittlung von Kreuzreaktivitäten auf dem Mikroarray zu entnehmen ist, lassen sich das LH, das hCG-i und hCG-β ebenfalls in Serum und Blut messen. Die Durchführung einer Performance-Analyse über einem Einfach-Blind-Ansatz mit 130 Serum Proben, wurde ebenfalls über dieses System realisiert. Die ausgewerteten Proben wurden anschließend über eine Grenzwertoptimierungskurve analysiert und die diagnostische Spezifität ermittelt. Für die Messungen des LH konnte eine Sensitivität und Spezifität von 100% erreicht werden. Demnach wurden alle negativen und positiven Proben eindeutig interpretiert. Für das hCG-β konnte ebenfalls eine Spezifität von 100% und eine Sensitivität von 97% erreicht werden. Die hCG-i Proben wurden mit einer Spezifität von 100% und eine Sensitivität von 97,5% gemessen. Um den Nachweis zu erbringen, dass dieser Versuchsaufbau über mehrere Wochen stabile Signale bei Vermessen von identischen Proben liefert, wurde ein über zwölf Wochen angesetzter Stabilitätstest für alle Parameter erfolgreich in Serum und Blut durchgeführt. Zusammenfassend konnte in dieser Arbeit erfolgreich eine Mehrkomponentenanalyse als Multiplex Ansatz auf einem Mikroarray entwickelt werden. Die Durchführung der Performance-Analyse und des Stabilitätstests zeigen bereits die mögliche Einsatzfähigkeit dieses Tests im Kontext einer Dopinganalyse. N2 - Worldwide it is the goal of anti-doping institutes to have a fair competition in sports free of doping and to prevent the misuse of therapeutics for doping purposes. Therefore there is a need to continuously develop new rapid test methods for the analysis and identification of pharmaceutical substances. Herein, the focus was to develop a multiplex assay on the basis of antigen antibody reactions in doping analysis. It was one goal to reduce the sample volume and the measurement time in comparison to standard methods (i.e. ELISA). Additional challenges were the application of a multiplex approach on the basis of microarray technology and to achieve a high sensitivity and precision. The major challenge for a multiplex analysis is the specific detection of all analytes without producing false positive signals, even of those analytes with similar molecular structure. This was solved using a special combination of specific monoclonal antibodies. Therefore cross-reaction-tests on the microarray platform and western blot analysis were performed simultaneously. Subsequently, the relevant antibodies were used for the analysis of the minimum detectable concentration. Optimization of experimental conditions on glass and polymer surfaces (i.e. COP) led to a reduction of the background fluorescence, resulting in an increase of signal-to-background ratio. The measured limit of detection (LOD) for the human choriongonadotropin (hCG-i) was a concentration of 10 mU/ml, for the beta-subunit (hCG-beta) 3,6 mU/ml and for the luteinizing hormone (LH) 10 mU/ml. The value of hCG-i in serum correlates to the claimed threshold limit from the world anti doping agency (WADA) of 5 mU/ml in urine. In parallel, matrix effects were analyzed in serum and whole blood. In a crossreactivity study it was shown, that it is possible to measure all three parameters in serum and whole blood independently. The performance analysis of a blinded experiment with 130 serum samples was analyzed with receiver operating characteristic (ROC) and showed the diagnostic specificity. For LH the specificity and sensitivity was 100%, for hCG-beta a specificity of 100% and a sensitivity of 97% was measured. The samples for hCG-i were measured with a specificity of 100% and a sensitivity of 97,5%. For the evidence of stability for several weeks of the experimental setup, a stability testing over a period of 12 weeks was performed. Identical samples gave stable signals over a period of 10 weeks in serum as well as in whole blood. In summary the development of a multiplex assay for the analysis of antigen-antibody reactions in doping analysis for LH and hCG was successful and represents a proof of concept. Due to the promising results in the performance analysis and the stability tests it might be possible to insert that kind of multiplex assay as a test method for the anti doping analysis. KW - Mehrkomponentenanalyse KW - Multiplex KW - Doping KW - Schnelltest KW - hCG KW - multiplex assay KW - microarray KW - dopingtest KW - point-of-care KW - in-vitro diagnostic Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76869 ER - TY - THES A1 - Takouna, Ibrahim T1 - Energy-efficient and performance-aware virtual machine management for cloud data centers T1 - Energieeffizientes und performancebewusstes Management virtueller Maschinen für Cloud Datenzentren N2 - Virtualisierte Cloud Datenzentren stellen nach Bedarf Ressourcen zur Verfügu-ng, ermöglichen agile Ressourcenbereitstellung und beherbergen heterogene Applikationen mit verschiedenen Anforderungen an Ressourcen. Solche Datenzentren verbrauchen enorme Mengen an Energie, was die Erhöhung der Betriebskosten, der Wärme innerhalb der Zentren und des Kohlendioxidausstoßes verursacht. Der Anstieg des Energieverbrauches kann durch ein ineffektives Ressourcenmanagement, das die ineffiziente Ressourcenausnutzung verursacht, entstehen. Die vorliegende Dissertation stellt detaillierte Modelle und neue Verfahren für virtualisiertes Ressourcenmanagement in Cloud Datenzentren vor. Die vorgestellten Verfahren ziehen das Service-Level-Agreement (SLA) und die Heterogenität der Auslastung bezüglich des Bedarfs an Speicherzugriffen und Kommunikationsmustern von Web- und HPC- (High Performance Computing) Applikationen in Betracht. Um die präsentierten Techniken zu evaluieren, verwenden wir Simulationen und echte Protokollierung der Auslastungen von Web- und HPC- Applikationen. Außerdem vergleichen wir unser Techniken und Verfahren mit anderen aktuellen Verfahren durch die Anwendung von verschiedenen Performance Metriken. Die Hauptbeiträge dieser Dissertation sind Folgendes: Ein Proaktives auf robuster Optimierung basierendes Ressourcenbereitstellungsverfahren. Dieses Verfahren erhöht die Fähigkeit der Hostes zur Verfüg-ungsstellung von mehr VMs. Gleichzeitig aber wird der unnötige Energieverbrauch minimiert. Zusätzlich mindert diese Technik unerwünschte Ände-rungen im Energiezustand des Servers. Die vorgestellte Technik nutzt einen auf Intervall basierenden Vorhersagealgorithmus zur Implementierung einer robusten Optimierung. Dabei werden unsichere Anforderungen in Betracht gezogen. Ein adaptives und auf Intervall basierendes Verfahren zur Vorhersage des Arbeitsaufkommens mit hohen, in kürzer Zeit auftretenden Schwankungen. Die Intervall basierende Vorhersage ist implementiert in der Standard Abweichung Variante und in der Median absoluter Abweichung Variante. Die Intervall-Änderungen basieren auf einem adaptiven Vertrauensfenster um die Schwankungen des Arbeitsaufkommens zu bewältigen. Eine robuste VM Zusammenlegung für ein effizientes Energie und Performance Management. Dies ermöglicht die gegenseitige Abhängigkeit zwischen der Energie und der Performance zu minimieren. Unser Verfahren reduziert die Anzahl der VM-Migrationen im Vergleich mit den neu vor kurzem vorgestellten Verfahren. Dies trägt auch zur Reduzierung des durch das Netzwerk verursachten Energieverbrauches. Außerdem reduziert dieses Verfahren SLA-Verletzungen und die Anzahl von Änderungen an Energiezus-tänden. Ein generisches Modell für das Netzwerk eines Datenzentrums um die verzö-gerte Kommunikation und ihre Auswirkung auf die VM Performance und auf die Netzwerkenergie zu simulieren. Außerdem wird ein generisches Modell für ein Memory-Bus des Servers vorgestellt. Dieses Modell beinhaltet auch Modelle für die Latenzzeit und den Energieverbrauch für verschiedene Memory Frequenzen. Dies erlaubt eine Simulation der Memory Verzögerung und ihre Auswirkung auf die VM-Performance und auf den Memory Energieverbrauch. Kommunikation bewusste und Energie effiziente Zusammenlegung für parallele Applikationen um die dynamische Entdeckung von Kommunikationsmustern und das Umplanen von VMs zu ermöglichen. Das Umplanen von VMs benutzt eine auf den entdeckten Kommunikationsmustern basierende Migration. Eine neue Technik zur Entdeckung von dynamischen Mustern ist implementiert. Sie basiert auf der Signal Verarbeitung des Netzwerks von VMs, anstatt die Informationen des virtuellen Umstellung der Hosts oder der Initiierung der VMs zu nutzen. Das Ergebnis zeigt, dass unsere Methode die durchschnittliche Anwendung des Netzwerks reduziert und aufgrund der Reduzierung der aktiven Umstellungen Energie gespart. Außerdem bietet sie eine bessere VM Performance im Vergleich zu der CPU-basierten Platzierung. Memory bewusste VM Zusammenlegung für unabhängige VMs. Sie nutzt die Vielfalt des VMs Memory Zuganges um die Anwendung vom Memory-Bus der Hosts zu balancieren. Die vorgestellte Technik, Memory-Bus Load Balancing (MLB), verteilt die VMs reaktiv neu im Bezug auf ihre Anwendung vom Memory-Bus. Sie nutzt die VM Migration um die Performance des gesamtem Systems zu verbessern. Außerdem sind die dynamische Spannung, die Frequenz Skalierung des Memory und die MLB Methode kombiniert um ein besseres Energiesparen zu leisten. N2 - Virtualized cloud data centers provide on-demand resources, enable agile resource provisioning, and host heterogeneous applications with different resource requirements. These data centers consume enormous amounts of energy, increasing operational expenses, inducing high thermal inside data centers, and raising carbon dioxide emissions. The increase in energy consumption can result from ineffective resource management that causes inefficient resource utilization. This dissertation presents detailed models and novel techniques and algorithms for virtual resource management in cloud data centers. The proposed techniques take into account Service Level Agreements (SLAs) and workload heterogeneity in terms of memory access demand and communication patterns of web applications and High Performance Computing (HPC) applications. To evaluate our proposed techniques, we use simulation and real workload traces of web applications and HPC applications and compare our techniques against the other recently proposed techniques using several performance metrics. The major contributions of this dissertation are the following: proactive resource provisioning technique based on robust optimization to increase the hosts' availability for hosting new VMs while minimizing the idle energy consumption. Additionally, this technique mitigates undesirable changes in the power state of the hosts by which the hosts' reliability can be enhanced in avoiding failure during a power state change. The proposed technique exploits the range-based prediction algorithm for implementing robust optimization, taking into consideration the uncertainty of demand. An adaptive range-based prediction for predicting workload with high fluctuations in the short-term. The range prediction is implemented in two ways: standard deviation and median absolute deviation. The range is changed based on an adaptive confidence window to cope with the workload fluctuations. A robust VM consolidation for efficient energy and performance management to achieve equilibrium between energy and performance trade-offs. Our technique reduces the number of VM migrations compared to recently proposed techniques. This also contributes to a reduction in energy consumption by the network infrastructure. Additionally, our technique reduces SLA violations and the number of power state changes. A generic model for the network of a data center to simulate the communication delay and its impact on VM performance, as well as network energy consumption. In addition, a generic model for a memory-bus of a server, including latency and energy consumption models for different memory frequencies. This allows simulating the memory delay and its influence on VM performance, as well as memory energy consumption. Communication-aware and energy-efficient consolidation for parallel applications to enable the dynamic discovery of communication patterns and reschedule VMs using migration based on the determined communication patterns. A novel dynamic pattern discovery technique is implemented, based on signal processing of network utilization of VMs instead of using the information from the hosts' virtual switches or initiation from VMs. The result shows that our proposed approach reduces the network's average utilization, achieves energy savings due to reducing the number of active switches, and provides better VM performance compared to CPU-based placement. Memory-aware VM consolidation for independent VMs, which exploits the diversity of VMs' memory access to balance memory-bus utilization of hosts. The proposed technique, Memory-bus Load Balancing (MLB), reactively redistributes VMs according to their utilization of a memory-bus using VM migration to improve the performance of the overall system. Furthermore, Dynamic Voltage and Frequency Scaling (DVFS) of the memory and the proposed MLB technique are combined to achieve better energy savings. KW - Energieeffizienz KW - Cloud Datenzentren KW - Ressourcenmanagement KW - dynamische Umsortierung KW - energy efficiency KW - cloud datacenter KW - resource management KW - dynamic consolidation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72399 ER - TY - THES A1 - Schmidl, Ricarda T1 - Empirical essays on job search behavior, active labor market policies, and propensity score balancing methods T1 - Empirische Studien zum Arbeitssuchverhalten, aktiver Arbeitsmarktpolitik und Propensity Score Gewichtungsmethoden N2 - In Chapter 1 of the dissertation, the role of social networks is analyzed as an important determinant in the search behavior of the unemployed. Based on the hypothesis that the unemployed generate information on vacancies through their social network, search theory predicts that individuals with large social networks should experience an increased productivity of informal search, and reduce their search in formal channels. Due to the higher productivity of search, unemployed with a larger network are also expected to have a higher reservation wage than unemployed with a small network. The model-theoretic predictions are tested and confirmed empirically. It is found that the search behavior of unemployed is significantly affected by the presence of social contacts, with larger networks implying a stronger substitution away from formal search channels towards informal channels. The substitution is particularly pronounced for passive formal search methods, i.e., search methods that generate rather non-specific types of job offer information at low relative cost. We also find small but significant positive effects of an increase of the network size on the reservation wage. These results have important implications on the analysis of the job search monitoring or counseling measures that are usually targeted at formal search only. Chapter 2 of the dissertation addresses the labor market effects of vacancy information during the early stages of unemployment. The outcomes considered are the speed of exit from unemployment, the effects on the quality of employment and the short-and medium-term effects on active labor market program (ALMP) participation. It is found that vacancy information significantly increases the speed of entry into employment; at the same time the probability to participate in ALMP is significantly reduced. Whereas the long-term reduction in the ALMP arises in consequence of the earlier exit from unemployment, we also observe a short-run decrease for some labor market groups which suggest that caseworker use high and low intensity activation measures interchangeably which is clearly questionable from an efficiency point of view. For unemployed who find a job through vacancy information we observe a small negative effect on the weekly number of hours worked. In Chapter 3, the long-term effects of participation in ALMP are assessed for unemployed youth under 25 years of age. Complementary to the analysis in Chapter 2, the effects of participation in time- and cost-intensive measures of active labor market policies are examined. In particular we study the effects of job creation schemes, wage subsidies, short-and long-term training measures and measures to promote the participation in vocational training. The outcome variables of interest are the probability to be in regular employment, and participation in further education during the 60 months following program entry. The analysis shows that all programs, except job creation schemes have positive and long-term effects on the employment probability of youth. In the short-run only short-term training measures generate positive effects, as long-term training programs and wage subsidies exhibit significant locking-in'' effects. Measures to promote vocational training are found to increase the probability of attending education and training significantly, whereas all other programs have either no or a negative effect on training participation. Effect heterogeneity with respect to the pre-treatment level education shows that young people with higher pre-treatment educational levels benefit more from participation most programs. However, for longer-term wage subsidies we also find strong positive effects for young people with low initial education levels. The relative benefit of training measures is higher in West than in East Germany. In the evaluation studies of Chapters 2 and 3 semi-parametric balancing methods of Propensity Score Matching (PSM) and Inverse Probability Weighting (IPW) are used to eliminate the effects of counfounding factors that influence both the treatment participation as well as the outcome variable of interest, and to establish a causal relation between program participation and outcome differences. While PSM and IPW are intuitive and methodologically attractive as they do not require parametric assumptions, the practical implementation may become quite challenging due to their sensitivity to various data features. Given the importance of these methods in the evaluation literature, and the vast number of recent methodological contributions in this field, Chapter 4 aims to reduce the knowledge gap between the methodological and applied literature by summarizing new findings of the empirical and statistical literature and practical guidelines for future applied research. In contrast to previous publications this study does not only focus on the estimation of causal effects, but stresses that the balancing challenge can and should be discussed independent of question of causal identification of treatment effects on most empirical applications. Following a brief outline of the practical implementation steps required for PSM and IPW, these steps are presented in detail chronologically, outlining practical advice for each step. Subsequently, the topics of effect estimation, inference, sensitivity analysis and the combination with parametric estimation methods are discussed. Finally, new extensions of the methodology and avenues for future research are presented. N2 - In Kapitel 1 der Dissertation wird die Rolle von sozialen Netzwerken als Determinante im Suchverhalten von Arbeitslosen analysiert. Basierend auf der Hypothese, dass Arbeitslose durch ihr soziales Netzwerk Informationen über Stellenangebote generieren, sollten Personen mit großen sozialen Netzwerken eine erhöhte Produktivität ihrer informellen Suche erfahren, und ihre Suche in formellen Kanälen reduzieren. Durch die höhere Produktivität der Suche sollte für diese Personen zudem der Reservationslohn steigen. Die modelltheoretischen Vorhersagen werden empirisch getestet, wobei die Netzwerkinformationen durch die Anzahl guter Freunde, sowie Kontakthäufigkeit zu früheren Kollegen approximiert wird. Die Ergebnisse zeigen, dass das Suchverhalten der Arbeitslosen durch das Vorhandensein sozialer Kontakte signifikant beeinflusst wird. Insbesondere sinkt mit der Netzwerkgröße formelle Arbeitssuche - die Substitution ist besonders ausgeprägt für passive formelle Suchmethoden, d.h. Informationsquellen die eher unspezifische Arten von Jobangeboten bei niedrigen relativen Kosten erzeugen. Im Einklang mit den Vorhersagen des theoretischen Modells finden sich auch deutlich positive Auswirkungen einer Erhöhung der Netzwerkgröße auf den Reservationslohn. Kapitel 2 befasst sich mit den Arbeitsmarkteffekten von Vermittlungsangeboten (VI) in der frühzeitigen Aktivierungsphase von Arbeitslosen. Die Nutzung von VI könnte dabei eine „doppelte Dividende“ versprechen. Zum einen reduziert die frühe Aktivierung die Dauer der Arbeitslosigkeit, und somit auch die Notwendigkeit späterer Teilnahme in Arbeitsmarktprogrammen (ALMP). Zum anderen ist die Aktivierung durch Information mit geringeren locking-in‘‘ Effekten verbunden als die Teilnahme in ALMP. Ziel der Analyse ist es, die Effekte von frühen VI auf die Eingliederungsgeschwindigkeit, sowie die Teilnahmewahrscheinlichkeit in ALMP zu messen. Zudem werden mögliche Effekte auf die Qualität der Beschäftigung untersucht. Die Ergebnisse zeigen, dass VI die Beschäftigungswahrscheinlichkeit signifikant erhöhen, und dass gleichzeitig die Wahrscheinlichkeit in ALMP teilzunehmen signifikant reduziert wird. Für die meisten betrachteten Subgruppen ergibt sich die langfristige Reduktion der ALMP Teilnahme als Konsequenz der schnelleren Eingliederung. Für einzelne Arbeitsmarktgruppen ergibt sich zudem eine frühe und temporare Reduktion, was darauf hinweist, dass Maßnahmen mit hohen und geringen „locking-in“ Effekten aus Sicht der Sachbearbeiter austauschbar sind, was aus Effizienzgesichtspunkten fragwürdig ist. Es wird ein geringer negativer Effekt auf die wöchentliche Stundenanzahl in der ersten abhängigen Beschäftigung nach Arbeitslosigkeit beobachtet. In Kapitel 3 werden die Langzeiteffekte von ALMP für arbeitslose Jugendliche unter 25 Jahren ermittelt. Die untersuchten ALMP sind ABM-Maßnahmen, Lohnsubventionen, kurz-und langfristige Maßnahmen der beruflichen Bildung sowie Maßnahmen zur Förderung der Teilnahme an Berufsausbildung. Ab Eintritt in die Maßnahme werden Teilnehmer und Nicht-Teilnehmer für einen Zeitraum von sechs Jahren beobachtet. Als Zielvariable wird die Wahrscheinlichkeit regulärer Beschäftigung, sowie die Teilnahme in Ausbildung untersucht. Die Ergebnisse zeigen, dass alle Programme, bis auf ABM, positive und langfristige Effekte auf die Beschäftigungswahrscheinlichkeit von Jugendlichen haben. Kurzfristig finden wir jedoch nur für kurze Trainingsmaßnahmen positive Effekte, da lange Trainingsmaßnahmen und Lohnzuschüsse mit signifikanten locking-in‘‘ Effekten verbunden sind. Maßnahmen zur Förderung der Berufsausbildung erhöhen die Wahrscheinlichkeit der Teilnahme an einer Ausbildung, während alle anderen Programme keinen oder einen negativen Effekt auf die Ausbildungsteilnahme haben. Jugendliche mit höherem Ausbildungsniveau profitieren stärker von der Programmteilnahme. Jedoch zeigen sich für längerfristige Lohnsubventionen ebenfalls starke positive Effekte für Jugendliche mit geringer Vorbildung. Der relative Nutzen von Trainingsmaßnahmen ist höher in West- als in Ostdeutschland. In den Evaluationsstudien der Kapitel 2 und 3 werden die semi-parametrischen Gewichtungsverfahren Propensity Score Matching (PSM) und Inverse Probability Weighting (IPW) verwendet, um den Einfluss verzerrender Faktoren, die sowohl die Maßnahmenteilnahme als auch die Zielvariablen beeinflussen zu beseitigen, und kausale Effekte der Programmteilahme zu ermitteln. Während PSM and IPW intuitiv und methodisch sehr attraktiv sind, stellt die Implementierung der Methoden in der Praxis jedoch oft eine große Herausforderung dar. Das Ziel von Kapitel 4 ist es daher, praktische Hinweise zur Implementierung dieser Methoden zu geben. Zu diesem Zweck werden neue Erkenntnisse der empirischen und statistischen Literatur zusammengefasst und praxisbezogene Richtlinien für die angewandte Forschung abgeleitet. Basierend auf einer theoretischen Motivation und einer Skizzierung der praktischen Implementierungsschritte von PSM und IPW werden diese Schritte chronologisch dargestellt, wobei auch auf praxisrelevante Erkenntnisse aus der methodischen Forschung eingegangen wird. Im Anschluss werden die Themen Effektschätzung, Inferenz, Sensitivitätsanalyse und die Kombination von IPW und PSM mit anderen statistischen Methoden diskutiert. Abschließend werden neue Erweiterungen der Methodik aufgeführt. KW - empirische Arbeitsmarktforschung KW - Arbeitssuchverhalten KW - Propensity Score Matching KW - Inverse Probability Weighting KW - Aktive Arbeitsmarktpolitik KW - empirical labor market studies KW - job search behavior KW - propensity score matching KW - inverse probability weighting KW - active labor market policies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71145 ER - TY - THES A1 - Dyachenko, Evgeniya T1 - Elliptic problems with small parameter T1 - Elliptische Problemen mit kleinem Parameter N2 - In this thesis we consider diverse aspects of existence and correctness of asymptotic solutions to elliptic differential and pseudodifferential equations. We begin our studies with the case of a general elliptic boundary value problem in partial derivatives. A small parameter enters the coefficients of the main equation as well as into the boundary conditions. Such equations have already been investigated satisfactory, but there still exist certain theoretical deficiencies. Our aim is to present the general theory of elliptic problems with a small parameter. For this purpose we examine in detail the case of a bounded domain with a smooth boundary. First of all, we construct formal solutions as power series in the small parameter. Then we examine their asymptotic properties. It suffices to carry out sharp two-sided \emph{a priori} estimates for the operators of boundary value problems which are uniform in the small parameter. Such estimates failed to hold in functional spaces used in classical elliptic theory. To circumvent this limitation we exploit norms depending on the small parameter for the functions defined on a bounded domain. Similar norms are widely used in literature, but their properties have not been investigated extensively. Our theoretical investigation shows that the usual elliptic technique can be correctly carried out in these norms. The obtained results also allow one to extend the norms to compact manifolds with boundaries. We complete our investigation by formulating algebraic conditions on the operators and showing their equivalence to the existence of a priori estimates. In the second step, we extend the concept of ellipticity with a small parameter to more general classes of operators. Firstly, we want to compare the difference in asymptotic patterns between the obtained series and expansions for similar differential problems. Therefore we investigate the heat equation in a bounded domain with a small parameter near the time derivative. In this case the characteristics touch the boundary at a finite number of points. It is known that the solutions are not regular in a neighbourhood of such points in advance. We suppose moreover that the boundary at such points can be non-smooth but have cuspidal singularities. We find a formal asymptotic expansion and show that when a set of parameters comes through a threshold value, the expansions fail to be asymptotic. The last part of the work is devoted to general concept of ellipticity with a small parameter. Several theoretical extensions to pseudodifferential operators have already been suggested in previous studies. As a new contribution we involve the analysis on manifolds with edge singularities which allows us to consider wider classes of perturbed elliptic operators. We examine that introduced classes possess a priori estimates of elliptic type. As a further application we demonstrate how developed tools can be used to reduce singularly perturbed problems to regular ones. N2 - In dieser Dissertation betrachten wir verschiedene Aspekte der Existenz und Korrektheit asymptotischer Lösungen für elliptische Differentialgleichungen und Pseudodifferentialgleichungen. Am Anfang betrachtet die Arbeit den Fall eines allgemeinen elliptischen Grenzwertproblems in partiellen Ableitungen. Hierbei hängen die Koeffizienten von einem kleinen Parameter ab. Solche Gleichungen wurden schon reichlich untersucht, aber es gibt immer noch theoretische Lücken. Unser Ziel ist eine allgemeine Theorie elliptischer Operatorklassen mit kleinen Parametern. Zu diesem Zweck untersuchen wir im Detail den Fall eines beschränkten Gebietes mit glattem Rand. Zuerst konstruieren wir formale Lösungen als Potenzreihe einer kleinen Variablen. Weiter untersuchen wir ihre asymptotischen Eigenschaften. Dazu reicht es aus, beidseitige A-Priori Abschätzungen für diejenigen Randwertproblemoperatoren zu bestimmen, die gleichmäßig stetig von den kleinen Parametern abhängen. Solche Abschätzungen gelten nicht in Funktionenräumen, die in der klassischen elliptischen Theorie benutzt werden. Um diese Beschränkungen zu überwinden, nutzen wir Normen abhängig vom kleinen Parameter. Änliche Normen finden sich oft in der Literatur, aber ihre Eigenschaften wurden unzureichend untersucht. Unsere theoretische Forschung zeigt, dass die gewöhnliche elliptische Methode korrekt durchgeführt werden kann. Die erhaltenen Abschätzungen erlauben das Fortsetzen der Normen auf kompakte Mannigfältigkeiten mit Rand. Unsere Forschung wird mit algebraischen Bedingungen für die Operatoren abgeschlossen. Wir zeigen, dass diese Bedingungen äquivalent zu der Existenz der A-Priori-Abschätzungen sind. Im zweiten Schritt erweitern wir das Konzept der Elliptizität mit kleinen Parametern zu allgemeineren Operatorklassen. Zuerst wollen wir den Unterschied in asymptotischen Mustern zwischen der erhaltenen Reihe und Lösungen ähnlicher Probleme untersuchen. Deshalb untersuchen wir die Wärmeleitungsgleichung in einem beschränkten Gebiet mit einem kleinen Parameter in der Zeitableitung. In diesem Fall tangiert der Rand die Charakteristik endlich oft. Es ist bekannt, dass die Lösungen unregulär im Allgemeinen in Umgebungen solcher Stellen sind. Wir nehmen an, dass der Rand an solchen Stellen nicht glätt sein kann und kaspydalische Singularitäten hat. Wir haben eine formale asymptotische Zerlegung gefunden und einen Schwellenwert gezeigt, sodass die asymptotische Eigenschaft der Reihe nicht mehr gilt, wenn der Randparameter diesen Schwellenwert übersteigt. Der letze Teil der Arbeit führt ein allgemeines Konzept der Elliptizit\"at mit einem kleinen Parameter ein. Mehrere theoretische Erweiterungen auf Pseudodifferentialoperatoren wurden schon in früheren Studien vorgeschlagen. Als neuen Beitrag wenden wir die Analysis auf Manigfältigkeiten mit Kantensingularitäten an. Dies lässt es zu, allgemeinere gestörte Operatorklassen zu betrachten. Wir beobachten, dass die eingef\"uhrten Klassen A-Priori-Abschätzungen elliptischer Gestalt haben. Als weitere Anwendung demonstrieren wir, wie die entwickelten Mittel zum Reduzieren singular gestörter Probleme zu regulären Fällen benutzt werden können. KW - elliptische Gleichungen KW - kleine Parameter KW - elliptic problems KW - small parameter KW - boundary layer Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72056 ER - TY - THES A1 - Schubert, Marcel T1 - Elementary processes in layers of electron transporting Donor-acceptor copolymers : investigation of charge transport and application to organic solar cells T1 - Elementare Prozesse in Schichten elektronen-transportierender Donator-Akzeptor-Copolymere : Untersuchung des Ladungstransports und Anwendung in Organischen Solarzellen N2 - Donor-acceptor (D-A) copolymers have revolutionized the field of organic electronics over the last decade. Comprised of a electron rich and an electron deficient molecular unit, these copolymers facilitate the systematic modification of the material's optoelectronic properties. The ability to tune the optical band gap and to optimize the molecular frontier orbitals as well as the manifold of structural sites that enable chemical modifications has created a tremendous variety of copolymer structures. Today, these materials reach or even exceed the performance of amorphous inorganic semiconductors. Most impressively, the charge carrier mobility of D-A copolymers has been pushed to the technologically important value of 10 cm^{2}V^{-1}s^{-1}. Furthermore, owed to their enormous variability they are the material of choice for the donor component in organic solar cells, which have recently surpassed the efficiency threshold of 10%. Because of the great number of available D-A copolymers and due to their fast chemical evolution, there is a significant lack of understanding of the fundamental physical properties of these materials. Furthermore, the complex chemical and electronic structure of D-A copolymers in combination with their semi-crystalline morphology impede a straightforward identification of the microscopic origin of their superior performance. In this thesis, two aspects of prototype D-A copolymers were analysed. These are the investigation of electron transport in several copolymers and the application of low band gap copolymers as acceptor component in organic solar cells. In the first part, the investigation of a series of chemically modified fluorene-based copolymers is presented. The charge carrier mobility varies strongly between the different derivatives, although only moderate structural changes on the copolymers structure were made. Furthermore, rather unusual photocurrent transients were observed for one of the copolymers. Numerical simulations of the experimental results reveal that this behavior arises from a severe trapping of electrons in an exponential distribution of trap states. Based on the comparison of simulation and experiment, the general impact of charge carrier trapping on the shape of photo-CELIV and time-of-flight transients is discussed. In addition, the high performance naphthalenediimide (NDI)-based copolymer P(NDI2OD-T2) was characterized. It is shown that the copolymer posses one of the highest electron mobilities reported so far, which makes it attractive to be used as the electron accepting component in organic photovoltaic cells.\par Solar cells were prepared from two NDI-containing copolymers, blended with the hole transporting polymer P3HT. I demonstrate that the use of appropriate, high boiling point solvents can significantly increase the power conversion efficiency of these devices. Spectroscopic studies reveal that the pre-aggregation of the copolymers is suppressed in these solvents, which has a strong impact on the blend morphology. Finally, a systematic study of P3HT:P(NDI2OD-T2) blends is presented, which quantifies the processes that limit the efficiency of devices. The major loss channel for excited states was determined by transient and steady state spectroscopic investigations: the majority of initially generated electron-hole pairs is annihilated by an ultrafast geminate recombination process. Furthermore, exciton self-trapping in P(NDI2OD-T2) domains account for an additional reduction of the efficiency. The correlation of the photocurrent to microscopic morphology parameters was used to disclose the factors that limit the charge generation efficiency. Our results suggest that the orientation of the donor and acceptor crystallites relative to each other represents the main factor that determines the free charge carrier yield in this material system. This provides an explanation for the overall low efficiencies that are generally observed in all-polymer solar cells. N2 - Donator-Akzeptor (D-A) Copolymere haben das Feld der organischen Elektronik revolutioniert. Bestehend aus einer elektronen-reichen und einer elektronen-armen molekularen Einheit,ermöglichen diese Polymere die systematische Anpassung ihrer optischen und elektronischen Eigenschaften. Zu diesen zählen insbesondere die optische Bandlücke und die Lage der Energiezustände. Dabei lassen sie sich sehr vielseitig chemisch modifizieren, was zu einer imensen Anzahl an unterschiedlichen Polymerstrukturen geführt hat. Dies hat entscheidend dazu beigetragen, dass D-A-Copolymere heute in Bezug auf ihren Ladungstransport die Effizienz von anorganischen Halbleitern erreichen oder bereits übetreffen. Des Weiteren lassen sich diese Materialien auch hervorragend in Organischen Solarzellen verwenden, welche jüngst eine Effizienz von über 10% überschritten haben. Als Folge der beträchtlichen Anzahl an unterschiedlichen D-A-Copolymeren konnte das physikalische Verständnis ihrer Eigenschaften bisher nicht mit dieser rasanten Entwicklung Schritt halten. Dies liegt nicht zuletzt an der komplexen chemischen und mikroskopischen Struktur im Film, in welchem die Polymere in einem teil-kristallinen Zustand vorliegen. Um ein besseres Verständnis der grundlegenden Funktionsweise zu erlangen, habe ich in meiner Arbeit sowohl den Ladungstransport als auch die photovoltaischen Eigenschaften einer Reihe von prototypischen, elektronen-transportierenden D-A Copolymeren beleuchtet. Im ersten Teil wurden Copolymere mit geringfügigen chemischen Variationen untersucht. Diese Variationen führen zu einer starken Änderung des Ladungstransportverhaltens. Besonders auffällig waren hier die Ergebnisse eines Polymers, welches sehr ungewöhnliche transiente Strom-Charakteristiken zeigte. Die nähere Untersuchung ergab, dass in diesem Material elektrisch aktive Fallenzustände existieren. Dieser Effekt wurde dann benutzt um den Einfluss solcher Fallen auf transiente Messung im Allgemeinen zu beschreiben. Zusätzlich wurde der Elektronentransport in einem neuartigen Copolymer untersucht, welche die bis dato größte gemesse Elektronenmobilität für konjugierte Polymere zeigte. Darauf basierend wurde versucht, die neuartigen Copolymere als Akzeptoren in Organischen Solarzellen zu implementieren. Die Optimierung dieser Zellen erwies sich jedoch als schwierig, konnte aber erreicht werden, indem die Lösungseigenschaften der Copolymere untersucht und systematisch gesteuert wurden. Im Weiteren werden umfangreiche Untersuchungen zu den relevanten Verlustprozessen gezeigt. Besonders hervorzuheben ist hier die Beobachtung, dass hohe Effizienzen nur bei einer coplanaren Packung der Donator/Akzeptor-Kristalle erreicht werden können. Diese Struktureigenschaft wird hier zum ersten Mal beschrieben und stellt einen wichtigen Erkenntnisgewinn zum Verständnis von Polymersolarzellen dar. KW - Organische Solarzellen KW - Ladungstransport KW - Donator-Akzeptor-Copolymere KW - Alternative Akzeptorpolymere KW - Polymer-Kristalle KW - organic solar cells KW - charge transport KW - Donor-acceptor copolymers KW - alternative electron acceptors KW - polymer crystal orientation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70791 ER - TY - THES A1 - Schwarz, Franziska T1 - Einfluss von Kalorienrestriktion auf den Metabolismus T1 - Effect of Caloric Restriction on Metabolism N2 - Die Häufung von Diabetes, Herz-Kreislauf-Erkrankungen und einigen Krebsarten, deren Entstehung auf Übergewicht und Bewegungsmangel zurückzuführen sind, ist ein aktuelles Problem unserer Gesellschaft. Insbesondere mit fortschreitendem Alter nehmen die damit einhergehenden Komplikationen zu. Umso bedeutender ist das Verständnis der pathologischen Mechanismen in Folge von Adipositas, Bewegungsmangel, des Alterungsprozesses und den Einfluss-nehmenden Faktoren. Ziel dieser Arbeit war die Entstehung metabolischer Erkrankungen beim Menschen zu untersuchen. Die Auswertung von Verlaufsdaten anthropometrischer und metabolischer Parameter der 584 Teilnehmern der prospektiven ‚Metabolisches Syndrom Berlin Potsdam Follow-up Studie‘ wies für die gesamte Kohorte einen Anstieg an Übergewicht, ebenso eine Verschlechterung des Blutdrucks und des Glukosestoffwechsels auf. Wir untersuchten, ob das Hormon FGF21 Einfluss an dem Auftreten eines Diabetes mellitus Typ 2 (T2DM) oder des Metabolischen Syndroms (MetS) hat. Wir konnten zeigen, dass Personen, die später ein MetS entwickeln, bereits zu Studienbeginn einen erhöhten FGF21-Spiegel, einen höheren BMI, WHR, Hb1Ac und diastolischen Blutdruck aufwiesen. Neben FGF21 wurde auch Vaspin in diesem Zusammenhang untersucht. Es zeigte sich, dass Personen, die später einen T2DM entwickeln, neben einer Erhöhung klinischer Parameter tendenziell erhöhte Spiegel des Hormons aufwiesen. Mit FGF21 und Vaspin wurden hier zwei neue Faktoren für die Vorhersage des Metabolischen Syndroms bzw. Diabetes mellitus Typ 2 identifiziert. Der langfristige Effekt einer Gewichtsreduktion wurde in einer Subkohorte von 60 Personen untersucht. Der überwiegende Teil der Probanden mit Gewichtsabnahme-Intervention nahm in der ersten sechsmonatigen Phase erfolgreich ab. Jedoch zeigte sich ein deutlicher Trend zur Wiederzunahme des verlorenen Gewichts über den Beobachtungszeitraum von fünf Jahren. Von besonderem Interesse war die Abschätzung des kardiovaskulären Risikos über den Framingham Score. Es wurde deutlich, dass für Personen mit konstanter Gewichtsabnahme ein deutlich geringeres kardiovaskuläres Risiko bestand. Hingegen zeigten Personen mit konstanter Wiederzunahme oder starken Gewichtsschwankungen ein hohes kardiovaskuläres Risiko. Unsere Daten legten nahe, dass eine erfolgreiche dauerhafte Gewichtsreduktion statistisch mit einem erniedrigten kardiovaskulären Risiko assoziiert ist, während Probanden mit starken Gewichtsschwankungen oder einer Gewichtszunahme ein gesteigertes Risiko haben könnten. Um die Interaktion der molekularen Vorgänge hinsichtlich der Gewichtsreduktion und Lebensspanne untersuchen zu können, nutzen wir den Modellorganismus C.elegans. Eine kontinuierliche Restriktion wirkte sich verlängernd, eine Überversorgung verkürzend auf die Lebensspanne des Rundwurms aus. Der Einfluss eines zeitlich eingeschränkten, intermittierenden Nahrungsregimes, analog zum Weight-Cycling im Menschen, auf die Lebensspanne war von großem Interesse. Dieser regelmäßige Wechsel zwischen ad libitum Fütterung und Restriktion hatte in Abhängigkeit von der Häufigkeit der Restriktion einen unterschiedlich starken lebensverlängernden Effekt. Phänomene, wie Gewichtswiederzunahmen, sind in C.elegans nicht zu beobachten und beruhen vermutlich auf einem Mechanismus ist, der evolutionär jünger und in C.elegans noch nicht angelegt ist. Um neue Stoffwechselwege zu identifizieren, die die Lebensspanne beeinflussen, wurden Metabolitenprofile genetischer als auch diätetischer Langlebigkeitsmodelle analysiert. Diese Analysen wiesen den Tryptophan-Stoffwechsel als einen neuen, bisher noch nicht im Fokus stehenden Stoffwechselweg aus, der mit Langlebigkeit in Verbindung steht. N2 - The accumulation of diseases attributed to obesity and sedentary lifestyle has emerged as a current problem in our society. Over time, the accompanying complications increase. Therefore, it is of utmost importance to understand the pathological mechanisms due to overweight and a lack of physical activity, as well as of the aging process and its influencing factors. Our aim was to examine the development of metabolic diseases in a human cohort. We evaluated anthropometric data and metabolic parameters of 584 participants of the prospective MeSyBePo follow-up study with a mean follow-up of more than 5 years. We observed an increase in excess weight in the entire cohort. Likewise worsening of blood pressure and parameters of glucose metabolism was distinctive for this group. FGF21 was identified as a new potential biomarker for the evaluation of the risk of Diabetes mellitus type 2 and the metabolic syndrome. By exclusion of all individuals with a diagnosed Diabetes mellitus type 2 as well as metabolic syndrome at baseline we examined whether FGF21 would have a predictive value for the incidence of Diabetes mellitus type 2 or the metabolic syndrome. We could show that, compared to controls, individuals who developed a metabolic syndrome had significantly elevated FGF21 levels at baseline accompanied by higher BMI, WHR, Hb1Ac and diastolic blood pressure. FGF21 proved to be an independent predictor of the metabolic syndrome following adjustment for age, gender, follow-up time, WHR, systolic blood pressure, HDL, triglycerides and fasting blood glucose levels. Vaspin was identified as another adipokine that influenced the risk of Diabetes mellitus type 2. We examined whether yaspin had a predictive value for the incidence of Diabetes mellitus type 2 under exclusion of all diabetics at baseline and all participants with the intention to lose weight. We could show that, compared to controls, individuals who became diabetic had significantly higher BMI, WHR, HbA1c, systolic blood pressure, triglycerides, fasting plasma glucose as well as 2h glucose. Vaspin had a strong effect on the risk of Diabetes mellitus type 2 when adjusted for age, gender, BMI, follow-up time, Hb1Ac, waist circumference, leukocytes and light activity. In a subcohort of 60 individuals with the intention to lose weight, the long-term effects of weight loss were examined. Weight course of all 60 participants was asked and validated. The majority reduced weight successfully during the initial intervention period of 6 month. However, a distinct trend indicated weight regain over time. The evaluation of cardiovascular risk by the Framingham Risk Score for this cohort was of particular interest. Stratified by weight course, the cardiovascular risk was reduced for those with constant weight. Elevated risk was calculated for individuals with constant regain or strong weight cycling. Overall, the size of our cohort was insufficient to come to a final conclusion. Our data imply that a successful weight loss is associated with a lower estimated cardiovascular risk, while individuals who regain weight are likely to increase their estimated cardiovascular risk. A comparison of the incident cases between groups of Diabetes mellitus type 2 and the metabolic syndrome showed that for those with weight cycling there was a higher risk for an incident of the metabolic syndrome. In order to examine the molecular mechanisms in a simple organism with focus on the interaction of weight reduction and life span, we chose C.elegans. For this model, the influence of a scheduled fasting regime and its influence on life span was examined. Continuous restriction and oversupply of nutrients caused elongated and shortened life spans, respectively. We were interested in the effect of an intermittent fasting regime on life span. The regular switch between ad libitum feeding and restriction as a function of the number of restriction cycles caused various life prolonging effects. The phenomenon of weight regain known amongst humans could not be observed in the nematode. The effect is probably regulated via mechanisms that are phylogenetically younger and therefore not present yet in the nematode. As a speculation, the reward system could be the missing mechanism in the nematode. In order to identify new metabolic pathways that influence life span we analysed metabolic profiles of genetically and dietary longlived models. We identified trytophan metabolism as a new, yet unknown pathway that is related to the regulation of life span. Its significance was examined via RNA interference by inhibiting the degradation and alternation of tryptophan, which resulted in an increase in life span. In summary, we were able to identify two new hormones as predictors for the metabolic syndrome and Diabetes mellitus type 2 - Vaspin and FGF21. We showed that a successful weight reduction is often followed by weight regain and that this is associated with negative metabolic consequences. The limitation of our study is the small size of the cohort. Therefore a final evaluation of the examined relations is not yet possible. For the nematode C.elegans, we could show that the frequency of fasting periods is a life extending factor that should not be underestimated. We assume that the mechanisms behind the negative metabolic consequences of an intended weight reduction are phylogenetically younger and therefore not yet present in the nematode. In an unbiased analyses of the changes in metabolic profiles in different nematodes, we were able to prove the importance of the tryptophan pathway for longevity in the nematode. KW - Kalorienrestriktion KW - Gewichtsreduktion KW - kardiovaskuläres Risiko KW - caloric restriction KW - weight reduction KW - cardiovascular risk Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-83147 ER - TY - THES A1 - Guzman-Perez, Valentina T1 - Effect of benzylglucosinolate on signaling pathways associated with type 2 diabetes prevention T1 - Wirkung von benzylglucosinolate auf Signalwege mit Type 2 diabetes Prävention zugeordnet N2 - Type 2 diabetes (T2D) is a health problem throughout the world. In 2010, there were nearly 230 million individuals with diabetes worldwide and it is estimated that in the economically advanced countries the cases will increase about 50% in the next twenty years. Insulin resistance is one of major features in T2D, which is also a risk factor for metabolic and cardiovascular complications. Epidemiological and animal studies have shown that the consumption of vegetables and fruits can delay or prevent the development of the disease, although the underlying mechanisms of these effects are still unclear. Brassica species such as broccoli (Brassica oleracea var. italica) and nasturtium (Tropaeolum majus) possess high content of bioactive phytochemicals, e.g. nitrogen sulfur compounds (glucosinolates and isothiocyanates) and polyphenols largely associated with the prevention of cancer. Isothiocyanates (ITCs) display their anti-carcinogenic potential by inducing detoxicating phase II enzymes and increasing glutathione (GSH) levels in tissues. In T2D diabetes an increase in gluconeogenesis and triglyceride synthesis, and a reduction in fatty acid oxidation accompanied by the presence of reactive oxygen species (ROS) are observed; altogether is the result of an inappropriate response to insulin. Forkhead box O (FOXO) transcription factors play a crucial role in the regulation of insulin effects on gene expression and metabolism, and alterations in FOXO function could contribute to metabolic disorders in diabetes. In this study using stably transfected human osteosarcoma cells (U-2 OS) with constitutive expression of FOXO1 protein labeled with GFP (green fluorescent protein) and human hepatoma cells HepG2 cell cultures, the ability of benzylisothiocyanate (BITC) deriving from benzylglucosinolate, extracted from nasturtium to modulate, i) the insulin-signaling pathway, ii) the intracellular localization of FOXO1 and iii) the expression of proteins involved in glucose metabolism, ROS detoxification, cell cycle arrest and DNA repair was evaluated. BITC promoted oxidative stress and in response to that induced FOXO1 translocation from cytoplasm into the nucleus antagonizing the insulin effect. BITC stimulus was able to down-regulate gluconeogenic enzymes, which can be considered as an anti-diabetic effect; to promote antioxidant resistance expressed by the up-regulation in manganese superoxide dismutase (MnSOD) and detoxification enzymes; to modulate autophagy by induction of BECLIN1 and down-regulation of the mammalian target of rapamycin complex 1 (mTORC1) pathway; and to promote cell cycle arrest and DNA damage repair by up-regulation of the cyclin-dependent kinase inhibitor (p21CIP) and Growth Arrest / DNA Damage Repair (GADD45). Except for the nuclear factor (erythroid derived)-like2 (NRF2) and its influence in the detoxification enzymes gene expression, all the observed effects were independent from FOXO1, protein kinase B (AKT/PKB) and NAD-dependent deacetylase sirtuin-1 (SIRT1). The current study provides evidence that besides of the anticarcinogenic potential, isothiocyanates might have a role in T2D prevention. BITC stimulus mimics the fasting state, in which insulin signaling is not triggered and FOXO proteins remain in the nucleus modulating gene expression of their target genes, with the advantage of a down-regulation of gluconeogenesis instead of its increase. These effects suggest that BITC might be considered as a promising substance in the prevention or treatment of T2D, therefore the factors behind of its modulatory effects need further investigation. N2 - Diabetes mellitus Typ 2 stellt auf der ganzen Welt ein Gesundheitsproblem dar. Im Jahr 2010 waren annähernd 230 Millionen Personen weltweit an Diabetes erkrankt und innerhalb der nächsten 20 Jahre wird in industrialisierten Ländern eine Steigerung der Fälle um 50% erwartet. Eines der Hauptmerkmale des Typ 2 Diabetes ist die Insulinresistenz, die auch als Risikofaktor für metabolische und kardio-vaskuläre Komplikationen gilt. Epidemiologische Studien und Tierversuche haben ergeben, dass durch Verzehr von Gemüse und Obst eine Prävention oder Verzögerung der Entwicklung dieser Krankheit erreicht werden kann, jedoch sind die zugrunde liegenden Mechanismen dieser Effekte noch nicht aufgeklärt. Brassica Spezies wie Broccoli (Brassica oleracea var. italica) und Nasturtium (Tropaeolum majus) enthalten einen hohen Anteil an bioaktiven Pflanzen-inhaltsstoffen, wie z. B. stickstoff- und schwefelhaltige Verbindungen (Glukosinolate und Isothiocyanate) und Polyphenole, die bisher hauptsächlich mit der Prävention von Krebs assoziiert wurden. Isothiocyanate (ITCs) erreichen ihr antikanzerogenes Potential durch die Induktion von entgiftenden Phase II Enzymen und eine Anhebung der Glutathion (GSH)-Spiegel im Gewebe. Diabetes Typ2 geht einher mit einem Anstieg der Glukoneogenese und Triglycerid-Synthese, sowie einer Reduktion der Fettsäure-Oxidation in Verbindung mit erhöhten Spiegeln an reaktiven Sauerstoffspezies (ROS) insgesamt als Resultat einer unangemessenen Insulinantwort. Forkhead box O (FOXO) Transkriptionsfaktoren spielen eine wesentliche Rolle in der Regulation der Insulineffekte in Bezug auf die vermittelte Genexpression und den Metabolismus, wobei Veränderungen in der Funktion von FOXO zu metabolischen Entgleisungen im Diabetes beitragen können. In dieser Studie wurde unter Verwendung von stabil transfizierten humanen Osteosarkoma-Zellen (U-2 OS) mit konstitutiver Expression von GFP (grün fluoreszierendes Protein)-markiertem FOXO1 und humanen Hepatoma-Zellen (HepG2) die Wirkung von Benzylisothiocyanat (BITC), dessen Vorstufe Benzylglukosinolat aus Nasturtium isoliert wurde, in Zellkulturen evaluiert wie Modulationen der i) Insulin-Signal-Kaskade, ii) intrazellulären Lokalisation von FOXO1 und iii) Expression beteiligter Proteine am Glucose Metabolismus, der ROS Detoxifikation, Zellzyklus-Fixierung und DNA-Reparatur. BITC erzeugte oxidativen Stress und induzierte als Antwort darauf eine Translokation von FOXO1 aus dem Zytoplasma in den Zellkern antagonisierend zum Insulin-Effekt. Eine Stimultion mit BITC war in der Lage, die Expression von Enzymen der Gluconeogenese herunter zu regulieren, was als antidiabetogener Effekt betrachtet werden kann, eine antioxidative Resistenz durch Induktion der Mangan-Superoxid-Dismutase (MnSOD) und entgiftender Enzyme zu erzeugen, Autophagie zu modulieren durch Induktion von BECLIN1 und Herunterregulation des „mammalian target of rapamycin complex1 (mTORC1)-Stoffwechselwegs, den Zellzyklus zu fixieren und DNA-Reparatur zu induzieren durch Hochregulation des Cyclin- abhängigen Kinase- Inhibitors p21CIP und GADD45 (growth arrest and DNA damage repair). Mit Ausnahme des nuklearen Faktors (erythroid derived)-like2 (NRF2) und dessen Einfluss auf die Genexpression von Entgiftungsenzymen waren alle beobachteten Effekte unabhängig von FOXO1, Proteinkinase B (PKB/AKT) und der NAD-abhängigen Deacetylase Sirtuin-1 (SIRT1). Die gegenwärtige Studie liefert Anhaltspunkte dafür, dass Isothiocayanate neben dem antikanzerogenen Potential eine Rolle bei der Prävention von Typ 2 Diabetes spielen könnten. BITC-Stimulationen ahmen einen Fastenzustand nach, in dem kein Insulin-Signal ausgelöst wird, FOXO Proteine im Zellkern verbleiben und die Expression von Target-Genen modulieren, mit dem Vorteil einer Herunterregulation der Glukoneogenese anstelle seiner Zunahme. Diese Effekte legen nahe, dass BITC als vielversprechende Substanz zur Prävention und Behandlung von Typ 2 Diabetes angesehen werden könnte. Deshalb benötigen die Faktoren, die dessen modulatorische Effekte hervorrufen, weitere Untersuchungen. KW - FOXO1 KW - Benzylisothiocyanat KW - Glukosinolaten KW - type 2 diabetes KW - Zellkulturen KW - FOXO1 KW - benzylisothiocyanate KW - glucosinolates KW - type 2 diabetes KW - cell cuture Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72351 ER - TY - THES A1 - Sahyazici-Knaak, Fidan T1 - Dysfunktionale Einstellungen und Depression im Kindes- und Jugendalter T1 - Dysfunctional attitudes and depression in childhood and adolescence BT - eine längsschnittliche Analyse der dysfunktionalen Einstellungen als Ursache, Epiphänomen oder Konsequenz depressiver Symptomatik BT - a longitudinal analysis of dysfunctional attitudes as cause, epiphenomenon or consequence of the depressive symptomatology N2 - Die vorliegende Studie beschäftigte sich mit der Bedeutung der dysfunktionalen Einstellungen für die Entwicklung von depressiven Symptomen bei Kindern und Jugendlichen. Nach der kognitiven Theorie der Depression von Beck (1967, 1996) führen dysfunktionale Einstellungen in Interaktion mit Stress zu depressiven Symptomen. Es existieren allerdings nur wenige Studien, die die longitudinale Beziehung zwischen den dysfunktionalen Einstellungen und der Depressivität bei Kindern und Jugendlichen untersucht haben (Lakdawalla et al., 2007). Folglich kann noch nicht eindeutig geklärt werden, ob die dysfunktionalen Einstellungen Ursache, Begleiterscheinung oder Konsequenz der Depression sind. Als Datengrundlage diente eine Stichprobe von Kindern und Jugendlichen im Alter von 9 bis 20 Jahren, die im Rahmen der PIER-Studie zu dysfunktionalen Einstellungen, kritischen Lebensereignissen und depressiven Symptomen befragt wurden (Nt1t2 = 1.053; t1: 2011/2012, t2: 2013/2014). Querschnittliche Analysen zeigten hohe Assoziationen zwischen den dysfunktionalen Einstellungen, kritischen Lebensereignissen und depressiven Symptomen. Eine latente Moderationsanalyse wies nur bei den Jugendlichen auf signifikante Interaktion zwischen den dysfunktionalen Einstellungen und den kritischen Lebensereignissen in der Vorhersage depressiver Symptomatik hin. Im Längsschnitt zeigten latente Cross-Lagged-Panel-Analysen erwartungsgemäß, dass die dysfunktionalen Einstellungen und die Depressivität mit dem Alter immer stabilere Konstrukte darstellen, die sehr eng miteinander zusammenhängen. Eine diesem Modell hinzugefügte latente Moderationsanalyse konnte das kognitive Modell der Depression nach Beck weder bei Kindern noch bei Jugendlichen bestätigen. Die spätere depressive Symptomatik konnte lediglich durch Haupteffekte der früheren Ausprägung der Depressivität und der kritischen Lebensereignisse vorhergesagt werden. Diese Ergebnisse legen den Schluss nahe, dass es sich bei den dysfunktionalen Einstellungen eher um Begleiterscheinungen als um Risikofaktoren oder Konsequenzen der depressiven Symptomatik handelt. N2 - This study examined the meaning of dysfunctional attitudes for the development of depressive symptoms in childhood and adolescence. According to Beck’s cognitive theory of depression (1967, 1996) dysfunctional attitudes activated by stressors play a causal role in the development of depression. However, there are only a few studies which investigate the longitudinal relationship between dysfunctional attitudes and depression in children and adolescents (Lakdawalla et al., 2007). Hence, there is a lack of evidence regarding the question, whether dysfunctional attitudes are regarded as causes, concomitants or consequences of depression. In the context of the Pier Study, dysfunctional attitudes, stressful life events and depressive symptoms were assessed in children and adolescents aged 9 to 20 at two measurement points (t1: 2011/2012, t2: 2013/2014; Nt1-t2 = 1.053). Cross-sectional results revealed strong associations between dysfunctional attitudes, stressful life events and depressives symptoms. A latent moderator analysis was conducted and showed a significant interaction between dysfunctional attitudes and stressful life events in predicting depressive symptoms only for adolescents, but not for children. Longitudinally, a latent cross-lagged-panel analysis revealed that dysfunctional attitudes and depressive symptoms are stable and highly correlated constructs. A moderator analysis within this cross-lagged-panel-model couldn’t corroborate Beck’s cognitive model of depression neither in children nor in adolescents. Thus, only prior depressive symptoms and stressful life events could predict depressive symptoms. In conclusion dysfunctional attitudes are concomitants rather than causes or consequences of depression. KW - dysfunktionale Einstellungen KW - dysfunctional attitudies KW - depressive Symptome KW - depressive symptoms KW - Kinder und Jugendliche KW - children and adolescents Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76417 ER - TY - THES A1 - Ehlers, Nadja T1 - Die Entwicklung der öffentlich-rechtlichen Gefährdungshaftung in Deutschland T1 - History of strict liability under public law in Germany N2 - Inhalt der Arbeit ist es, einen Überblick über die historische Entwicklung der öffentlich-rechtlichen Gefährdungshaftung in Deutschland vom 18. Jahrhundert bis heute zu geben sowie ihre praktische Bedeutung zu analysieren. Dabei wird zwischen den unterschiedlichen Gesetzgebungen, Rechtsprechungen und den theoretischen Lösungsansätzen der öffentlich-rechtlichen Gefährdungshaftung unterschieden und insbesondere letzteres problematisiert. Ferner wird auf das Verhältnis zu den grundrechtlichen Schutzpflichten, den sozialen Risikotatbeständen, dem sozialrechtlichen Herstellungsanspruch und den Tumultschäden eingegangen. N2 - The content of this work provides an overview of the historical development of strict public liability in Germany from the 18th century to the present day and analyses its practical significance. A comparison is made between the different legislations, case laws and the theoretical approaches of strict public liability throughout this time and in particular the latter is explored. This work highlights the relationship of the strict public liability to protection obligations of fundamental rights, the social risk factors of an individual such as one´s health or the inability to work due to injury, the claim to remedial action in social matters, and the damages caused by a tumult. KW - öffentlich-rechtliche Gefährdungshaftung KW - strict liability under public law Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72381 ER - TY - THES A1 - Schultheiss, Corinna T1 - Die Bewertung der pharyngalen Schluckphase mittels Bioimpedanz T1 - The valuation of the pharyngeal phase of swallowing by means of bioimpedance BT - Evaluation eines Mess- und Diagnostikverfahrens BT - evaluation of a measuring procedure and diagnostics procedure N2 - Schlucken ist ein lebensnotwendiger Prozess, dessen Diagnose und Therapie eine enorme Herausforderung bedeutet. Die Erkennung und Beurteilung von Schlucken und Schluckstörungen erfordert den Einsatz von technisch aufwendigen Verfahren, wie Videofluoroskopie (VFSS) und fiberoptisch-endoskopische Schluckuntersuchung (FEES), die eine hohe Belastung für die Patienten darstellen. Beide Verfahren werden als Goldstandard in der Diagnostik von Schluckstörungen eingesetzt. Die Durchführung obliegt in der Regel ärztlichem Personal. Darüber hinaus erfordert die Auswertung des Bildmaterials der Diagnostik eine ausreichend hohe Erfahrung. In der Therapie findet neben den klassischen Therapiemethoden, wie z.B. diätetische Modifikationen und Schluckmanöver, auch zunehmend die funktionelle Elektrostimulation Anwendung. Ziel der vorliegenden Dissertationsschrift ist die Evaluation eines im Verbundprojekt BigDysPro entwickelten Bioimpedanz (BI)- und Elektromyographie (EMG)-Messsystems. Es wurde geprüft, ob sich das BI- und EMG-Messsystem eignet, sowohl in der Diagnostik als auch in der Therapie als eigenständiges Messsystem und im Rahmen einer Schluckneuroprothese eingesetzt zu werden. In verschiedenen Studien wurden gesunde Probanden für die Überprüfung der Reproduzierbarkeit (Intra-und Interrater-Reliabilität), der Unterscheidbarkeit von Schluck- und Kopfbewegungen und der Beeinflussung der Biosignale (BI, EMG) durch verschiedene Faktoren (Geschlecht der Probanden, Leitfähigkeit, Konsistenz und Menge der Nahrung) untersucht. Durch zusätzliche Untersuchungen mit Patienten wurde einerseits der Einfluss der Elektrodenart geprüft. Andererseits wurden parallel zur BI- und EMG-Messung auch endoskopische (FEES) und radiologische Schluckuntersuchungen (VFSS) durchgeführt, um die Korrelation der Biosignale mit der Bewegung anatomischer Strukturen (VFSS) und mit der Schluckqualität (FEES) zu prüfen. Es wurden 31 gesunde Probanden mit 1819 Schlucken und 60 Patienten mit 715 Schlucken untersucht. Die Messkurven zeigten einen typischen, reproduzierbaren Signalverlauf, der mit anatomischen und funktionellen Änderungen während der pharyngalen Schluckphase in der VFSS korrelierte (r > 0,7). Aus dem Bioimpedanzsignal konnten Merkmale extrahiert werden, die mit physiologischen Merkmalen eines Schluckes, wie verzögerter laryngealer Verschluss und Kehlkopfhebung, korrelierten und eine Einschätzung der Schluckqualität in Übereinstimmung mit der FEES ermöglichten. In den Signalverläufen der Biosignale konnten signifikante Unterschiede zwischen Schluck- und Kopfbewegungen und den Nahrungsmengen und -konsistenzen nachgewiesen werden. Im Gegensatz zur Nahrungsmenge und -konsistenz zeigte die Leitfähigkeit der zu schluckenden Nahrung, das Geschlecht der Probanden und die Art der Elektroden keinen signifikanten Einfluss auf die Messsignale. Mit den Ergebnissen der Evaluation konnte gezeigt werden, dass mit dem BI- und EMG-Messsystem ein neuartiges und nicht-invasives Verfahren zur Verfügung steht, das eine reproduzierbare Darstellung der pharyngalen Schluckphase und ihrer Veränderungen ermöglicht. Daraus ergeben sich vielseitige Einsatzmöglichkeiten in der Diagnostik, z.B. Langzeitmessung zur Schluckfrequenz und Einschätzung der Schluckqualität, und in der Therapie, z.B. der Einsatz in einer Schluckneuroprothese oder als Biofeedback zur Darstellung des Schluckes, von Schluckstörungen. N2 - Swallowing is a vital process. Its diagnosis and therapy represent enourmous medical challenges. The detection and assessment of swallows and swallowing disorders require elaborate techniques such as videofluoroscopy (VFSS) and fiberoptic endoscopic evaluation of swallowing (FEES), which entail a high burden for the patient. Both methods are currently used as a goldstandard in the diagnosis and therapy of swallowing disorders. The measurements must, in general, be performed and evaluated by experienced medical personnel. In therapy, dietary modifications and swallowing maneuvers are common methods. But also functional electrical stimulation (FES) is increasingly used. The goal of this doctoral thesis was the evaluation of the combined bioimpedance (BI) and electromyography (EMG) measurement system that was developed within the research project BigDysPro. In particular, it should be examined whether the system can be used in the diagnosis and therapy of swallowing disorders as an independent measurement system and in the context of a swallowing neuroprosthesis. Several studies were conducted with healthy subjects to assess the reproducibility of the measurements, the distinction of swallowing from head movements, and the influence of different factors (i.e. the subject's gender as well as amount, consistency, and conductivity of the food) on the bioimpedance and electromyography. In additional experiments with patients, the influence of the electrode type, i.e. surface vs. needle electrodes, was examined. Furthermore, patients were examined with FEES and VFSS in parallel measurements with the new system. Thereby, the correlation of the BI and EMG signals with movements of anatomical structures (VFSS) and with the swallowing quality (FEES) was assessed. In these studies, 31 healthy subjects with 1819 swallows and 60 patients with 715 swallows were examined. The measured signals show a typical, reproducable run of the curve, that correlates with the anatomical and functional alterations observed by videofluoroscopy during the pharyngeal phase of swallowing (r > 0, 7). From the curve of the bioimpedance, features were extracted to assess the quality of swallowing. These features were demonstrated to correlate with physiological phenomena, such as delayed laryngeal closure and larynx elevation. Therefore, they were used to assess the swallow quality in accordance with fiberoptic endoscopic examination of swallowing. Significant differences were found in the measurement signals of swallows and head movements, as well as in the signals from different food amounts and consistencies. In contrast, the conductivity of the food, the gender of the subjects, and the type of electrodes had no significant effect on the curve of the bioimpedance and the electromyography. From the results of the evaluation, it is concluded that the combined bioimpedance and electromyography measurement system represents a novel, non-invasive tool. It enables the reproducible assessment of the pharyngeal phase of swallowing. In diagnosis, the system might be used, e.g., in long-time measurements for the assessment of swallowing frequency and quality. In therapy, the method can be implemented in a swallowing neuroprosthesis or might be used in a biofeedback system. T3 - Spektrum Patholinguistik - Schriften - 7 KW - pharyngale Schluckphase KW - Schluckstörungen KW - Bioimpdanz KW - EMG KW - pharyngeal phase of swallowing KW - dysphagia KW - bioimpedance KW - emg Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69589 SN - 978-3-86956-284-1 SN - 1869-3822 SN - 1869-3830 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Heise, Arvid T1 - Data cleansing and integration operators for a parallel data analytics platform T1 - Datenreinigungs- und Integrationsoperatoren für ein paralles Datenanalyseframework N2 - The data quality of real-world datasets need to be constantly monitored and maintained to allow organizations and individuals to reliably use their data. Especially, data integration projects suffer from poor initial data quality and as a consequence consume more effort and money. Commercial products and research prototypes for data cleansing and integration help users to improve the quality of individual and combined datasets. They can be divided into either standalone systems or database management system (DBMS) extensions. On the one hand, standalone systems do not interact well with DBMS and require time-consuming data imports and exports. On the other hand, DBMS extensions are often limited by the underlying system and do not cover the full set of data cleansing and integration tasks. We overcome both limitations by implementing a concise set of five data cleansing and integration operators on the parallel data analytics platform Stratosphere. We define the semantics of the operators, present their parallel implementation, and devise optimization techniques for individual operators and combinations thereof. Users specify declarative queries in our query language METEOR with our new operators to improve the data quality of individual datasets or integrate them to larger datasets. By integrating the data cleansing operators into the higher level language layer of Stratosphere, users can easily combine cleansing operators with operators from other domains, such as information extraction, to complex data flows. Through a generic description of the operators, the Stratosphere optimizer reorders operators even from different domains to find better query plans. As a case study, we reimplemented a part of the large Open Government Data integration project GovWILD with our new operators and show that our queries run significantly faster than the original GovWILD queries, which rely on relational operators. Evaluation reveals that our operators exhibit good scalability on up to 100 cores, so that even larger inputs can be efficiently processed by scaling out to more machines. Finally, our scripts are considerably shorter than the original GovWILD scripts, which results in better maintainability of the scripts. N2 - Die Datenqualität von Realweltdaten muss ständig überwacht und gewartet werden, damit Organisationen und Individuen ihre Daten verlässlich nutzen können. Besonders Datenintegrationsprojekte leiden unter schlechter Datenqualität in den Quelldaten und benötigen somit mehr Zeit und Geld. Kommerzielle Produkte und Forschungsprototypen helfen Nutzern die Qualität in einzelnen und kombinierten Datensätzen zu verbessern. Die Systeme können in selbständige Systeme und Erweiterungen von bestehenden Datenbankmanagementsystemen (DBMS) unterteilt werden. Auf der einen Seite interagieren selbständige Systeme nicht gut mit DBMS und brauchen zeitaufwändigen Datenimport und -export. Auf der anderen Seite sind die DBMS Erweiterungen häufig durch das unterliegende System limitiert und unterstützen nicht die gesamte Bandbreite an Datenreinigungs- und -integrationsaufgaben. Wir überwinden beide Limitationen, indem wir eine Menge von häufig benötigten Datenreinigungs- und Datenintegrationsoperatoren direkt in der parallelen Datenanalyseplattform Stratosphere implementieren. Wir definieren die Semantik der Operatoren, präsentieren deren parallele Implementierung und entwickeln Optimierungstechniken für die einzelnen und mehrere Operatoren. Nutzer können deklarative Anfragen in unserer Anfragesprache METEOR mit unseren neuen Operatoren formulieren, um die Datenqualität von einzelnen Datensätzen zu erhöhen, oder um sie zu größeren Datensätzen zu integrieren. Durch die Integration der Operatoren in die Hochsprachenschicht von Stratosphere können Nutzer Datenreinigungsoperatoren einfach mit Operatoren aus anderen Domänen wie Informationsextraktion zu komplexen Datenflüssen kombinieren. Da Stratosphere Operatoren durch generische Beschreibungen in den Optimierer integriert werden, ist es für den Optimierer sogar möglich Operatoren unterschiedlicher Domänen zu vertauschen, um besseren Anfrageplänen zu ermitteln. Für eine Fallstudie haben wir Teile des großen Datenintegrationsprojektes GovWILD auf Stratosphere mit den neuen Operatoren nachimplementiert und zeigen, dass unsere Anfragen signifikant schneller laufen als die originalen GovWILD Anfragen, die sich auf relationale Operatoren verlassen. Die Evaluation zeigt, dass unsere Operatoren gut auf bis zu 100 Kernen skalieren, sodass sogar größere Datensätze effizient verarbeitet werden können, indem die Anfragen auf mehr Maschinen ausgeführt werden. Schließlich sind unsere Skripte erheblich kürzer als die originalen GovWILD Skripte, was in besserer Wartbarkeit unserer Skripte resultiert. KW - data KW - cleansing KW - holistic KW - parallel KW - map reduce KW - Datenreinigung KW - Datenintegration KW - ganzheitlich KW - parallel KW - map reduce Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77100 ER - TY - THES A1 - Loladze, Besik T1 - Das Rechtsstaatsprinzip in der Verfassung Georgiens und in der Rechtsprechung des Verfassungsgerichts Georgiens T1 - The rule of law in the Constitution of Georgia and in the jurisdiction of the Constitutional Court of Georgia N2 - Die Dissertation wird der rechtsstaatlichen Problematik in der Verfassung von Georgien und in der Rechtsprechung des Verfassungsgerichts Georgiens gewidmet und bietet eine umfangreiche Analyse der wichtigsten Rechtsstaatsmerkmale in dieser Hinsicht. Neben dieser Analyse der früheren und bestehenden Gegebenheiten, prognostiziert sie mittels der perspektivistischen Denkmodele zukünftige Entwicklungen und schlägt eventuelle Lösungswege von Problemen vor. Bei der Arbeit an der Dissertation wurde insbesondere die reiche Erfahrung der deutschen Rechtsstaatsdogmatik in Anspruch genommen. N2 - This dissertation focuses on the problems regarding the rule of law in the Constitution of Georgia and in the jurisdiction of the Constitutional Court of Georgia, and offers an extensive analysis of the most important constitutional features in this regard. Alongside this analysis of the former and current situation, this dissertation predicts future developments using perspective theoretical models and suggests potential approaches to problems. The work on this dissertation drew upon the rich experience of German constitutional dogmatics in particular. KW - Staatsrecht KW - Rechtsstaatsprinzip KW - Verfassung KW - Verfassungsgericht KW - Georgien KW - constitutional law KW - rule of law KW - constitution KW - constitutional court KW - Georgia Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75425 ER - TY - THES A1 - Feld, Christian T1 - Crustal structure of the Eratosthenes Seamount, Cyprus and S. Turkey from an amphibian wide-angle seismic profile T1 - Die Krustenstruktur von dem Eratosthenes Seeberg, Zypern und der Süd-Türkei anhand eines amphibischen seismischen Weitwinkel Profils N2 - In March 2010, the project CoCoCo (incipient COntinent-COntinent COllision) recorded a 650 km long amphibian N-S wide-angle seismic profile, extending from the Eratosthenes Seamount (ESM) across Cyprus and southern Turkey to the Anatolian plateau. The aim of the project is to reveal the impact of the transition from subduction to continent-continent collision of the African plate with the Cyprus-Anatolian plate. A visual quality check, frequency analysis and filtering were applied to the seismic data and reveal a good data quality. Subsequent first break picking, finite-differences ray tracing and inversion of the offshore wide-angle data leads to a first-arrival tomographic model. This model reveals (1) P-wave velocities lower than 6.5 km/s in the crust, (2) a variable crustal thickness of about 28 - 37 km and (3) an upper crustal reflection at 5 km depth beneath the ESM. Two land shots on Turkey, also recorded on Cyprus, airgun shots south of Cyprus and geological and previous seismic investigations provide the information to derive a layered velocity model beneath the Anatolian plateau and for the ophiolite complex on Cyprus. The analysis of the reflections provides evidence for a north-dipping plate subducting beneath Cyprus. The main features of this layered velocity model are (1) an upper and lower crust with large lateral changes of the velocity structure and thickness, (2) a Moho depth of about 38 - 45 km beneath the Anatolian plateau, (3) a shallow north-dipping subducting plate below Cyprus with an increasing dip and (4) a typical ophiolite sequence on Cyprus with a total thickness of about 12 km. The offshore-onshore seismic data complete and improve the information about the velocity structure beneath Cyprus and the deeper part of the offshore tomographic model. Thus, the wide-angle seismic data provide detailed insights into the 2-D geometry and velocity structures of the uplifted and overriding Cyprus-Anatolian plate. Subsequent gravity modelling confirms and extends the crustal P-wave velocity model. The deeper part of the subducting plate is constrained by the gravity data and has a dip angle of ~ 28°. Finally, an integrated analysis of the geophysical and geological information allows a comprehensive interpretation of the crustal structure related to the collision process. N2 - Im März 2010 wurden im Rahmen des "CoCoCo"-Projektes ein 650km langes amphibisches, seismisches Weitwinkel Profil aufgenommen. Dieses erstreckte sich von dem Eratosthenes Seeberg (ESM) über Zypern und der Süd-Türkei bis zum anatolischen Plateau. Das Hauptziel des Projektes ist es, den Einfluss zu untersuchen, der von dem Übergang eines Subduktion Prozesses hin zu einer Kontinent-Kontinent Kollision der afrikanischen Platte mit der zyprisch-anatolischen Platte hervorgerufen wird. Die seismischen Daten wurden einer visuelle Qualitätsüberprüfung, Frequenz-Analyse und Filterung unterzogen und zeigten eine gute Qualität. Das darauf folgende Picken der Ersteinstätze, eine Finite-Differenzen Raytracing und eine Inversion der offshore Weitwinkel Daten, führte zu einem Laufzeit Tomographie Model. Das Modell zeigt (1) P-Wellengeschwindigkeiten kleiner als 6.5 km/s in der Kruste, (2) eine variable Krustenmächtigkeit von 28 - 37 km und (3) eine obere Krustenreflektion in 5 km Tiefe unter dem ESM. Zwei Landschüsse in der Türkei, ebenfalls aufgenommen auf Zypern, Luftkanonen-Schüsse südlich von Zypern und vorausgegangene geologische und seismische Untersuchungen lieferten die Grundlage, um ein geschichtetes Geschwindigkeitsmodell für das anatolische Plateau und für den Ophiolith-Komplex auf Zypern abzuleiten. Die Analyse der Reflexionen liefert den Beweis für eine nach Norden einfallende Platte welche unter Zypern subduziert. Die Hauptkennzeichen dieses geschichteten Geschwindigkeitsmodelles sind (1) eine obere und untere Kruste mit starken lateral Änderungen in Geschwindigkeit und Mächtigkeit, (2) eine Mohotiefe in 38 - 45 km unter dem anatolischen Plateau, (3) eine flach nach Norden einfallende Platte unter Zypern mit ansteigendem Einfallwinkel und (4) eine typische Ophiolith Sequenz auf Zypern mit einer Gesamtmächtigkeit von 12 km. Die seismischen offshore / onshore Daten komplettieren und verbessern die bisherigen Kenntnisse über die Geschwindigkeitsstruktur unter Zypern und des tieferen Bereiches der offshore Tomographie. Damit liefert die Weitwinkel Seismik detaillierte Einblicke in die 2-D Geometrie und die Geschwindigkeitsstrukturen der angehobenen und überlagerten zyprisch-anatolischen Platte. Die darauf folgende Gravimetrie Modellierung bestätigt und erweitert das P-Wellen Krusten-Geschwindigkeits Modell. Der tiefere Teil der subduzierten Platte, welche einen Einfallswinkel von ~ 28° hat, wurde durch die Gravimetrie Daten belegt. Letztlich erlaubt eine ganzheitliche Analyse von geophysikalischen und geologischen Informationen die umfassende Interpretation der Krustenstruktur welche in Verbindung mit dem Kollisions Prozess steht. KW - incipient continent-continent collision KW - crustal structure of the Eratosthenes Seamount KW - controlled source wide angle seismic KW - crustal structure of south central Turkey KW - Cyprus arc KW - aktive Weitewinkel-Seismik KW - Krustenstruktur des Eratosthenes Seeberges KW - beginnende Kontinent-Kontinent Kollision KW - Krustenstruktur der Süd-Türkei KW - Zypernbogen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73479 ER - TY - THES A1 - Reiter, Karsten T1 - Crustal stress variability across spatial scales - examples from Canada, Northern Switzerland and a South African gold mine T1 - Die Variabilität der krustalen Spannungen auf räumlichen unterschiedlichen Skalen – Beispiele von Kanada, der Nordschweiz und einer Südafrikanischen Goldmine N2 - The quantitative descriptions of the state of stress in the Earth’s crust, and spatial-temporal stress changes are of great importance in terms of scientific questions as well as applied geotechnical issues. Human activities in the underground (boreholes, tunnels, caverns, reservoir management, etc.) have a large impact on the stress state. It is important to assess, whether these activities may lead to (unpredictable) hazards, such as induced seismicity. Equally important is the understanding of the in situ stress state in the Earth’s crust, as it allows the determination of safe well paths, already during well planning. The same goes for the optimal configuration of the injection- and production wells, where stimulation for artificial fluid path ways is necessary. The here presented cumulative dissertation consists of four separate manuscripts, which are already published, submitted or will be submitted for peer review within the next weeks. The main focus is on the investigation of the possible usage of geothermal energy in the province Alberta (Canada). A 3-D geomechanical–numerical model was designed to quantify the contemporary 3-D stress tensor in the upper crust. For the calibration of the regional model, 321 stress orientation data and 2714 stress magnitude data were collected, whereby the size and diversity of the database is unique. A calibration scheme was developed, where the model is calibrated versus the in situ stress data stepwise for each data type and gradually optimized using statistically test methods. The optimum displacement on the model boundaries can be determined by bivariate linear regression, based on only three model runs with varying deformation ratio. The best-fit model is able to predict most of the in situ stress data quite well. Thus, the model can provide the full stress tensor along any chosen virtual well paths. This can be used to optimize the orientation of horizontal wells, which e.g. can be used for reservoir stimulation. The model confirms regional deviations from the average stress orientation trend, such as in the region of the Peace River Arch and the Bow Island Arch. In the context of data compilation for the Alberta stress model, the Canadian database of the World Stress Map (WSM) could be expanded by including 514 new data records. This publication of an update of the Canadian stress map after ~20 years with a specific focus on Alberta shows, that the maximum horizontal stress (SHmax) is oriented southwest to northeast over large areas in Northern America. The SHmax orientation in Alberta is very homogeneous, with an average of about 47°. In order to calculate the average SHmax orientation on a regular grid as well as to estimate the wave-length of stress orientation, an existing algorithm has been improved and is applied to the Canadian data. The newly introduced quasi interquartile range on the circle (QIROC) improves the variance estimation of periodic data, as it is less susceptible to its outliers. Another geomechanical–numerical model was built to estimate the 3D stress tensor in the target area ”Nördlich Lägern” in Northern Switzerland. This location, with Opalinus clay as a host rock, is a potential repository site for high-level radioactive waste. The performed modelling aims to investigate the sensitivity of the stress tensor on tectonic shortening, topography, faults and variable rock properties within the Mesozoic sedimentary stack, according to the required stability needed for a suitable radioactive waste disposal site. The majority of the tectonic stresses caused by the far-field shortening from the South are admitted by the competent rock units in the footwall and hanging wall of the argillaceous target horizon, the Upper Malm and Upper Muschelkalk. Thus, the differential stress within the host rock remains relatively low. East-west striking faults release stresses driven by tectonic shortening. The purely gravitational influence by the topography is low; higher SHmax magnitudes below topographical depression and lower values below hills are mainly observed near the surface. A complete calibration of the model is not possible, as no stress magnitude data are available for calibration, yet. The collection of this data will begin in 2015; subsequently they will be used to adjust the geomechanical–numerical model again. The third geomechanical–numerical model investigates the stress variation in an ultra-deep gold mine in South Africa. This reservoir model is spatially one order of magnitude smaller than the previous local model from Northern Switzerland. Here, the primary focus is to investigate the hypothesis that the Mw 1.9 earthquake on 27 December 2007 was induced by stress changes due to the mining process. The Coulomb failure stress change (DeltaCFS) was used to analyse the stress change. It confirmed that the seismic event was induced by static stress transfer due to the mining progress. The rock was brought closer to failure on the derived rupture plane by stress changes of up to 1.5–15MPa, in dependence of the DeltaCFS analysis type. A forward modelling of a generic excavation scheme reveals that with decreasing distance to the dyke the DeltaCFS values increase significantly. Hence, even small changes in the mining progress can have a significant impact on the seismic hazard risk, i.e. the change of the occurrence probability to induce a seismic event of economic concern. N2 - Die quantitative Beschreibung des Spannungszustandes in der Erdkruste sowie dessen räumlichzeitliche Änderung ist von großer Bedeutung für wissenschaftliche Fragestellungen, sowie für industrielle Anwendung im geotechnischen Bereich. Bei jedem Eingriff des Menschen in den Untergrund (Bohrungen, Tunnel, Kavernen, Reservoirmanagement etc.) wird der Spannungszustand verändert. Entscheidend ist dabei, ob davon möglicherweise (unvorhersehbare) Gefahren, wie zum Beispiel induzierte Seismizität ausgehen können. Genauso wichtig ist auch ein Verständnis des ungestörten Spannungszustandes in der Erdkruste, um zum Beispiel sichere Bohrlochpfade bereits in der Planungsphase zu bestimmen. Selbiges gilt für eine optimale Konfiguration von Injektions- und Produktionsbohrung, wenn künstliche Fluidwegsamkeiten stimuliert werden müssen. Die vorliegende kumulative Dissertation besteht aus vier Manuskripten, welche teilweise bereits publiziert sind. Fokus der beiden ersten Publikationen ist die potentielle Nutzung von Geothermie in der Provinz Alberta (Kanada). Dafür wurde ein 3-D-geomechanisch-numerisches Modell erstellt, das den kompletten gegenwärtigen 3-D-Spannungstensor in der oberen Erdkruste quantifiziert. Für die Kalibrierung des regionalen Modells wurde ein Datensatz von 321 Spannungsorientierungen und 2714 Spannungsmagnituden zusammengetragen, dessen Größe und Diversität einmalig ist. Aufgrund der vorhandenen Datenbasis wurde ein Kalibrierungsschema entwickelt, bei dem das Modell statistisch abgesichert an jedem einzelnen vorhandenen Datentyp schrittweise getestet und optimiert wird. Das optimale Verhältnis der Randbedingungen des Modells kann dabei durch bivariate lineare Regression, auf der Basis von nur drei Modellläufen bestimmt werden. Das Best-fit-Modell kann den Großteil der in situ Spannungsdaten sehr gut reproduzieren. So kann das Modell den 3-D-Spannungstensor entlang beliebiger virtueller Bohrlochpfade liefern, die zum Beispiel für die Planung der optimalen Orientierung horizontaler Stimulationsbohrungen genutzt werden können. Das Modell bestätigt regionale Abweichungen der Spannungsorientierung vom generellen Trend, wie z.B. in der Region des Peace River Bogens und des Bow Island Bogen. Im Zusammenhang mit der Erstellung des Alberta-Spannungsmodells wurde die Datenbank der Weltspannungskarte (WSM) in der Region Kanada um 514 neue Datensätzen erweitert und alle bestehenden Datensätze überprüft. Dies ermöglichte es nach ca. 20 Jahren, eine aktualisierte Spannungskarte für Kanada mit einem vertiefenden Fokus auf die Provinz Alberta zu publizieren. Die maximale horizontale Spannung (SHmax) in weiten Teilen Nordamerikas ist Südwest nach Nordost orientiert. Die SHmax Orientierung in Alberta ist sehr homogen, im Mittel etwa 47°. Zur Berechnung der mittleren SHmax–Orientierung auf einem regelmäßigen Gitter und zur Ableitung des Spannungsmusters dieser Orientierung wurde ein existierender Algorithmus verbessert und auf den kanadischen Datensatz angewendet. Dabei wurde der Quasi Interquartilsabstand am Kreis (QIROC) neu eingeführt, um die Varianz eines periodischen Datensatzes besser abschätzen zu können. Der modifizierte Algorithmus ist weniger anfällig gegenüber Ausreißern in periodischen Datensätzen, als der Vorgänger. Ein weiteres geomechanisch-numerisches Modell zur kontinuierlichen Beschreibung des 3-D-Spannungstensors wurde für das Gebiet „Nördlich Lägern” in der Nordschweiz erstellt. Diese Region ist ein potentieller Endlagerstandort für hochradioaktiven Abfall, eingelagert im Wirtsgestein Opalinuston. Der Fokus des Modells ist es, die Sensitivität des Spannungsfeldes von tektonischem Schub, Topographie, Störungen und den variablen Gesteinseigenschaften im mesozoischen Sedimentstapel auf den Spannungstensor zu untersuchen. Der Hauptanteil der tektonischen Spannungen, verursacht durch den Fernfeldschub von Süden, wird vor allem durch die mechanisch kompetenten Schichten im Liegenden und Hangenden des tonigen Zielhorizontes, dem Oberen Malm und dem Oberen Muschelkalk aufgenommen. Dadurch bleiben die Differenzspannungen in den tonigen Formationen relativ gering. Ost-West streichende Störungen bauen zudem Spannungen des Fernfeldes ab. Der rein gravitative Einfluss der Topographie ist gering; höhere SHmax–Magnituden unterhalb topographischer Depressionen und geringere Werte unter Anhöhen sind vor allem oberflächennah zu beobachten. Eine Kalibrierung des Modells ist nicht abschließend möglich, da im Untersuchungsgebiet keine Spannungsmagnituden zur Verfügung stehen. Diese werden erst in der nächsten Etappe der Endlagersuche, die in 2015 beginnen wird erhoben, sodass das Modell dann gegebenenfalls angepasst werden muss. Das dritte geomechanisch-numerische Modell eines Abschnitts einer tiefliegenden Goldmine in Südafrika ist räumlich gesehen nochmals eine Größenordnung kleiner als das vorherige lokale Modell in der Nordschweiz. Es wurde die Hypothese untersucht, ob das Mw 1.9 Erdbeben am 27. Dezember 2007 durch den Abbau verursacht wurde. Die Analyse der durch die Abbautätigkeit umgelagerten Spannungen unter Nutzung der Spannungsänderung des Coulomb Versagenskriteriums (DeltaCFS) zeigt klar, dass das seismische Ereignis induziert wurde. Das Gestein wurde entlang der Bruchfläche um 1.5 bis 15MPa dem Versagen näher gebracht, je nachdem welche DeltaCFS Analysemethode angewendet wird und unter Berücksichtigung der Unsicherheiten in der Orientierung der Herdflächenlösung sowie der Modellparameter. Eine Vorwärtsmodellierung eines generischen Abbauprozesses zeigt exponentiell steigende DeltaCFS–Werte mit abnehmender Distanz des Abbaus zu dem magmatischen Aufstiegskanal, in dem das Beben stattfand. Folglich haben geringe Änderungen des Abbauprozesses entscheidenden Einfluss auf die Eintretenswahrscheinlichkeit eines seismischen Ereignisses. KW - stress pattern KW - tectonic stress KW - circular statistics KW - 3D geomechanical numerical model KW - crustal stress KW - tektonische Spannungen KW - Spannungsmuster KW - krustale Spannungen KW - zirkulare Statistik KW - 3D geomechanisch-nummerische Modellierung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76762 ER - TY - THES A1 - Balzer, Arnim T1 - Crab flare observations with H.E.S.S. phase II T1 - Crab Flare Observations with H.E.S.S. Phase II N2 - The H.E.S.S. array is a third generation Imaging Atmospheric Cherenkov Telescope (IACT) array. It is located in the Khomas Highland in Namibia, and measures very high energy (VHE) gamma-rays. In Phase I, the array started data taking in 2004 with its four identical 13 m telescopes. Since then, H.E.S.S. has emerged as the most successful IACT experiment to date. Among the almost 150 sources of VHE gamma-ray radiation found so far, even the oldest detection, the Crab Nebula, keeps surprising the scientific community with unexplained phenomena such as the recently discovered very energetic flares of high energy gamma-ray radiation. During its most recent flare, which was detected by the Fermi satellite in March 2013, the Crab Nebula was simultaneously observed with the H.E.S.S. array for six nights. The results of the observations will be discussed in detail during the course of this work. During the nights of the flare, the new 24 m × 32 m H.E.S.S. II telescope was still being commissioned, but participated in the data taking for one night. To be able to reconstruct and analyze the data of the H.E.S.S. Phase II array, the algorithms and software used by the H.E.S.S. Phase I array had to be adapted. The most prominent advanced shower reconstruction technique developed by de Naurois and Rolland, the template-based model analysis, compares real shower images taken by the Cherenkov telescope cameras with shower templates obtained using a semi-analytical model. To find the best fitting image, and, therefore, the relevant parameters that describe the air shower best, a pixel-wise log-likelihood fit is done. The adaptation of this advanced shower reconstruction technique to the heterogeneous H.E.S.S. Phase II array for stereo events (i.e. air showers seen by at least two telescopes of any kind), its performance using MonteCarlo simulations as well as its application to real data will be described. N2 - Das H.E.S.S. Experiment misst sehr hochenergetische Gammastrahlung im Khomas Hochland von Namibia. Es ist ein sogenanntes abbildendes atmosphärisches Cherenkov-Teleskopsystem welches in der 1. Phase, die im Jahr 2004 mit der Datennahme begann, aus vier identischen 13 m Spiegelteleskopen bestand. Seitdem hat sich H.E.S.S. als das erfolgreichstes Experiment in der bodengebundenen Gammastrahlungsastronomie etabliert. Selbst die älteste der mittlerweile fast 150 entdeckten Quellen von sehr hochenergetischer Gammastrahlung, der Krebsnebel, fasziniert immernoch Wissenschaftler mit neuen bisher unbekannten und unerwarteten Phänomenen. Ein Beispiel dafür sind die vor kurzem entdeckten sehr energiereichen Ausbrüche von hochenergetischer Gammastrahlung. Bei dem letzten deratigen Ausbruch des Krebsnebels im März 2013 hat das H.E.S.S. Experiment für sechs Nächte simultan mit dem Fermi-Satelliten, welcher den Ausbruch entdeckte, Daten genommen. Die Analyse der Daten, deren Ergebnis und deren Interpretation werden im Detail in dieser Arbeit vorgestellt. Während dieser Beobachtungen befand sich ein neues 24 m × 32 m großes Spiegelteleskop, das H.E.S.S. II- Teleskop, noch in seiner Inbetriebnahme, trotzdem hat es für eine dieser sechs Nächte an der Datennahme des gesamten Teleskopsystems teilgenommen. Um die Daten rekonstruieren und analysieren zu können, mussten die für die 1. Phase des Experiments entwickelten Algorithmen und die Software des H.E.S.S.- Experiments angepasst werden. Die fortschrittlichste Schauerrekonstruktionsmethode, welche von de Naurois und Rolland entwickelt wurde, basiert auf dem Vergleich von echten Schauerbildern, die mit Hilfe der Cherenkov-Kameras der einzelnen Teleskope aufgenommen wurden, mit Schauerschablonen die mit Hilfe eines semianalytischen Modells erzeugt wurden. Das am besten passende Bild und damit auch alle relevanten Schauerparameter, wird mit Hilfe einer pixelweisen Loglikelihood-Anpassung ermittelt. Die nötigen Änderungen um Multiteleskopereignisse, welche vom heterogenen H.E.S.S. Phase II Detektor gemessen wurden, mit Hilfe dieser fortschrittlichen Schauerrekonstruktionsmethode analysieren zu können, sowie die resultierenden Ergebnisse von MonteCarlo-Simulationen, als auch die Anwendung auf echte Daten, werden im Rahmen dieser Arbeit präsentiert. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72545 ER - TY - THES A1 - Steinhaus, Sebastian Peter T1 - Constructing quantum spacetime T1 - Konstruktion der Quantenraumzeit BT - relation to classical gravity BT - Relation zur klassischen Gravitation N2 - Despite remarkable progress made in the past century, which has revolutionized our understanding of the universe, there are numerous open questions left in theoretical physics. Particularly important is the fact that the theories describing the fundamental interactions of nature are incompatible. Einstein's theory of general relative describes gravity as a dynamical spacetime, which is curved by matter and whose curvature determines the motion of matter. On the other hand we have quantum field theory, in form of the standard model of particle physics, where particles interact via the remaining interactions - electromagnetic, weak and strong interaction - on a flat, static spacetime without gravity. A theory of quantum gravity is hoped to cure this incompatibility by heuristically replacing classical spacetime by quantum spacetime'. Several approaches exist attempting to define such a theory with differing underlying premises and ideas, where it is not clear which is to be preferred. Yet a minimal requirement is the compatibility with the classical theory, they attempt to generalize. Interestingly many of these models rely on discrete structures in their definition or postulate discreteness of spacetime to be fundamental. Besides the direct advantages discretisations provide, e.g. permitting numerical simulations, they come with serious caveats requiring thorough investigation: In general discretisations break fundamental diffeomorphism symmetry of gravity and are generically not unique. Both complicates establishing the connection to the classical continuum theory. The main focus of this thesis lies in the investigation of this relation for spin foam models. This is done on different levels of the discretisation / triangulation, ranging from few simplices up to the continuum limit. In the regime of very few simplices we confirm and deepen the connection of spin foam models to discrete gravity. Moreover, we discuss dynamical, e.g. diffeomorphism invariance in the discrete, to fix the ambiguities of the models. In order to satisfy these conditions, the discrete models have to be improved in a renormalisation procedure, which also allows us to study their continuum dynamics. Applied to simplified spin foam models, we uncover a rich, non--trivial fixed point structure, which we summarize in a phase diagram. Inspired by these methods, we propose a method to consistently construct the continuum theory, which comes with a unique vacuum state. N2 - Trotz bemerkenswerter Fortschritte im vergangenen Jahrhundert, die unser Verständnis des Universums revolutioniert haben, gibt es noch zahlreiche ungeklärte Fragen in der theoretischen Physik. Besondere Bedeutung kommt der Tatsache zu, dass die Theorien, welche die fundamentalen Wechselwirkungen der Natur beschreiben, inkompatibel sind. Nach Einsteins allgemeiner Relativitätstheorie wird die Gravitation durch eine dynamische Raumzeit dargestellt, die von Materie gekrümmt wird und ihrerseits durch die Krümmung die Bewegung der Materie bestimmt. Dem gegenüber steht die Quantenfeldtheorie, die die verbliebenen Wechselwirkungen - elektromagnetische, schwache und starke Wechselwirkung - im Standardmodell der Teilchenphysik beschreibt, in dem Teilchen auf einer statischen Raumzeit -- ohne Gravitation -- miteinander interagieren. Die Hoffnung ist, dass eine Theorie der Quantengravitation diese Inkompatibilität beheben kann, indem, heuristisch, die klassische Raumzeit durch eine 'Quantenraumzeit' ersetzt wird. Es gibt zahlreiche Ansätze eine solche Theorie zu definieren, die auf unterschiedlichen Prämissen und Ideen beruhen, wobei a priori nicht klar ist, welche zu bevorzugen sind. Eine Minimalanforderung an diese Theorien ist Kompatibilität mit der klassischen Theorie, die sie verallgemeinern sollen. Interessanterweise basieren zahlreiche Modelle in ihrer Definition auf Diskretisierungen oder postulieren eine fundamentale Diskretheit der Raumzeit. Neben den unmittelbaren Vorteilen, die Diskretisierungen bieten, z.B. das Ermöglichen numerischer Simulationen, gibt es auch gravierende Nachteile, die einer ausführlichen Untersuchung bedürfen: Im Allgemeinen brechen Diskretisierungen die fundamentale Diffeomorphismensymmetrie der Gravitation und sind in der Regel nicht eindeutig definiert. Beides erschwert die Wiederherstellung der Verbindung zur klassischen, kontinuierlichen Theorie. Das Hauptaugenmerk dieser Doktorarbeit liegt darin diese Verbindung insbesondere für Spin-Schaum-Modelle (spin foam models) zu untersuchen. Dies geschieht auf sehr verschiedenen Ebenen der Diskretisierung / Triangulierung, angefangen bei wenigen Simplizes bis hin zum Kontinuumslimes. Im Regime weniger Simplizes wird die bekannte Verbindung von Spin--Schaum--Modellen zu diskreter Gravitation bestätigt und vertieft. Außerdem diskutieren wir dynamische Prinzipien, z.B. Diffeomorphismeninvarianz im Diskreten, um die Ambiguitäten der Modelle zu fixieren. Um diese Bedingungen zu erfüllen, müssen die diskreten Modelle durch Renormierungsverfahren verbessert werden, wodurch wir auch ihre Kontinuumsdynamik untersuchen können. Angewandt auf vereinfachte Spin-Schaum-Modelle finden wir eine reichhaltige, nicht-triviale Fixpunkt-Struktur, die wir in einem Phasendiagramm zusammenfassen. Inspiriert von diesen Methoden schlagen wir zu guter Letzt eine konsistente Konstruktionsmethode für die Kontinuumstheorie vor, die einen eindeutigen Vakuumszustand definiert. KW - Quantengravitation KW - Spin-Schaum-Modelle KW - Regge Kalkül KW - Renormierung KW - Verfeinerungslimes KW - quantum gravity KW - spin foams KW - regge calculus KW - renormalization and refinement limit Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72558 ER - TY - THES A1 - Brandt-Kobele, Oda-Christina T1 - Comprehension of verb inflection in German-speaking children T1 - Das Verständnis von Verbflexionsendungen bei deutschsprachigen Kindern N2 - Previous studies on the acquisition of verb inflection in normally developing children have revealed an astonishing pattern: children use correctly inflected verbs in their own speech but fail to make use of verb inflections when comprehending sentences uttered by others. Thus, a three-year old might well be able to say something like ‘The cat sleeps on the bed’, but fails to understand that the same sentence, when uttered by another person, refers to only one sleeping cat but not more than one. The previous studies that have examined children's comprehension of verb inflections have employed a variant of a picture selection task in which the child was asked to explicitly indicate (via pointing) what semantic meaning she had inferred from the test sentence. Recent research on other linguistic structures, such as pronouns or focus particles, has indicated that earlier comprehension abilities can be found when methods are used that do not require an explicit reaction, like preferential looking tasks. This dissertation aimed to examine whether children are truly not able to understand the connection the the verb form and the meaning of the sentence subject until the age of five years or whether earlier comprehension can be found when a different measure, preferential looking, is used. Additionally, children's processing of subject-verb agreement violations was examined. The three experiments of this thesis that examined children's comprehension of verb inflections revealed the following: German-speaking three- to four-year old children looked more to a picture showing one actor when hearing a sentence with a singular inflected verb but only when their eye gaze was tracked and they did not have to perform a picture selection task. When they were asked to point to the matching picture, they performed at chance-level. This pattern indicates asymmetries in children's language performance even within the receptive modality. The fourth experiment examined sensitivity to subject-verb agreement violations and did not reveal evidence for sensitivity toward agreement violations in three- and four-year old children, but only found that children's looking patterns were influenced by the grammatical violations at the age of five. The results from these experiments are discussed in relation to the existence of a production-comprehension asymmetry in the use of verb inflections and children's underlying grammatical knowledge. N2 - Experimentelle Studien zum Erwerb der Verbflexion bei sprachunauffälligen Kindern haben ein überraschendes Muster aufgezeigt. Kinder im Alter von drei und vier Jahren verwenden Verbflexionsendungen anscheinend korrekt in ihrer eigenen Sprachproduktion, aber sie scheinen unfähig zu sein, Verbflexionen in den Äußerungen anderer zu verstehen. Ein Kind ist also problemlos in der Lage “Sie schläft auf dem Bett.” zu sagen, wenn es die Position von z. B. einer Katze beschreiben möchte. Gleichzeitig scheint es nicht zu verstehen, dass sich ein Satz wie “Sie schläft auf dem Bett” auf nur eine schlafende Katze und nicht mehrere bezieht. Das Verständnis von Sätzen, in denen der einzige Hinweis auf die Anzahl der Handelnden (den Numerus des Subjekts) die Verbflexion ist, wurde bislang nur mit ‘Zeige-Experimenten’ untersucht. In solchen Sprachtests soll das Kind durch eine Zeigegeste auf eines von zwei vorgegebenen Bildern explizit anzeigen wie es den vorgegebenen Satz verstanden hat. Aktuelle Studien, die das Verständnis von sprachlichen Elementen wie Pronomen und Fokuspartikeln bei Kindern untersucht haben, lassen erkennen, dass die Testmethodik einen erheblichen Einfluss auf die kindlichen Sprachverständnisfähigkeiten zu haben scheint. Wenn man Methoden verwendet, die keine explizite Reaktion von Seiten der Kinder verlangen, findet man korrektes Verständnis schon bei jüngeren Kindern. Das Ziel dieser Dissertation war es zu untersuchen, ob drei- und vierjährige Kinder tatsächlich nicht in der Lage sind die Beziehung zwischen Verbform (Art der Verbflexion) und Subjektbedeutung (Numerus des Subjekts) zu verstehen oder ob man korrektes Sprachverständnis in jüngeren Populationen finden kann, wenn eine alternative Testmethode, die Messung der Augenbewegungen, verwendet wird. Zusätzlich wurde untersucht ob Kinder im gleichen Alter Verletzungen der Subjekt-Verb-Kongruenz in auditiv präsentierten Sätzen entdecken. Drei Experimente dieser Dissertation, die das kindliche Sprachverständnis in Bezug auf Verbflexion untersucht haben bringen folgendes Muster zum Vorschein: Deutsch-sprachige Kinder im Alter von drei bis vier Jahren schauten mehr zu einem Bild, auf dem nur ein Akteur zu sehen war, wenn sie einen Satz mit einem singular flektierten Verb hörten (Sie streichelt eine Katze). Andererseits schauten sie mehr zu einem Bild, auf dem zwei Akteure zu sehen waren, wenn sie einen Satz mit einem plural flektierten Verb hörten (Sie streicheln eine Katze). Wenn sie hingegen gebeten wurden, auf das korrekte Bild zu zeigen, reagierten sie nicht besser als es der Zufall erwartet hätte, d.h.~sie waren nicht in der Lage einen Satz einem entsprechenden Bild zuzuordnen. Dieses Ergebnismuster deutet auf die Existenz von (methoden-abhängigen) Asymmetrien innerhalb einer sprachlichen Modalität, dem Sprach\-verständnis, hin. Das vierte Experiment untersuchte die kindliche Sensitivität gegenüber der Verletzung von Subjekt-Verb-Kongruenz. Hier zeigte sich, dass das Blickverhalten von fünfjährigen Kindern von der Grammatikalität der Testsätze beeinflusst war, während keine Evidenz für das Erkennen von Grammatikalitätsverletzungen bei jüngeren Kindern gefunden werden konnte. Das asymmetrische Performanzmuster innerhalb der rezeptiven Modalität, das in dieser Arbeit gefunden wurde, erlaubt Rückschlüsse auf die Annahme einer Produktions-Verständnis-Aymmetrie und somit auch auf Theorien zur grammatischen Entwicklung bei Kindern. T3 - Spektrum Patholinguistik - Schriften - 6 KW - Spracherwerb KW - Verbflexion KW - Blickbewegungsmessung KW - Methoden KW - Sprachverständnis KW - Language acquisition KW - verb inflection KW - eye-tracking KW - methods KW - language comprehension Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62046 SN - 978-3-86956-216-2 SN - 1869-3822 SN - 1869-3830 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Yeldesbay, Azamat T1 - Complex regimes of synchronization T1 - Komplexe Synchronisationszustände BT - modeling and analysis N2 - Synchronization is a fundamental phenomenon in nature. It can be considered as a general property of self-sustained oscillators to adjust their rhythm in the presence of an interaction. In this work we investigate complex regimes of synchronization phenomena by means of theoretical analysis, numerical modeling, as well as practical analysis of experimental data. As a subject of our investigation we consider chimera state, where due to spontaneous symmetry-breaking of an initially homogeneous oscillators lattice split the system into two parts with different dynamics. Chimera state as a new synchronization phenomenon was first found in non-locally coupled oscillators system, and has attracted a lot of attention in the last decade. However, the recent studies indicate that this state is also possible in globally coupled systems. In the first part of this work, we show under which conditions the chimera-like state appears in a system of globally coupled identical oscillators with intrinsic delayed feedback. The results of the research explain how initially monostable oscillators became effectivly bistable in the presence of the coupling and create a mean field that sustain the coexistence of synchronized and desynchronized states. Also we discuss other examples, where chimera-like state appears due to frequency dependence of the phase shift in the bistable system. In the second part, we make further investigation of this topic by modeling influence of an external periodic force to an oscillator with intrinsic delayed feedback. We made stability analysis of the synchronized state and constructed Arnold tongues. The results explain formation of the chimera-like state and hysteric behavior of the synchronization area. Also, we consider two sets of parameters of the oscillator with symmetric and asymmetric Arnold tongues, that correspond to mono- and bi-stable regimes of the oscillator. In the third part, we demonstrate the results of the work, which was done in collaboration with our colleagues from Psychology Department of University of Potsdam. The project aimed to study the effect of the cardiac rhythm on human perception of time using synchronization analysis. From our part, we made a statistical analysis of the data obtained from the conducted experiment on free time interval reproduction task. We examined how ones heartbeat influences the time perception and searched for possible phase synchronization between heartbeat cycles and time reproduction responses. The findings support the prediction that cardiac cycles can serve as input signals, and is used for reproduction of time intervals in the range of several seconds. N2 - Synchronisation ist ein fundamentales Naturphänomen. Es ist die grundlegende Eigenschaft sich selbsterhaltender Oszillatoren, in Gegenwart einer Wechselwirkung, danach zu streben, ihre Rhythmen anzupassen. In dieser Arbeit betrachten wir komplexe Synchronisationszustände sowohl mit Hilfe analytischer Methoden als auch durch numerische Simulation und in experimentellen Daten. Unser Untersuchungsobjekt sind die sogenannten Chimera Zustände, in welchen sich Ensemble von gekoppelten, identischen Oszillatoren auf Grund eines Symmetriebruches spontan in Gruppen mit unterschiedlicher Dynamik aufteilen. Die Entdeckung von Chimeras in zunächst nichtlokal gekoppelten Systemen hat in den letzten zehn Jahren ein großes Interesse an neuartigen Synchronisationsphänomenen geweckt. Neueste Forschungsergebnisse belegen, dass diese Zustände unter bestimmten Bedingungen auch in global gekoppelten Systemen existieren können. Solche Bedingungen werden im ersten Teil der Arbeit in Ensemblen global gekoppelter Oszillatoren mit zusätzlicher, zeitverzögerter Selbstkopplung untersucht. Wir zeigen, wie zunächst monostabile Oszillatoren in Gegenwart von dem Treiben der globalen Kopplung effektiv bistabil werden, und sich so in zwei Gruppen organisieren. Das mittlere Feld, welches durch diese Gruppen aufgebaut wird, ist quasiperiodisch wodurch der Chimera Zustand sich selbst stabilisiert. In einem anderen Beispiel zeigen wir, dass der Chimera Zustand auch durch einen frequenzabhängigen Phasenunterschied in der globalen Kopplung erreicht werden kann. Zur genaueren Untersuchung der Mechanismen, die zur effektiven Bistabilität führen, betrachten wir im zweiten Teil der Arbeit den Einfluss einer externen periodischen Kraft auf einzelne Oszillatoren mit zeitverzögerter Selbstkopplung. Wir führen die Stabilitätanalyse des synchronen Zustands durch, und stellen die Arnoldzunge dar. Im dritten Teil der Arbeit stellen wir die Ergebnisse einer Synchronisationsanalyse vor, welche in Kooperation mit Wissenschaftlern der Psychologischen Fakultät der Universität Potsdam durchgeführt wurde. In dem Projekt wurde die Auswirkung des Herzrhythmus auf die menschliche Zeitwahrnehmung erforscht. Unsere Aufgabe war es, die experimentellen Daten statistisch zu analysieren. Im Experiment sollten Probanden ein gegebenes Zeitintervall reproduzieren während gleichzeitig ihr Herzschlag aufgezeichnet wurde. Durch eine Phasenanalyse haben wir den Zusammenhang zwischen dem Herzschlag und der Start- bzw. Stoppzeit der zu reproduzierenden Zeitintervalle untersucht. Es stellt sich heraus, dass Herzschläge bei Zeitintervallen über einige Sekunden als Taktgeber dienen können. KW - synchronization KW - phase oscillators KW - chimera state KW - time perception KW - Synchronisation KW - Phasen Oszillatoren KW - chimera Zustände KW - zeitverzögerte Selbstkopplung KW - Synchronisationsanalyse KW - Zeitwahrnehmung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73348 ER - TY - THES A1 - Jüppner, Jessica T1 - Characterization of metabolomic dynamics in synchronized Chlamydomonas reinhardtii cell cultures and the impact of TOR inhibition on cell cycle, proliferation and growth T1 - Charakterisierung der metabolischen Dynamik in synchronisierten Chlamydomonas reinhardtii Zellkulturen und der Einfluss der TOR-Inhibition auf Zellzyklus, Proliferation und Wachstum N2 - The adaptation of cell growth and proliferation to environmental changes is essential for the surviving of biological systems. The evolutionary conserved Ser/Thr protein kinase “Target of Rapamycin” (TOR) has emerged as a major signaling node that integrates the sensing of numerous growth signals to the coordinated regulation of cellular metabolism and growth. Although the TOR signaling pathway has been widely studied in heterotrophic organisms, the research on TOR in photosynthetic eukaryotes has been hampered by the reported land plant resistance to rapamycin. Thus, the finding that Chlamydomonas reinhardtii is sensitive to rapamycin, establish this unicellular green alga as a useful model system to investigate TOR signaling in photosynthetic eukaryotes. The observation that rapamycin does not fully arrest Chlamydomonas growth, which is different from observations made in other organisms, prompted us to investigate the regulatory function of TOR in Chlamydomonas in context of the cell cycle. Therefore, a growth system that allowed synchronously growth under widely unperturbed cultivation in a fermenter system was set up and the synchronized cells were characterized in detail. In a highly resolved kinetic study, the synchronized cells were analyzed for their changes in cytological parameters as cell number and size distribution and their starch content. Furthermore, we applied mass spectrometric analysis for profiling of primary and lipid metabolism. This system was then used to analyze the response dynamics of the Chlamydomonas metabolome and lipidome to TOR-inhibition by rapamycin The results show that TOR inhibition reduces cell growth, delays cell division and daughter cell release and results in a 50% reduced cell number at the end of the cell cycle. Consistent with the growth phenotype we observed strong changes in carbon and nitrogen partitioning in the direction of rapid conversion into carbon and nitrogen storage through an accumulation of starch, triacylglycerol and arginine. Interestingly, it seems that the conversion of carbon into triacylglycerol occurred faster than into starch after TOR inhibition, which may indicate a more dominant role of TOR in the regulation of TAG biosynthesis than in the regulation of starch. This study clearly shows, for the first time, a complex picture of metabolic and lipidomic dynamically changes during the cell cycle of Chlamydomonas reinhardtii and furthermore reveals a complex regulation and adjustment of metabolite pools and lipid composition in response to TOR inhibition. N2 - Die Anpassung der Wachstumsrate an Umweltveränderungen ist essentiell für das Überleben biologischer Systeme. Mit der Identifikation der evolutionär konservierten Serin/Threonin Kinase “Target of Rapamycin” (TOR) war ein zentraler Regulator gefunden, der in Abhängigkeit einer Vielzahl von Wachstumsfaktoren den zellulären Metabolismus und das Wachstum reguliert. Während zum heutigen Zeitpunkt schon relativ gute Kenntnisse über die Funktionen und Signalwege dieser Kinase in heterotrophen Organismen gewonnen werden konnten, wurden die Untersuchungen des TOR-Signalweges in photoautotrophen Organismen durch deren Resistenz gegenüber dem TOR-spezifischen Inhibitor Rapamycin für lange Zeit erschwert. Daher bietet die Entdeckung, dass die einzelligen Grünalge Chlamydomonas reinhardtii eine natürliche Sensitivität gegenüber Rapamycin aufweist, eine gute Grundlage zur Erforschung des TOR-Signalweges in photosynthetisch aktiven Eukaryoten. Aufgrund der Beobachtung, dass das Wachstum von Chlamydomonas nicht vollständig durch Rapamycin inhibiert werden konnte, was im Gegensatz zu Beobachtungen in anderen Organismen steht, entschieden wir uns für eine detailliertere Analyse des Einflusses von TOR auf den Zellzyklus. Dazu wurde ein System etabliert das eine Synchronisation der Zellen unter weitestgehend ungestörten Bedingungen in einem Fermenter-system erlaubte. Dieses System wurde dann für eine detaillierte Charakterisierung der synchronisierten Zellen genutzt. Mittels einer hochaufgelösten Zeitreihe wurden Veränderungen zytologischer Parameter (Zellzahl und Zellgrößenverteilung) und des Stärkegehalts analysiert. Zusätzlich wurden massenspektrometrische Verfahren zur Analyse des Primär- und Lipidmetabolismus verwendet. Dieses System wurde des Weiteren dazu genutzt dynamische Veränderungen im Metabolom und Lipidom von Chlamydomonas nach Inhibition der TOR Kinase durch Rapamycin zu untersuchen Die Ergebnisse der TOR-Inhibition zeigen ein vermindertes Wachstum, eine Verzögerung in der Zellteilung und der Entlassung der Tochterzellen und resultieren in einer um 50% verringerten Zellzahl am Ende des Zellzyklus. Des Weiteren konnte eine Akkumulation von Kohlenstoff– und Stickstoff-Reserven in Form von Stärke und Triacylglyceriden, sowie Arginin beobachtet werden. Dabei ist vor allem interessant, dass die der Einbau von Kohlenstoff in Triacylglyceride offenbar schneller erfolgt als der in Stärke, was auf eine dominantere Rolle von TOR in der Regulation der Triacylglycerid-Biosynthese gegenüber der Stärkesynthese hindeutet. Diese Studie zeigt zum ersten Mal eine komplexe Analyse der dynamischen Veränderungen im Primär- und Lipidmetabolismus im Verlauf des Zellzyklus von Chlamydomonas und zeigt weiterhin die komplexe Regulation und Adjustierung des Metabolit-Pools und der Lipidzusammensetzung als Antwort auf die Inhibition von TOR. KW - chlamydomonas reinhardtii KW - metabolites KW - Metaboliten KW - lipids KW - Lipide Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76923 ER - TY - THES A1 - Tenenboim, Yehezkel T1 - Characterization of a Chlamydomonas protein involved in cell division and autophagy T1 - Charakterisierung eines an Zellteilung und Autophagie beteiligten Chlamydomonas-Proteins N2 - The contractile vacuole (CV) is an osmoregulatory organelle found exclusively in algae and protists. In addition to expelling excessive water out of the cell, it also expels ions and other metabolites and thereby contributes to the cell's metabolic homeostasis. The interest in the CV reaches beyond its immediate cellular roles. The CV's function is tightly related to basic cellular processes such as membrane dynamics and vesicle budding and fusion; several physiological processes in animals, such as synaptic neurotransmission and blood filtration in the kidney, are related to the CV's function; and several pathogens, such as the causative agents of sleeping sickness, possess CVs, which may serve as pharmacological targets. The green alga Chlamydomonas reinhardtii has two CVs. They are the smallest known CVs in nature, and they remain relatively untouched in the CV-related literature. Many genes that have been shown to be related to the CV in other organisms have close homologues in C. reinhardtii. We attempted to silence some of these genes and observe the effect on the CV. One of our genes, VMP1, caused striking, severe phenotypes when silenced. Cells exhibited defective cytokinesis and aberrant morphologies. The CV, incidentally, remained unscathed. In addition, mutant cells showed some evidence of disrupted autophagy. Several important regulators of the cell cycle as well as autophagy were found to be underexpressed in the mutant. Lipidomic analysis revealed many meaningful changes between wild-type and mutant cells, reinforcing the compromised-autophagy observation. VMP1 is a singular protein, with homologues in numerous eukaryotic organisms (aside from fungi), but usually with no relatives in each particular genome. Since its first characterization in 2002 it has been associated with several cellular processes and functions, namely autophagy, programmed cell-death, secretion, cell adhesion, and organelle biogenesis. It has been implicated in several human diseases: pancreatitis, diabetes, and several types of cancer. Our results reiterate some of the observations in VMP1's six reported homologues, but, importantly, show for the first time an involvement of this protein in cell division. The mechanisms underlying this involvement in Chlamydomonas, as well as other key aspects, such as VMP1's subcellular localization and interaction partners, still await elucidation. N2 - Die kontraktile Vakuole ist ein osmoregulatorisches Organell, das ausschließlich in Algen und Protisten vorkommt. Zusätzlich zu ihrer Rolle als Ausstoßer überflüßigen Wassers aus der Zelle heraus, stößt sie auch Ionen und andere Metaboliten aus, und trägt dabei zur metabolischen Homöostase der Zelle bei. Das Interesse an der kontraktilen Vakuole erstreckt sich über seine unmittelbare zelluläre Rolle hinaus. Die Funktion der kontraktilen Vakuole ist mit einigen grundsätzlichen zellulären Verfahren, wie Membrandynamik und Vesikelknospung und -fusion, verwandt; einige physiologische Verfahren in Tieren, zum Beispiel synaptische Neurotransmission und das Filtrieren des Blutes in den Nieren, sind mit der Funktion der Vakuole eng verwandt; und einige Pathogene—der Ursacher der Schlafkrankheit als Beispiel—besitzen kontraktile Vakuolen, die als Ziele von Medikamenten dienen könnten. Die grüne Alge Chlamydomonas reinhardtii verfügt über zwei Vakuolen. Sie sind die kleinsten bekannten in der Natur, und bleiben bisher verhältnismäßig unerforscht. Viele Gene, die in anderen Organismen als kontraktile-Vakuole-bezogen erwiesen wurden, haben Homologe in C. reinhardtii. Wir versuchten, diese Gene auszuschalten und den Einfluss auf die Vakuole zu beobachten. Die Ausschaltung eines unserer Gene, VMP1, verursachte starke, beachtliche Phänotype. Die Zellen zeigten gestörte Zytokinese und aberrante Zellformen. Die kontraktile Vakuole blieb jedoch verschont. Des Weiteren zeigten Mutantzellen einige Hinweise auf gestörte Autophagie. Einige wichtige Gene des Zellzyklus und der Autophagie waren unterexprimiert in Mutantzellen. Lipidomische Analyse zeigte mehrere bedeutsame Unterschiede zwischen Wildtyp und Mutant, die die Beobachtungen der gestörten Autophagie verstärkten. VMP1 ist ein singularisches Protein, mit Homologen in zähligen eukaryotischen Organismen (jedoch nicht in Pilzen), aber üblicherweise ohne Verwandte in den jeweiligen Genomen. Seit seiner Erstcharakterisierung 2002 wurde es mit etlichen zellulären Verfahren, wie Autophagie, programmiertem Zelltod, Sekretion, Zelladhäsion, und Biogenese der Organellen, assoziiert. Es wurde auch mit einigen menschlichen Krankheiten wie Diabetes, Pankreatitis, und einigen Arten von Krebs in Verbindung gebracht. Unsere Ergebnisse wiederholen einige Beobachtungen in anderen Organismen, zeigen dennoch zum ersten Mal eine Beteiligung von VMP1 an der Zellteilung. Die unterliegenden Mechanismen dieser Beteiligung in Chlamydomonas, sowie andere wichtige Aspekte, etwa die subzelluläre Lokalisierung von VMP1 und dessen Interaktionspartner, warten noch auf Aufklärung. KW - VMP1 KW - autophagy KW - cytokinesis KW - chlamydomonas Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70650 ER - TY - THES A1 - Loersch, Christian T1 - Business start-ups and the effect of coaching programs N2 - Entrepreneurship is known to be a main driver of economic growth. Hence, governments have an interest in supporting and promoting entrepreneurial activities. Start-up subsidies, which have been analyzed extensively, only aim at mitigating the lack of financial capital. However, some entrepreneurs also lack in human, social, and managerial capital. One way to address these shortcomings is by subsidizing coaching programs for entrepreneurs. However, theoretical and empirical evidence about business coaching and programs subsidizing coaching is scarce. This dissertation gives an extensive overview of coaching and is the first empirical study for Germany analyzing the effects of coaching programs on its participants. In the theoretical part of the dissertation the process of a business start-up is described and it is discussed how and in which stage of the company’s evolvement coaching can influence entrepreneurial success. The concept of coaching is compared to other non-monetary types of support as training, mentoring, consulting, and counseling. Furthermore, national and international support programs are described. Most programs have either no or small positive effects. However, there is little quantitative evidence in the international literature. In the empirical part of the dissertation the effectiveness of coaching is shown by evaluating two German coaching programs, which support entrepreneurs via publicly subsidized coaching sessions. One of the programs aims at entrepreneurs who have been employed before becoming self-employed, whereas the other program is targeted at former unemployed entrepreneurs. The analysis is based on the evaluation of a quantitative and a qualitative dataset. The qualitative data are gathered by intensive one-on-one interviews with coaches and entrepreneurs. These data give a detailed insight about the coaching topics, duration, process, effectiveness, and the thoughts of coaches and entrepreneurs. The quantitative data include information about 2,936 German-based entrepreneurs. Using propensity score matching, the success of participants of the two coaching programs is compared with adequate groups of non-participants. In contrast to many other studies also personality traits are observed and controlled for in the matching process. The results show that only the program for former unemployed entrepreneurs has small positive effects. Participants have a larger survival probability in self-employment and a larger probability to hire employees than matched non-participants. In contrast, the program for former employed individuals has negative effects. Compared to individuals who did not participate in the coaching program, participants have a lower probability to stay in self-employment, lower earned net income, lower number of employees and lower life satisfaction. There are several reasons for these differing results of the two programs. First, former unemployed individuals have more basic coaching needs than former employed individuals. Coaches can satisfy these basic coaching needs, whereas former employed individuals have more complex business problems, which are not very easy to be solved by a coaching intervention. Second, the analysis reveals that former employed individuals are very successful in general. It is easier to increase the success of former unemployed individuals as they have a lower base level of success than former employed individuals. An effect heterogeneity analysis shows that coaching effectiveness differs by region. Coaching for previously unemployed entrepreneurs is especially useful in regions with bad labor market conditions. In summary, in line with previous literature, it is found that coaching has little effects on the success of entrepreneurs. The previous employment status, the characteristics of the entrepreneur and the regional labor market conditions play a crucial role in the effectiveness of coaching. In conclusion, coaching needs to be well tailored to the individual and applied thoroughly. Therefore, governments should design and provide coaching programs only after due consideration. N2 - Da Unternehmensgründungen für gesamtwirtschaftliches Wachstum wichtig sind, bieten Regierungen verschiedene Fördermöglichkeiten für junge Unternehmen an. Während die Auswirkungen finanzieller Förderprogramme für Gründer schon häufig untersucht wurden, gibt es kaum Studien zu der Wirkungsweise von Coachingprogrammen. Eine Förderung von Coachingmaßnahmen kann sinnvoll sein, da es Gründern meist nicht nur an finanziellen Mitteln, sondern auch an Problemlösungskompetenz mangelt. Diese Dissertation ist die erste Forschungsarbeit, die einen umfassenden Überblick über das Thema Coaching gibt und erste empirische Ergebnisse für Deutschland liefert. Im theoretischen Teil der Arbeit werden die verschiedenen Phasen eines Unternehmens beschrieben und erläutert in welcher dieser Phasen Coaching am sinnvollsten ist. Außerdem wird das Konzept des Coachings mit anderen Methoden wie Training, Mentoring, Consulting und Counseling verglichen. Ein Überblick von nationalen und internationalen Förderprogrammen zeigt, dass die meisten Programme keine oder nur geringe positive Auswirkungen haben. Insgesamt gibt es jedoch nur sehr wenige quantitative Studien in diesem Bereich. Im empirischen Teil werden zwei deutsche Coachingprogramme evaluiert. Eines der Programme ist auf Gründer ausgerichtet, die unmittelbar vor ihrer Gründung einer abhängigen Beschäftigung nachgegangen sind, während das andere Programm vormals arbeitslose Gründer adressiert. Die empirische Analyse verwendet sowohl qualitative als auch quantitative Daten. Die qualitativen Daten wurden durch persönliche Interviews mit Coaches und Gründern erhoben. Anhand dieser Daten wird ein sehr detailliertes Bild der Coachingprozesse gezeichnet. Die quantitativen Daten wurden durch 2.936 Telefoninterviews mit in Deutschland tätigen Gründern generiert. Anhand eines „Propensity Score Matching“ Ansatzes wird der Erfolg von Programmteilnehmern und Nichtteilnehmern verglichen. Bei dieser Analyse werden auch Merkmale - insbesondere Persönlichkeitseigenschaften - berücksichtigt, die in vielen anderen Studien nicht beobachtet werden können. Es wird gezeigt, dass lediglich das Programm für vormals arbeitslose Gründer leicht positive Effekte aufweist. Gründer, die an diesem Coachingprogramm teilgenommen haben, haben eine höhere Wahrscheinlichkeit selbstständig zu bleiben und Mitarbeiter einzustellen als Gründer, die nicht an dem Coachingprogramm teilgenommen haben. Das Programm für vormals abhängig beschäftigte Gründer hingegen hat negative Effekte. Verglichen mit Gründern, die nicht an dem Programm teilgenommen haben, haben Coachingteilnehmer eine geringere Wahrscheinlichkeit selbstständig zu bleiben, ein geringeres Nettoerwerbseinkommen, weniger Mitarbeiter und sind nicht so zufrieden mit ihrem Leben. Für diese sehr unterschiedlichen Ergebnisse der beiden Programme gibt es mehrere Gründe. Grundsätzlich haben vormals arbeitslose Gründer einfachere Coachingbedarfe als vormals beschäftigte Gründer. Diese einfacheren Probleme in der Anfangsphase der Unternehmung sind durch ein Coaching zu lösen, wohingegen die ohnehin recht erfolgreichen Entrepreneure, die vorher nicht arbeitslos waren, komplexere Coachingbedarfe haben. Angesichts dieser schwieriger zu lösenden unternehmerischen Probleme von vormals beschäftigten Programmteilnehmern und des höheren ursprünglichen Erfolgslevels hat das Programm für vormals arbeitslose Gründer bessere Auswirkungen als das Programm für vormals beschäftigte Gründer. Nur vormals arbeitslose Gründer können ihre – noch geringer ausgeprägten – unternehmerischen Fähigkeiten durch die Teilnahme am Coaching verbessern, so dass hier leicht positive Programmeffekte entstehen. Die ausführliche Effektheterogenitätsanalyse zeigt, dass Coaching für vormals arbeitslose Gründer insbesondere in Regionen mit schlechter Arbeitsmarktlage sinnvoll ist. Zusammenfassend zeigt die Dissertation, dass Coaching nur geringe Auswirkungen auf den Erfolg von Gründern hat. Die Wirksamkeit hängt insbesondere von dem vorigen Beschäftigungsstatus, den persönlichen Eigenschaften des Gründers und der regionalen Arbeitsmarktlage ab. Die Dissertation zeigt somit, dass Coaching zur Unterstützung Selbstständiger nur seine Wirkung entfaltet, wenn es sehr gezielt eingesetzt wird. Staatliche Programme in diesem Bereich sollten deshalb vor Einführung ausführlich diskutiert werden, so dass ein Programmdesign entsteht, welches seine Wirkung nicht verfehlt. T2 - Unternehmensgründungen und der Effekt von Coachingprogrammen KW - coaching KW - business start‐up KW - self-­employed KW - entrepreneur KW - program effect KW - propensity score matching KW - labor market policy KW - policy evaluation KW - impact analysis KW - subsidy KW - Coaching KW - Unternehmensgründung KW - Selbstständige KW - Entrepreneur KW - Programmeffekt KW - Propensity Score Matching KW - Arbeitsmarktpolitik KW - Politik Evaluation KW - Wirkungsanalyse KW - Subvention Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72605 ER - TY - THES A1 - Steinert, Bastian T1 - Built-in recovery support for explorative programming T1 - Eingebaute Unterstützung für Wiederherstellungsbedürfnisse für unstrukturierte ergebnisoffene Programmieraufgaben BT - preserving immediate access to static and dynamic information of intermediate development states BT - Erhaltung des unmittelbaren Zugriffs auf statische und dynamische Informationen von Entwicklungszwischenständen N2 - This work introduces concepts and corresponding tool support to enable a complementary approach in dealing with recovery. Programmers need to recover a development state, or a part thereof, when previously made changes reveal undesired implications. However, when the need arises suddenly and unexpectedly, recovery often involves expensive and tedious work. To avoid tedious work, literature recommends keeping away from unexpected recovery demands by following a structured and disciplined approach, which consists of the application of various best practices including working only on one thing at a time, performing small steps, as well as making proper use of versioning and testing tools. However, the attempt to avoid unexpected recovery is both time-consuming and error-prone. On the one hand, it requires disproportionate effort to minimize the risk of unexpected situations. On the other hand, applying recommended practices selectively, which saves time, can hardly avoid recovery. In addition, the constant need for foresight and self-control has unfavorable implications. It is exhaustive and impedes creative problem solving. This work proposes to make recovery fast and easy and introduces corresponding support called CoExist. Such dedicated support turns situations of unanticipated recovery from tedious experiences into pleasant ones. It makes recovery fast and easy to accomplish, even if explicit commits are unavailable or tests have been ignored for some time. When mistakes and unexpected insights are no longer associated with tedious corrective actions, programmers are encouraged to change source code as a means to reason about it, as opposed to making changes only after structuring and evaluating them mentally. This work further reports on an implementation of the proposed tool support in the Squeak/Smalltalk development environment. The development of the tools has been accompanied by regular performance and usability tests. In addition, this work investigates whether the proposed tools affect programmers’ performance. In a controlled lab study, 22 participants improved the design of two different applications. Using a repeated measurement setup, the study examined the effect of providing CoExist on programming performance. The result of analyzing 88 hours of programming suggests that built-in recovery support as provided with CoExist positively has a positive effect on programming performance in explorative programming tasks. N2 - Diese Arbeit präsentiert Konzepte und die zugehörige Werkzeugunterstützung um einen komplementären Umgang mit Wiederherstellungsbedürfnissen zu ermöglichen. Programmierer haben Bedarf zur Wiederherstellung eines früheren Entwicklungszustandes oder Teils davon, wenn ihre Änderungen ungewünschte Implikationen aufzeigen. Wenn dieser Bedarf plötzlich und unerwartet auftritt, dann ist die notwendige Wiederherstellungsarbeit häufig mühsam und aufwendig. Zur Vermeidung mühsamer Arbeit empfiehlt die Literatur die Vermeidung von unerwarteten Wiederherstellungsbedürfnissen durch einen strukturierten und disziplinierten Programmieransatz, welcher die Verwendung verschiedener bewährter Praktiken vorsieht. Diese Praktiken sind zum Beispiel: nur an einer Sache gleichzeitig zu arbeiten, immer nur kleine Schritte auszuführen, aber auch der sachgemäße Einsatz von Versionskontroll- und Testwerkzeugen. Jedoch ist der Versuch des Abwendens unerwarteter Wiederherstellungsbedürfnisse sowohl zeitintensiv als auch fehleranfällig. Einerseits erfordert es unverhältnismäßig hohen Aufwand, das Risiko des Eintretens unerwarteter Situationen auf ein Minimum zu reduzieren. Andererseits ist eine zeitsparende selektive Ausführung der empfohlenen Praktiken kaum hinreichend, um Wiederherstellungssituationen zu vermeiden. Zudem bringt die ständige Notwendigkeit an Voraussicht und Selbstkontrolle Nachteile mit sich. Dies ist ermüdend und erschwert das kreative Problemlösen. Diese Arbeit schlägt vor, Wiederherstellungsaufgaben zu vereinfachen und beschleunigen, und stellt entsprechende Werkzeugunterstützung namens CoExist vor. Solche zielgerichtete Werkzeugunterstützung macht aus unvorhergesehenen mühsamen Wiederherstellungssituationen eine konstruktive Erfahrung. Damit ist Wiederherstellung auch dann leicht und schnell durchzuführen, wenn explizit gespeicherte Zwischenstände fehlen oder die Tests für einige Zeit ignoriert wurden. Wenn Fehler und unerwartete Ein- sichten nicht länger mit mühsamen Schadensersatz verbunden sind, fühlen sich Programmierer eher dazu ermutig, Quelltext zu ändern, um dabei darüber zu reflektieren, und nehmen nicht erst dann Änderungen vor, wenn sie diese gedanklich strukturiert und evaluiert haben. Diese Arbeit berichtet weiterhin von einer Implementierung der vorgeschlagenen Werkzeugunterstützung in der Squeak/Smalltalk Entwicklungsumgebung. Regelmäßige Tests von Laufzeitverhalten und Benutzbarkeit begleiteten die Entwicklung. Zudem prüft die Arbeit, ob sich die Verwendung der vorgeschlagenen Werkzeuge auf die Leistung der Programmierer auswirkt. In einem kontrollierten Experiment, verbesserten 22 Teilnehmer den Aufbau von zwei verschiedenen Anwendungen. Unter der Verwendung einer Versuchsanordnung mit wiederholter Messung, ermittelte die Studie die Auswirkung von CoExist auf die Programmierleistung. Das Ergebnis der Analyse von 88 Programmierstunden deutet darauf hin, dass sich eingebaute Werkzeugunterstützung für Wiederherstellung, wie sie mit CoExist bereitgestellt wird, positiv bei der Bearbeitung von unstrukturierten ergebnisoffenen Programmieraufgaben auswirkt. KW - Softwaretechnik KW - Entwicklungswerkzeuge KW - Versionierung KW - Testen KW - software engineering KW - development tools KW - versioning KW - testing Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71305 ER - TY - THES A1 - Tinnefeld, Christian T1 - Building a columnar database on shared main memory-based storage BT - database operator placement in a shared main memory-based storage system that supports data access and code execution N2 - In the field of disk-based parallel database management systems exists a great variety of solutions based on a shared-storage or a shared-nothing architecture. In contrast, main memory-based parallel database management systems are dominated solely by the shared-nothing approach as it preserves the in-memory performance advantage by processing data locally on each server. We argue that this unilateral development is going to cease due to the combination of the following three trends: a) Nowadays network technology features remote direct memory access (RDMA) and narrows the performance gap between accessing main memory inside a server and of a remote server to and even below a single order of magnitude. b) Modern storage systems scale gracefully, are elastic, and provide high-availability. c) A modern storage system such as Stanford's RAMCloud even keeps all data resident in main memory. Exploiting these characteristics in the context of a main-memory parallel database management system is desirable. The advent of RDMA-enabled network technology makes the creation of a parallel main memory DBMS based on a shared-storage approach feasible. This thesis describes building a columnar database on shared main memory-based storage. The thesis discusses the resulting architecture (Part I), the implications on query processing (Part II), and presents an evaluation of the resulting solution in terms of performance, high-availability, and elasticity (Part III). In our architecture, we use Stanford's RAMCloud as shared-storage, and the self-designed and developed in-memory AnalyticsDB as relational query processor on top. AnalyticsDB encapsulates data access and operator execution via an interface which allows seamless switching between local and remote main memory, while RAMCloud provides not only storage capacity, but also processing power. Combining both aspects allows pushing-down the execution of database operators into the storage system. We describe how the columnar data processed by AnalyticsDB is mapped to RAMCloud's key-value data model and how the performance advantages of columnar data storage can be preserved. The combination of fast network technology and the possibility to execute database operators in the storage system opens the discussion for site selection. We construct a system model that allows the estimation of operator execution costs in terms of network transfer, data processed in memory, and wall time. This can be used for database operators that work on one relation at a time - such as a scan or materialize operation - to discuss the site selection problem (data pull vs. operator push). Since a database query translates to the execution of several database operators, it is possible that the optimal site selection varies per operator. For the execution of a database operator that works on two (or more) relations at a time, such as a join, the system model is enriched by additional factors such as the chosen algorithm (e.g. Grace- vs. Distributed Block Nested Loop Join vs. Cyclo-Join), the data partitioning of the respective relations, and their overlapping as well as the allowed resource allocation. We present an evaluation on a cluster with 60 nodes where all nodes are connected via RDMA-enabled network equipment. We show that query processing performance is about 2.4x slower if everything is done via the data pull operator execution strategy (i.e. RAMCloud is being used only for data access) and about 27% slower if operator execution is also supported inside RAMCloud (in comparison to operating only on main memory inside a server without any network communication at all). The fast-crash recovery feature of RAMCloud can be leveraged to provide high-availability, e.g. a server crash during query execution only delays the query response for about one second. Our solution is elastic in a way that it can adapt to changing workloads a) within seconds, b) without interruption of the ongoing query processing, and c) without manual intervention. N2 - Diese Arbeit beschreibt die Erstellung einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Motiviert wird diese Arbeit durch drei Faktoren. Erstens ist moderne Netzwerktechnologie mit “Remote Direct Memory Access” (RDMA) ausgestattet. Dies reduziert den Unterschied hinsichtlich Latenz und Durchsatz zwischen dem Speicherzugriff innerhalb eines Rechners und auf einen entfernten Rechner auf eine Größenordnung. Zweitens skalieren moderne Speichersysteme, sind elastisch und hochverfügbar. Drittens hält ein modernes Speichersystem wie Stanford's RAMCloud alle Daten im Hauptspeicher vor. Diese Eigenschaften im Kontext einer spalten-orientierten Datenbank zu nutzen ist erstrebenswert. Die Arbeit ist in drei Teile untergliedert. Der erste Teile beschreibt die Architektur einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Hierbei werden die im Rahmen dieser Arbeit entworfene und entwickelte Datenbank AnalyticsDB sowie Stanford's RAMCloud verwendet. Die Architektur beschreibt wie Datenzugriff und Operatorausführung gekapselt werden um nahtlos zwischen lokalem und entfernten Hauptspeicher wechseln zu können. Weiterhin wird die Ablage der nach einem relationalen Schema formatierten Daten von AnalyticsDB in RAMCloud behandelt, welches mit einem Schlüssel-Wertpaar Datenmodell operiert. Der zweite Teil fokussiert auf die Implikationen bei der Abarbeitung von Datenbankanfragen. Hier steht die Diskussion im Vordergrund wo (entweder in AnalyticsDB oder in RAMCloud) und mit welcher Parametrisierung einzelne Datenbankoperationen ausgeführt werden. Dafür werden passende Kostenmodelle vorgestellt, welche die Abbildung von Datenbankoperationen ermöglichen, die auf einer oder mehreren Relationen arbeiten. Der dritte Teil der Arbeit präsentiert eine Evaluierung auf einem Verbund von 60 Rechnern hinsichtlich der Leistungsfähigkeit, der Hochverfügbarkeit und der Elastizität vom System. T2 - Die Erstellung einer spaltenorientierten Datenbank auf einem verteilten, Hauptspeicher-basierenden Speichersystem KW - computer science KW - database technology KW - main memory computing KW - cloud computing KW - verteilte Datenbanken KW - Hauptspeicher Technologie KW - virtualisierte IT-Infrastruktur Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72063 ER - TY - THES A1 - Schipper, Florian T1 - Biomass derived carbon for new energy storage technologies N2 - The thesis deals with the production and evaluation of porous carbon materials for energy storage technologies, namely super capacitors and lithium sulfur batteries. N2 - Die Doktorarbeit befasst sich mit der Produktion und Evaluierung poröser Kohlenstoffmaterialien für die Anwendung in Energiespeichertechnologien, namentlich Superkondensatoren und Lithiumschwefelbatterien. T2 - Biomasse basierende Kohlenstoffe für neue Energiespeichertechnologien KW - Batterien KW - Superkondensatoren KW - Energiespeicher KW - Lithium-Schwefel-Batterien KW - Kohlenstoff KW - battery KW - supercapacitors KW - energy storage KW - lithium sulfur battery KW - carbon Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72045 ER - TY - THES A1 - Grigoli, Francesco T1 - Automated seismic event location by waveform coherence analysis T1 - Die automatische Lokalisierung von Mikroerdbeben durch die Wellenform Kohärenzanalyse N2 - Automated location of seismic events is a very important task in microseismic monitoring operations as well for local and regional seismic monitoring. Since microseismic records are generally characterised by low signal-to-noise ratio, such methods are requested to be noise robust and sufficiently accurate. Most of the standard automated location routines are based on the automated picking, identification and association of the first arrivals of P and S waves and on the minimization of the residuals between theoretical and observed arrival times of the considered seismic phases. Although current methods can accurately pick P onsets, the automatic picking of the S onset is still problematic, especially when the P coda overlaps the S wave onset. In this thesis I developed a picking free automated method based on the Short-Term-Average/Long-Term-Average (STA/LTA) traces at different stations as observed data. I used the STA/LTA of several characteristic functions in order to increase the sensitiveness to the P wave and the S waves. For the P phases we use the STA/LTA traces of the vertical energy function, while for the S phases, we use the STA/LTA traces of the horizontal energy trace and then a more optimized characteristic function which is obtained using the principal component analysis technique. The orientation of the horizontal components can be retrieved by robust and linear approach of waveform comparison between stations within a network using seismic sources outside the network (chapter 2). To locate the seismic event, we scan the space of possible hypocentral locations and origin times, and stack the STA/LTA traces along the theoretical arrival time surface for both P and S phases. Iterating this procedure on a three-dimensional grid we retrieve a multidimensional matrix whose absolute maximum corresponds to the spatial and temporal coordinates of the seismic event. Location uncertainties are then estimated by perturbing the STA/LTA parameters (i.e the length of both long and short time windows) and relocating each event several times. In order to test the location method I firstly applied it to a set of 200 synthetic events. Then we applied it to two different real datasets. A first one related to mining induced microseismicity in a coal mine in the northern Germany (chapter 3). In this case we successfully located 391 microseismic event with magnitude range between 0.5 and 2.0 Ml. To further validate the location method I compared the retrieved locations with those obtained by manual picking procedure. The second dataset consist in a pilot application performed in the Campania-Lucania region (southern Italy) using a 33 stations seismic network (Irpinia Seismic Network) with an aperture of about 150 km (chapter 4). We located 196 crustal earthquakes (depth < 20 km) with magnitude range 1.1 < Ml < 2.7. A subset of these locations were compared with accurate locations retrieved by a manual location procedure based on the use of a double difference technique. In both cases results indicate good agreement with manual locations. Moreover, the waveform stacking location method results noise robust and performs better than classical location methods based on the automatic picking of the P and S waves first arrivals. N2 - Die automatische Lokalisierung seismischer Ereignisse ist eine wichtige Aufgabe, sowohl im Bereich des Mikroseismischen Monitorings im Bergbau und von Untegrund Aktivitäten,  wie auch für die lokale und regionale Überwachung von natürlichen Erdbeben. Da mikroseismische Datensätze häufig ein schlechtes Signal-Rausch-Verhältnis haben müssen die Lokalisierungsmethoden robust gegen Rauschsignale und trotzdem hinreichend genau sein. Aufgrund der in der Regel sehr hochfrequent aufgezeichneten Messreihen und der dadurch sehr umfangreichen Datensätze sind automatische Auswertungen erstrebenswert. Solche Methoden benutzen in der Regel automatisch gepickte und  den P und S Phasen zugeordnete Ersteinsätze und Minimieren die Summe der quadratischen Zeitdifferenz zwischen den beobachteten und theoretischen Einsatzzeiten. Obgleich das automatische Picken der P Phase in der Regel sehr genau möglich ist, hat man beim Picken der S Phasen häufig Probleme, z.B. wenn die Coda der P Phase sehr lang ist und in den Bereich der S Phase hineinreicht. In dieser Doktorarbeit wird eine Methode vollautomatische, Wellenform-basierte Lokalisierungsmethode entwickelt, die Funktionen des Verhältnisses "Short Term Average / Long Term Average"  (STA/LTA) verwendet und keine Pickzeiten invertiert. Die STA/LTA charakteristische Funktion wurde für unterschiedliche Wellenform Attribute getestet, um die Empfindlichkeit für P und S Phasen zu erhöhen. Für die P Phase wird die STA/LTA Funktion für die Energie der Vertikalkomponente der Bodenbewegung benutzt, wohingegen für die S Phase entweder die Energie der horizontalen Partikelbewegung oder eine optimierte Funktion auf Basis der Eigenwertzerlegung benutzt wird. Um die Ereignisse zu lokalisieren wird eine Gittersuche über alle möglichen Untergrundlokalisierungen durchgeführt. Für jeden räumlichen und zeitlichen Gitterpunkt werden die charakteristischen Funktionen entlang der theoretischen Einsatzkurve aufsummiert. Als Ergebnis erhält man eine 4-dimensionale Matrix über Ort und Zeit des Ereignisses, deren Maxima die wahrscheinlichsten Lokalisierungen darstellen. Um die Unsicherheiten der Lokalisierung abzuschätzen wurden die Parameter der STA/LTA Funktionen willkürlich verändert und das Ereignis relokalisiert. Die Punktwolke aller möglichen Lokalisierungen gibt ein Maß für die Unsicherheit des Ergebnisses. Die neu entwickelte Methode wurde an einem synthetischen Datensatz von 200 Ereignissen getestet und für zwei beobachtete Datensätze demonstriert. Der erste davon betrifft induzierte Seismizität in einem Kohlebergbau in Norddeutschland. Es wurden 391 Mikrobeben mit Magnituden zwischen Ml 0.5 und 2.0 erfolgreich lokalisiert und durch Vergleich mit manuell ausgewerteten Lokalisierungen verifziert.Der zweite Datensatz stammt von einem Anwednung auf des Regionale Überwachungsnetz in der Region Campania-Lucania (Süditalien)  mit 33 seismischen Stationen und einer Apertur von etwa 150 km. Wir konnten 196 Erdbeben mit Tiefen < 20 km und Magnituden zwischen Ml 1.1 und 2.7 lokalisieren. Eine Untergruppe der eigenen Lokalisierungen wurde mit den Lokalisierungen einer Standard Lokalisierung sowie einer  hochgenauen Relativlokalisierung verglichen. In beiden Fällen ist die Übereinstimmung mit den manuellen Lokalisierungen groß. Außerdem finden wir, dass die Wellenform Summations Lokalisierung ronbust gegen Rauschen ist und bessere Ergebnisse liefert als die Standard Lokalisierung, die auf dem automatischen Picken von Ersteinsatzzeiten alleine basiert. KW - earthquake location KW - induced seismicity KW - microseismicity Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70329 ER - TY - THES A1 - Wilde, Anja T1 - Ausprägungen räumlicher Identität in ehemaligen sudetendeutschen Gebieten der Tschechischen Republik T1 - Spatial identities in former Sudeten German regions of the Czech Republic BT - the examples of the districts of Tachov (Tachau) and Sokolov (Falkenau) BT - am Beispiel der Bezirke Tachov (Tachau) und Sokolov (Falkenau) N2 - Das tschechische Grenzgebiet ist eine der Regionen in Europa, die in der Folge des Zweiten Weltkrieges am gravierendsten von Umbrüchen in der zuvor bestehenden Bevölkerungsstruktur betroffen waren. Der erzwungenen Aussiedlung eines Großteils der ansässigen Bevölkerung folgten die Neubesiedlung durch verschiedenste Zuwanderergruppen sowie teilweise langanhaltende Fluktuationen der Einwohnerschaft. Die Stabilisierung der Bevölkerung stand sodann unter dem Zeichen der sozialistischen Gesellschafts- und Wirtschaftsordnung, die die Lebensweise und Raumwahrnehmung der neuen Einwohner nachhaltig prägte. Die Grenzöffnung von 1989, die politische Transformation sowie die Integration der Tschechischen Republik in die Europäische Union brachten neue demographische und sozioökonomische Entwicklungen mit sich. Sie schufen aber auch die Bedingungen dafür, sich neu und offen auch mit der spezifischen Geschichte des ehemaligen Sudetenlandes sowie mit dem Zustand der gegenwärtigen Gesellschaft in diesem Gebiet auseinanderzusetzen. Im Rahmen der vorliegenden Arbeit wird anhand zweier Beispielregionen untersucht, welche Raumvorstellungen und Raumbindungen bei der heute in den ehemaligen sudetendeutschen Gebieten ansässigen Bevölkerung vorhanden sind und welche Einflüsse die unterschiedlichen raumstrukturellen Bedingungen darauf ausüben. Besonderes Augenmerk wird auf die soziale Komponente der Ausprägung räumlicher Identität gelegt, das heißt auf die Rolle von Bedeutungszuweisungen gegenüber Raumelementen im Rahmen sozialer Kommunikation und Interaktion. Dies erscheint von besonderer Relevanz in einem Raum, der sich durch eine gewisse Heterogenität seiner Einwohnerschaft hinsichtlich ihres ethnischen, kulturellen beziehungsweise biographischen Hintergrundes auszeichnet. Schließlich wird ermittelt, welche Impulse unter Umständen von einer ausgeprägten räumlichen Identität für die Entwicklung des Raumes ausgehen. N2 - The Czech border area is one of the regions in Europe which were most seriously affected by radical changes in the previous population structure during the post-Second World War period. The forced out-migration of the majority of the resident population was followed by the new settlement of different immigrant groups as well as partly long lasting fluctuations of the inhabitants. The subsequent stabilization of the population took place under the conditions of the socialist social order and economic system which greatly affected the way of life of the new inhabitants as well as their perception of the environment. The opening of the border in 1989, the political transformation and the integration of the Czech Republic into the EU brought about new demographic and socio-economic developments. This also facilitated a more open dealing with the specific history of the former “Sudetenland” and with the state of contemporary society in the region. Based on the example of two regions in Western Bohemia, the study examines how the current inhabitants experience their environment, what kind of relationship they have towards it and what structural conditions influence these phenomena. Special attention is paid to the social component of the development of spacial identity, i.e. to the role of assignment of meaning to spatial elements in the process of social communication and interaction. This seems to be particularly relevant in the region characterized by a certain heterogeneity of its inhabitants with regard to their ethnic, cultural or biographic background. Finally, it is examined what impacts a distinct spatial identity may have on the development of the region. T3 - Praxis Kultur- und Sozialgeographie | PKS - 59 KW - Tschechische Republik KW - Grenzgebiet KW - räumliche Identität KW - Czech Republic KW - border area KW - spatial identity Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-70247 SN - 978-3-86956-311-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Girbig, Dorothee T1 - Analysing concerted criteria for local dynamic properties of metabolic systems T1 - Die Analyse koordinierter Kriterien für lokale dynamische Eigenschaften metabolischer Systeme N2 - Metabolic systems tend to exhibit steady states that can be measured in terms of their concentrations and fluxes. These measurements can be regarded as a phenotypic representation of all the complex interactions and regulatory mechanisms taking place in the underlying metabolic network. Such interactions determine the system's response to external perturbations and are responsible, for example, for its asymptotic stability or for oscillatory trajectories around the steady state. However, determining these perturbation responses in the absence of fully specified kinetic models remains an important challenge of computational systems biology. Structural kinetic modeling (SKM) is a framework to analyse whether a metabolic steady state remains stable under perturbation, without requiring detailed knowledge about individual rate equations. It provides a parameterised representation of the system's Jacobian matrix in which the model parameters encode information about the enzyme-metabolite interactions. Stability criteria can be derived by generating a large number of structural kinetic models (SK-models) with randomly sampled parameter sets and evaluating the resulting Jacobian matrices. The parameter space can be analysed statistically in order to detect network positions that contribute significantly to the perturbation response. Because the sampled parameters are equivalent to the elasticities used in metabolic control analysis (MCA), the results are easy to interpret biologically. In this project, the SKM framework was extended by several novel methodological improvements. These improvements were evaluated in a simulation study using a set of small example pathways with simple Michaelis Menten rate laws. Afterwards, a detailed analysis of the dynamic properties of the neuronal TCA cycle was performed in order to demonstrate how the new insights obtained in this work could be used for the study of complex metabolic systems. The first improvement was achieved by examining the biological feasibility of the elasticity combinations created during Monte Carlo sampling. Using a set of small example systems, the findings showed that the majority of sampled SK-models would yield negative kinetic parameters if they were translated back into kinetic models. To overcome this problem, a simple criterion was formulated that mitigates such infeasible models and the application of this criterion changed the conclusions of the SKM experiment. The second improvement of this work was the application of supervised machine-learning approaches in order to analyse SKM experiments. So far, SKM experiments have focused on the detection of individual enzymes to identify single reactions important for maintaining the stability or oscillatory trajectories. In this work, this approach was extended by demonstrating how SKM enables the detection of ensembles of enzymes or metabolites that act together in an orchestrated manner to coordinate the pathways response to perturbations. In doing so, stable and unstable states served as class labels, and classifiers were trained to detect elasticity regions associated with stability and instability. Classification was performed using decision trees and relevance vector machines (RVMs). The decision trees produced good classification accuracy in terms of model bias and generalizability. RVMs outperformed decision trees when applied to small models, but encountered severe problems when applied to larger systems because of their high runtime requirements. The decision tree rulesets were analysed statistically and individually in order to explore the role of individual enzymes or metabolites in controlling the system's trajectories around steady states. The third improvement of this work was the establishment of a relationship between the SKM framework and the related field of MCA. In particular, it was shown how the sampled elasticities could be converted to flux control coefficients, which were then investigated for their predictive information content in classifier training. After evaluation on the small example pathways, the methodology was used to study two steady states of the neuronal TCA cycle with respect to their intrinsic mechanisms responsible for stability or instability. The findings showed that several elasticities were jointly coordinated to control stability and that the main source for potential instabilities were mutations in the enzyme alpha-ketoglutarate dehydrogenase. N2 - Metabolische Systeme neigen zur Ausbildung von Fließgleichgewichten, deren Konzentrationen und Reaktionsflüsse experimentell charakterisierbar sind. Derartige Messungen bieten eine phänotypische Repräsentation der zahlreichen Interaktionen und regulatorischen Mechanismen des zugrundeliegenden metabolischen Netzwerks. Diese Interaktionen bestimmen die Reaktion des Systems auf externe Perturbationen, wie z.B. dessen asymptotische Stabilität und Oszillationen. Die Charakterisierung solcher Eigenschaften ist jedoch schwierig, wenn kein entsprechendes kinetisches Modell mit allen Ratengleichungen und kinetischen Parametern für das untersuchte System zur Verfügung steht. Die strukturelle kinetische Modellierung (SKM) ermöglicht die Untersuchung dynamischer Eigenschaften wie Stabilität oder Oszillationen, ohne die Ratengleichungen und zugehörigen Parameter im Detail zu kennen. Statt dessen liefert sie eine parametrisierte Repräsentation der Jacobimatrix, in welcher die einzelnen Parameter Informationen über die Sättigung der Enzyme des Systems mit ihren Substraten kodieren. Die Parameter entsprechen dabei den Elastizitäten aus der metabolischen Kontrollanalyse, was ihre biologische Interpretation vereinfacht. Stabilitätskriterien werden durch Monte Carlo Verfahren hergeleitet, wobei zunächst eine große Anzahl struktureller kinetische Modelle (SK-Modelle) mit zufällig gezogenen Parametermengen generiert, und anschließend die resultierenden Jacobimatrizen evaluiert werden. Im Anschluss kann der Parameterraum statistisch analysiert werden, um Enzyme und Metabolite mit signifikantem Einfluss auf die Stabilität zu detektieren. In der vorliegenden Arbeit wurde das bisherige SKM-Verfahren durch neue methodische Verbesserungen erweitert. Diese Verbesserungen wurden anhand einer Simulationsstudie evaluiert, welche auf kleinen Beispielsystemen mit einfachen Michaelis Menten Kinetiken basierte. Im Anschluss wurden sie für eine detaillierte Analyse der dynamischen Eigenschaften des Zitratzyklus verwendet. Die erste Erweiterung der bestehenden Methodik wurde durch Untersuchung der biologischen Machbarkeit der zufällig erzeugten Elastizitäten erreicht. Es konnte gezeigt werden, dass die Mehrheit der zufällig erzeugten SK-Modelle zu negativen Michaeliskonstanten führt. Um dieses Problem anzugehen, wurde ein einfaches Kriterium formuliert, welches das Auftreten solcher biologisch unrealistischer SK-Modelle verhindert. Es konnte gezeigt werden, dass die Anwendung des Kriteriums die Ergebnisse von SKM Experimenten stark beeinflussen kann. Der zweite Beitrag bezog sich auf die Analyse von SKM-Experimenten mit Hilfe überwachter maschineller Lernverfahren. Bisherige SKM-Studien konzentrierten sich meist auf die Detektion individueller Elastizitäten, um einzelne Reaktionen mit Einfluss auf das Stabilitäts- oder oszillatorische Verhalten zu identifizieren. In dieser Arbeit wurde demonstriert, wie SKM Experimente im Hinblick auf multivariate Muster analysiert werden können, um Elastizitäten zu entdecken, die gemeinsam auf orchestrierte und koordinierte Weise die Eigenschaften des Systems bestimmen. Sowohl Entscheidungsbäume als auch Relevanzvektormaschinen (RVMs) wurden als Klassifikatoren eingesetzt. Während Entscheidungsbäume im allgemeinen gute Klassifikationsergebnisse lieferten, scheiterten RVMs an ihren großen Laufzeitbedürfnissen bei Anwendung auf ein komplexes System wie den Zitratzyklus. Hergeleitete Entscheidungsbaumregeln wurden sowohl statistisch als auch individuell analysiert, um die Koordination von Enzymen und Metaboliten in der Kontrolle von Trajektorien des Systems zu untersuchen. Der dritte Beitrag, welcher in dieser Arbeit vorgestellt wurde, war die Etablierung der Beziehung zwischen SKM und der metabolischer Kontrollanalyse. Insbesondere wurde gezeigt, wie die zufällig generierten Elastizitäten in Flusskontrollkoeffizienten umgewandelt werden. Diese wurden im Anschluss bezüglich ihres Informationsgehaltes zum Klassifikationstraining untersucht. Nach der Evaluierung anhand einiger kleiner Beispielsysteme wurde die neue Methodik auf die Studie zweier Fließgleichgewichte des neuronalen Zitratzyklus angewandt, um intrinsische Mechanismen für Stabilität oder Instabilität zu finden. Die Ergebnisse identifizierten Mutationen im Enzym alpha-ketoglutarate dehydrogenase als wahrscheinlichste Quelle füur Instabilitäten. KW - Systembiologie KW - mathematische Modellierung KW - systems biology KW - mathematical modeling Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72017 ER - TY - THES A1 - Bathke, Hannes T1 - An investigation of complex deformation patterns detected by using InSAR at Llaima and Tendürek volcanoes T1 - Eine Untersuchung von komplexen Erdoberflächenverformungen gemessen mit InSAR, an den Vulkanen Llaima und Tendürek N2 - Surface displacement at volcanic edifices is related to subsurface processes associated with magma movements, fluid transfers within the volcano edifice and gravity-driven deformation processes. Understanding of associated ground displacements is of importance for assessment of volcanic hazards. For example, volcanic unrest is often preceded by surface uplift, caused by magma intrusion and followed by subsidence, after the withdrawal of magma. Continuous monitoring of the surface displacement at volcanoes therefore might allow the forecasting of upcoming eruptions to some extent. In geophysics, the measured surface displacements allow the parameters of possible deformation sources to be estimated through analytical or numerical modeling. This is one way to improve the understanding of subsurface processes acting at volcanoes. Although the monitoring of volcanoes has significantly improved in the last decades (in terms of technical advancements and number of monitored volcanoes), the forecasting of volcanic eruptions remains puzzling. In this work I contribute towards the understanding of the subsurface processes at volcanoes and thus to the improvement of volcano eruption forecasting. I have investigated the displacement field of Llaima volcano in Chile and of Tendürek volcano in East Turkey by using synthetic aperture radar interferometry (InSAR). Through modeling of the deformation sources with the extracted displacement data, it was possible to gain insights into potential subsurface processes occurring at these two volcanoes that had been barely studied before. The two volcanoes, although of very different origin, composition and geometry, both show a complexity of interacting deformation sources. At Llaima volcano, the InSAR technique was difficult to apply, due to the large decorrelation of the radar signal between the acquisition of images. I developed a model-based unwrapping scheme, which allows the production of reliable displacement maps at the volcano that I used for deformation source modeling. The modeling results show significant differences in pre- and post-eruptive magmatic deformation source parameters. Therefore, I conjecture that two magma chambers exist below Llaima volcano: a post-eruptive deep one and a shallow one possibly due to the pre-eruptive ascent of magma. Similar reservoir depths at Llaima have been confirmed by independent petrologic studies. These reservoirs are interpreted to be temporally coupled. At Tendürek volcano I have found long-term subsidence of the volcanic edifice, which can be described by a large, magmatic, sill-like source that is subject to cooling contraction. The displacement data in conjunction with high-resolution optical images, however, reveal arcuate fractures at the eastern and western flank of the volcano. These are most likely the surface expressions of concentric ring-faults around the volcanic edifice that show low magnitudes of slip over a long time. This might be an alternative mechanism for the development of large caldera structures, which are so far assumed to be generated during large catastrophic collapse events. To investigate the potential subsurface geometry and relation of the two proposed interacting sources at Tendürek, a sill-like magmatic source and ring-faults, I have performed a more sophisticated numerical modeling approach. The optimum source geometries show, that the size of the sill-like source was overestimated in the simple models and that it is difficult to determine the dip angle of the ring-faults with surface displacement data only. However, considering physical and geological criteria a combination of outward-dipping reverse faults in the west and inward-dipping normal faults in the east seem to be the most likely. Consequently, the underground structure at the Tendürek volcano consists of a small, sill-like, contracting, magmatic source below the western summit crater that causes a trapdoor-like faulting along the ring-faults around the volcanic edifice. Therefore, the magmatic source and the ring-faults are also interpreted to be temporally coupled. In addition, a method for data reduction has been improved. The modeling of subsurface deformation sources requires only a relatively small number of well distributed InSAR observations at the earth’s surface. Satellite radar images, however, consist of several millions of these observations. Therefore, the large amount of data needs to be reduced by several orders of magnitude for source modeling, to save computation time and increase model flexibility. I have introduced a model-based subsampling approach in particular for heterogeneously-distributed observations. It allows a fast calculation of the data error variance-covariance matrix, also supports the modeling of time dependent displacement data and is, therefore, an alternative to existing methods. N2 - Oberflächenverschiebungen an Vulkanen können einerseits durch unterirdische Magmen- oder Fluidbewegungen oder andererseits durch Gravitation verursacht werden. So sind insbesondere vor Eruptionen oft Aufwölbungen an Vulkanen zu beobachten, verursacht durch Magmenintrusion in die Erdkruste. Nach Eruptionen hingegen sinkt das Vulkangebäude aufgrund von Magmenextrusion wieder. Kontinuierliche Messungen an Vulkanen ermöglichen es, Eruptionen teilweise bis auf wenige Tage vorherzusagen. Die gemessenen Oberflächenverschiebungen können in analytischen oder numerischen Modellierungen genutzt werden, um Parameter eines möglichen Quellprozesses abzuschätzen. Auf diese Art und Weise kann das Verständnis über die unterirdischen Prozesse, die an Vulkanen stattfinden, verbessert werden. Obwohl es in den letzten Jahrzehnten eine enorme Entwicklung und Verbesserung der Überwachung von Vulkanen gab, sind viele Vorhersagen sehr vage und ungenau. Mit dieser Arbeit möchte ich einen Beitrag zum Verständnis von unterirdischen Prozessen an Vulkanen und auf lange Sicht gesehen, zur Vorhersage von Eruptionen leisten. Ich habe die Vulkane, Llaima in Chile und Tendürek im Osten der Türkei, mit Hilfe der Interferometrie von Radardaten (InSAR) untersucht. Die somit gemessenen Verschiebungen an der Erdoberfläche ermöglichen es, durch Modellierung der möglichen Deformationsquellen, Informationen über die Untergrundstrukturen dieser beiden bisher kaum erforschten Vulkane zu bekommen. Obwohl unterschiedlich in Aufbau, Gesteinszusammensetzung und Entstehung, zeigen beide Vulkane Anzeichen dafür, dass jeweils mehrere interagierende Deformationsquellen im Untergrund existieren. Am Vulkan Llaima war es schwierig, aufgrund der starken Dekorrelation des Radarsignals zwischen den Satellitenaufnahmen, die InSAR Methode anzuwenden. Ich entwickelte eine Methode um die doppeldeutigen relativen Phasenwerte der Interferogramme modellbasiert in eindeutige relative Phasenwerte umzurechnen. Die damit erzeugten Oberflächenverschiebungskarten am Vulkan eigneten sich nun für eine anschließende Modellierung der Deformationsquelle. Die Modellierungsergebnisse zeigen signifikante Unterschiede zwischen den Parametern der präeruptiven- und posteruptiven Deformationsquellen. Demzufolge könnten zwei unterschiedliche, interagierende Magmenkammern unter Llaima existieren, eine tiefe, posteruptiv aktive Kammer und eine flache, durch den Aufstieg von Magma präeruptiv aktive Kammer. Am Vulkan Tendürek ist eine langfristige, kontinuierliche Senkung des Vulkangebäudes zu beobachten, die mit einem großen, aufgrund von Kühlung sich kontrahierenden, magmatischen Sill, erklärbar ist. Unter Hinzunahme von hochauflösenden, optischen Daten jedoch, sind bei genauerer Untersuchung bogenförmige Strukturen an der Erdoberfläche sichtbar. Diese sind Anzeichen dafür, dass Verwerfungen existieren, die das gesamte Vulkangebäude in einem elliptischen Ring umgeben. Dabei ist zu beobachten, dass die Ringstörungen über Jahrtausende, möglicherweise sogar kontinuierlich, geringe Magnituden von Versatz aufweisen. Bei langer, kontinuierlicher Aktivität über mehrere zehntausende von Jahren, könnte dies ein weiterer Mechanismus zur Entstehung von Calderastrukturen an Vulkanen darstellen, der jedoch sehr langsam verläuft. Im Gegensatz dazu ist die heutige weit verbreitete Auffassung, dass Calderen als Folge katastrophaler Einstürze von Vulkangebäuden entstehen. Um zu untersuchen welche Geometrie die vorgeschlagenen Strukturen Sill und Ringstörungen an Tendürek im Untergund haben könnten, vollführte ich eine weitaus komplexere numerische Modellierung. Diese zeigt, dass die Größe des Sills ohne Berücksichtigung der Ringstörung um ein Vielfaches überschätzt ist. Die Orientierung und Geometrie der Ringstörungen ist jedoch nicht eindeutig nur mit Oberflächenverschiebungsdaten auflösbar. Unter der Berücksichtigung von geologischen und physikalischen Gesichtspunkten sind nach Außen einfallende Aufschiebungen im Westen und nach Innen einfallende Abschiebungen im Osten die plausibelste Erklärung. Außerdem habe ich eine Methode zur Datenreduzierung entwickelt. Abhängig vom zu untersuchenden Prozess sind für die Modellierung von unterirdischen Deformationsquellen verhältnismäßig wenige gut verteilte Messpunkte an der Erdoberfläche ausreichend. Satelliten gestützte Radaraufnahmen haben jedoch oft mehrere Millionen dieser Punkte. Deshalb müssen diese riesigen Datensätze auf eine Art und Weise reduziert werden, dass keine oder nur möglichst wenige Informationen verloren gehen. Für diesen Zweck habe ich, ausgehend von einem existierenden Algorithmus, eine modellbasierte Methode zur Reduzierung von besonders heterogen verteilten Oberflächendaten entwickelt. Diese Methode ist besonders gut auf Zeitreihendatensätze anwendbar und stellt somit eine Alternative zu existierenden Algorithmen dar. KW - InSAR KW - Deformationsquellenmodellierung KW - Llaima Vulkan KW - Tendürek Vulkan KW - Ringstörungen KW - InSAR KW - deformation source modeling KW - Llaima volcano KW - Tendürek volcano KW - ring-fault Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70522 ER - TY - THES A1 - Lindauer, T. Marius T1 - Algorithm selection, scheduling and configuration of Boolean constraint solvers N2 - Boolean constraint solving technology has made tremendous progress over the last decade, leading to industrial-strength solvers, for example, in the areas of answer set programming (ASP), the constraint satisfaction problem (CSP), propositional satisfiability (SAT) and satisfiability of quantified Boolean formulas (QBF). However, in all these areas, there exist multiple solving strategies that work well on different applications; no strategy dominates all other strategies. Therefore, no individual solver shows robust state-of-the-art performance in all kinds of applications. Additionally, the question arises how to choose a well-performing solving strategy for a given application; this is a challenging question even for solver and domain experts. One way to address this issue is the use of portfolio solvers, that is, a set of different solvers or solver configurations. We present three new automatic portfolio methods: (i) automatic construction of parallel portfolio solvers (ACPP) via algorithm configuration,(ii) solving the $NP$-hard problem of finding effective algorithm schedules with Answer Set Programming (aspeed), and (iii) a flexible algorithm selection framework (claspfolio2) allowing for fair comparison of different selection approaches. All three methods show improved performance and robustness in comparison to individual solvers on heterogeneous instance sets from many different applications. Since parallel solvers are important to effectively solve hard problems on parallel computation systems (e.g., multi-core processors), we extend all three approaches to be effectively applicable in parallel settings. We conducted extensive experimental studies different instance sets from ASP, CSP, MAXSAT, Operation Research (OR), SAT and QBF that indicate an improvement in the state-of-the-art solving heterogeneous instance sets. Last but not least, from our experimental studies, we deduce practical advice regarding the question when to apply which of our methods. N2 - Bool'sche Solver Technologie machte enormen Fortschritt im letzten Jahrzehnt, was beispielsweise zu industrie-relevanten Solvern auf der Basis von Antwortmengenprogrammierung (ASP), dem Constraint Satisfcation Problem (CSP), dem Erfüllbarkeitsproblem für aussagenlogische Formeln (SAT) und dem Erfüllbarkeitsproblem für quantifizierte boolesche Formeln (QBF) führte. Allerdings gibt es in all diesen Bereichen verschiedene Lösungsstrategien, welche bei verschiedenen Anwendungen unterschiedlich effizient sind. Dabei gibt es keine einzelne Strategie, die alle anderen Strategien dominiert. Das führt dazu, dass es keinen robusten Solver für das Lösen von allen möglichen Anwendungsprobleme gibt. Die Wahl der richtigen Strategie für eine neue Anwendung ist eine herausforderne Problemstellung selbst für Solver- und Anwendungsexperten. Eine Möglichkeit, um Solver robuster zu machen, sind Portfolio-Ansätze. Wir stellen drei automatisch einsetzbare Portfolio-Ansätze vor: (i) automatische Konstruktion von parallelen Portfolio-Solvern (ACPP) mit Algorithmen-Konfiguration, (ii) das Lösen des $NP$-harten Problems zur Algorithmen-Ablaufplanung (aspeed) mit ASP, und (iii) ein flexibles Algorithmen-Selektionsframework (claspfolio2), was viele Techniken von Algorithmen-Selektion parametrisiert implementiert und eine faire Vergleichbarkeit zwischen Ihnen erlaubt. Alle drei Methoden verbessern die Robustheit des Solvingprozesses für heterogenen Instanzmengen bestehend aus unterschiedlichsten Anwendungsproblemen. Parallele Solver sind zunehmend der Schlüssel zum effektiven Lösen auf multi-core Maschinen. Daher haben wir all unsere Ansätze auch für den Einsatz auf parallelen Architekturen erweitert. Umfangreiche Experimente auf ASP, CSP, MAXSAT, Operation Research (OR), SAT und QBF zeigen, dass der Stand der Technik durch verbesserte Performanz auf heterogenen Instanzmengen verbessert wurde. Auf Grundlage dieser Experimente leiten wir auch Ratschläge ab, in welchen Anwendungsszenarien welches unserer Verfahren angewendet werden sollte. T2 - Algorithmen-Selektion, -Ablaufplanung und -Konfiguration von Bool'schen Constraint Solvern KW - algorithm configuration KW - algorithm scheduling KW - algorithm selection KW - parallel solving KW - Boolean constraint solver KW - Algorithmenselektion KW - Algorithmenablaufplanung KW - Algorithmenkonfiguration KW - paralleles Lösen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71260 ER - TY - THES A1 - Busching, Robert T1 - Affektive und kognitive Desensibilisierung als Konsequenz von Mediengewaltkonsum : eine experimentelle Untersuchung auf Basis lerntheoretischer Überlegungen T1 - Affective and cognitive desensitization as a consequence of violent media exposure : an experimental investigation based on learning theories N2 - NutzerInnen von gewalthaltigen Medien geben einerseits oftmals zu, dass sie fiktionale, gewalthaltige Medien konsumieren, behaupten jedoch gleichzeitig, dass dies nicht ihr Verhalten außerhalb des Medienkontexts beeinflusst. Sie argumentieren, dass sie leicht zwischen Dingen, die im fiktionalen Kontext und Dingen, die in der Realität gelernt wurden, unterscheiden können. Im Kontrast zu diesen Aussagen zeigen Metanalysen Effektstärken im mittleren Bereich für den Zusammenhang zwischen Gewaltmedienkonsum und aggressivem Verhalten. Diese Ergebnisse können nur erklärt werden, wenn MediennutzerInnen gewalthaltige Lernerfahrungen auch außerhalb des Medienkontexts anwenden. Ein Prozess, der Lernerfahrungen innerhalb des Medienkontexts mit dem Verhalten in der realen Welt verknüpft, ist Desensibilisierung, die oftmals eine Reduktion des negativen Affektes gegenüber Gewalt definiert ist. Zur Untersuchung des Desensibilisierungsprozesses wurden vier Experimente durchgeführt. Die erste in dieser Arbeit untersuchte Hypothese war, dass je häufiger Personen Gewaltmedien konsumieren, desto weniger negativen Affekt zeigen sie gegenüber Bildern mit realer Gewalt. Jedoch wurde angenommen, dass diese Bewertung auf Darstellungen von realer Gewalt beschränkt ist und nicht bei Bildern ohne Gewaltbezug, die einen negativen Affekt auslösen, zu finden ist. Die zweite Hypothese bezog sich auf den Affekt während des Konsums von Mediengewalt. Hier wurde angenommen, dass besonders Personen, die Freude an Gewalt in den Medien empfinden weniger negativen Affekt gegenüber realen Gewaltdarstellungen zeigen. Die letzte Hypothese beschäftigte sich mit kognitiver Desensibilisierung und sagte vorher, dass Gewaltmedienkonsum zu einem Transfer von Reaktionen, die normalerweise gegenüber gewalthaltigen Reizen gezeigt werden, auf ursprünglich neutrale Reize führt. Das erste Experiment (N = 57) untersuchte, ob die habituelle Nutzung von gewalthaltigen Medien den selbstberichteten Affekt (Valenz und Aktivierung) gegenüber Darstellungen von realer Gewalt und nichtgewalthaltigen Darstellungen, die negativen Affekt auslösen, vorhersagt. Die habituelle Nutzung von gewalthaltigen Medien sagte weniger negative Valenz und weniger allgemeine Aktivierung gegenüber gewalthalten und nichtgewalthaltigen Bildern vorher. Das zweite Experiment (N = 103) untersuchte auch die Beziehung zwischen habituellem Gewaltmedienkonsum und den affektiven Reaktionen gegenüber Bildern realer Gewalt und negativen affektauslösenden Bildern. Als weiterer Prädiktor wurde der Affekt beim Betrachten von gewalthaltigen Medien hinzugefügt. Der Affekt gegenüber den Bildern wurde zusätzlich durch psychophysiologische Maße (Valenz: C: Supercilii; Aktivierung: Hautleitreaktion) erhoben. Wie zuvor sagte habitueller Gewaltmedienkonsum weniger selbstberichte Erregung und weniger negative Valenz für die gewalthaltigen und die negativen, gewalthaltfreien Bilder vorher. Die physiologischen Maßen replizierten dieses Ergebnis. Jedoch zeigte sich ein anderes Muster für den Affekt beim Konsum von Gewalt in den Medien. Personen, die Gewalt in den Medien stärker erfreut, zeigen eine Reduktion der Responsivität gegenüber Gewalt auf allen vier Maßen. Weiterhin war bei drei dieser vier Maße (selbstberichte Valenz, Aktivität des C. Supercilii und Hautleitreaktion) dieser Zusammenhang auf die gewalthaltigen Bilder beschränkt, mit keinem oder nur einem kleinen Effekt auf die negativen, aber nichtgewalthaltigen Bilder. Das dritte Experiment (N = 73) untersuchte den Affekt während die Teilnehmer ein Computerspiel spielten. Das Spiel wurde eigens für dieses Experiment programmiert, sodass einzelne Handlungen im Spiel mit der Aktivität des C. Supercilii, dem Indikator für negativen Affekt, in Bezug gesetzt werden konnten. Die Analyse des C. Supercilii zeigte, dass wiederholtes Durchführen von aggressiven Spielzügen zu einem Rückgang von negativen Affekt führte, der die aggressiven Spielhandlungen begleitete. Der negative Affekt während gewalthaltiger Spielzüge wiederum sagte die affektive Reaktion gegenüber Darstellungen von gewalthaltigen Bildern vorher, nicht jedoch gegenüber den negativen Bildern. Das vierte Experiment (N = 77) untersuchte kognitive Desensibilisierung, die die Entwicklung von Verknüpfungen zwischen neutralen und aggressiven Kognitionen beinhaltete. Die Teilnehmer spielten einen Ego-Shooter entweder auf einem Schiff- oder einem Stadtlevel. Die Beziehung zwischen den neutralen Konstrukten (Schiff/Stadt) und den aggressiven Kognitionen wurde mit einer lexikalischen Entscheidungsaufgabe gemessen. Das Spielen im Schiff-/Stadt-Level führte zu einer kürzen Reaktionszeit für aggressive Wörter, wenn sie einem Schiff- bzw. Stadtprime folgten. Dies zeigte, dass die im Spiel enthaltenen neutralen Konzepte mit aggressiven Knoten verknüpft werden. Die Ergebnisse dieser vier Experimente wurden diskutiert im Rahmen eines lerntheoretischen Ansatzes um Desensibilisierung zu konzeptualisieren. N2 - Users of violent media often state that they consume fictional violent media and claim that this does not influence their behavior outside of the media context. Media users reason that they can easily distinguish between things learned in a fictional context and things learned in reality. In contrast to these claims, meta-analyses report medium-sized effects between media violence consumption and aggressive behavior. These effects can only be explained if media users also apply learning experiences from the media outside the media context. One of the processes linking learning experiences in the media context to behavior in the real word is desensitization, which is often defined as a reduction of negative affect towards violence. To investigate the process of desensitization, four experiments were conducted. The first hypothesis investigated in these experiments was that persons who have a higher level of violent media exposure show less negative affect towards depictions of real violence compared to persons with a lower level. However, it was assumed that this reduction in reaction would be limited to depictions of real violence and would not be found in response to depictions of nonviolent pictures electing negative affect. The second hypothesis referred to the role of affect experienced during exposure to media depictions of violence, assuming that especially people who enjoy the violence while consuming the media show less negative affect towards depictions of real violence. The final hypothesis addressed cognitive desensitization effects and predicted that media violence use leads to transfer effects from responses to violent cues to initially neutral stimuli The first experiment (N = 57) examined to what extent the habitual use of media violence predicts the self-reported affect (Valence and Arousal) towards depictions of real violence and nonviolent pictures eliciting negative affect. Habitual media violence exposure predicted less negative valence and less arousal toward violent pictures and negative nonviolent pictures. The second experiment (N = 103) also examined the relationship between habitual media violence exposure and the affective reactions towards images of real violence as well as negative, nonviolent scenes. Additionally, affect while watching violent media was added as a second predictor. The affect toward the images was also obtained by psychophysical measures (Valence: activity of C. Supercilii; Activation: skin conductance). As in experiment 1, habitual media violence exposure predicted less self-reported negative valence and less self-reported arousal for the violent pictures and the negative nonviolent pictures. The physiological measures replicated this result. However, a different pattern emerged for the enjoyment of violent media. People who enjoyed violent media more showed a reduction of affective responsivity toward violence on all four different measures. Additionally, for three of the four measures (skin conductance, self-reported negative valence and the activity on the C. Supercilii) this relationship was limited to the violent pictures, with no or little effect on the negative, but nonviolent pictures. A third experiment (N = 73) studied affect while participants played a violent computer game. A game was specially programmed in which specific actions could be linked to the activity of the C. Supercilii, an indicator for negative affect. The analysis of the C. Supercilii showed that repeatedly performing aggressive actions during the game led to a decline in negative affect accompanying the aggressive actions. The negative affect during aggressive actions in turn predicted less negative affective responses to violent images of real-life violence but not to nonviolent, negative images. The fourth experiment (N=77) showed cognitive desensitization effects, which involved the formation of links between neutral and aggressive cognitions. Participants played a first-person shooter game either on a ship or a city level. The relationship between neutral constructs (ship/city) and aggressive cognitions was measured using a lexical decision task. Playing the game in a ship/city level led to shorter reaction time for aggressive words following ship/city primes respectively. This indicated that the neutral concepts introduced in the game had become associated with aggressive cognitions. The findings of these four experiments are discussed in terms of a learning theory approach to conceptualizing desensitization. KW - Mediengewalt KW - Desensibilisierung KW - Videospiele KW - physiologische Verfahren KW - Aggression KW - media violence KW - desensitization KW - video games KW - psychophysiological measures KW - aggression Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71360 ER - TY - THES A1 - Schmidt, Lukas T1 - Aerosols and boundary layer structure over Arctic sea ice based on airborne lidar and dropsonde measurements T1 - Aerosol und Grenzschichtstruktur über arktischem Meereis anhand von Flugzeuggetragenen Lidar- und Dropsonden- Messungen N2 - The atmosphere over the Arctic Ocean is strongly influenced by the distribution of sea ice and open water. Leads in the sea ice produce strong convective fluxes of sensible and latent heat and release aerosol particles into the atmosphere. They increase the occurrence of clouds and modify the structure and characteristics of the atmospheric boundary layer (ABL) and thereby influence the Arctic climate. In the course of this study aircraft measurements were performed over the western Arctic Ocean as part of the campaign PAMARCMIP 2012 of the Alfred Wegener Institute for Polar and Marine Research (AWI). Backscatter from aerosols and clouds within the lower troposphere and the ABL were measured with the nadir pointing Airborne Mobile Aerosol Lidar (AMALi) and dropsondes were launched to obtain profiles of meteorological variables. Furthermore, in situ measurements of aerosol properties, meteorological variables and turbulence were part of the campaign. The measurements covered a broad range of atmospheric and sea ice conditions. In this thesis, properties of the ABL over Arctic sea ice with a focus on the influence of open leads are studied based on the data from the PAMARCMIP campaign. The height of the ABL is determined by different methods that are applied to dropsonde and AMALi backscatter profiles. ABL heights are compared for different flights representing different conditions of the atmosphere and of sea ice and open water influence. The different criteria for ABL height that are applied show large variation in terms of agreement among each other, depending on the characteristics of the ABL and its history. It is shown that ABL height determination from lidar backscatter by methods commonly used under mid-latitude conditions is applicable to the Arctic ABL only under certain conditions. Aerosol or clouds within the ABL are needed as a tracer for ABL height detection from backscatter. Hence an aerosol source close to the surface is necessary, that is typically found under the present influence of open water and therefore convective conditions. However it is not always possible to distinguish residual layers from the actual ABL. Stable boundary layers are generally difficult to detect. To illustrate the complexity of the Arctic ABL and processes therein, four case studies are analyzed each of which represents a snapshot of the interplay between atmosphere and underlying sea ice or water surface. Influences of leads and open water on the aerosol and clouds within the ABL are identified and discussed. Leads are observed to cause the formation of fog and cloud layers within the ABL by humidity emission. Furthermore they decrease the stability and increase the height of the ABL and consequently facilitate entrainment of air and aerosol layers from the free troposphere. N2 - Die Verteilung von Meereis und offenem Wasser hat einen starken Einfluss auf die Atmosphäre über dem arktischen Ozean. Eisrinnen (sog. Leads) verursachen konvektive Flüsse von latenter und sensibler Wärme und führen zum Eintrag von Aerosolpartikeln in die Atmosphäre. Dadurch führen sie zum vermehrten Auftreten von Wolken und modifizieren die Struktur und die Eigenschaften der atmosphärischen Grenzschicht (ABL), wodurch das arktische Klima beeinflusst wird. Im Rahmen der Messkampagne PAMARCMIP 2012 des Alfred-Wegener-Instituts (AWI) wurden als Teil dieser Arbeit über dem westlichen arktischen Ozean Flugzeugmessungen durchgeführt. Mithilfe des nach unten gerichteten Airborne Mobile Aerosol Lidar (AMALi) wurde die Rückstreuung von Aerosolen und Wolken in der unteren Troposphäre und ABL gemessen. Dropsonden wurden verwendet, um Profile meteorologischer Größen zu erhalten. Zudem wurden in situ Messungen von Aerosoleigenschaften, meteorologischen Variablen und der Turbulenz durchgeführt. In dieser Arbeit werden die Eigenschaften der ABL über arktischem Meereis basierend auf den Daten der PAMARCMIP Kampagne untersucht. Dabei liegt der Fokus auf dem Einfluss offener Leads auf die ABL. Aus den gewonnenen Dropsondendaten und AMALi Rückstreuprofilen wird die Höhe der ABL mithilfe verschiedener Methoden bestimmt. Die für verschiedene Messflüge und somit unterschiedliche atmosphärische Bedingungen sowie Meereisverteilungen berechneten ABL Höhen werden miteinander verglichen, und somit der Einfluss von offenem Wasser auf die ABL untersucht. Die verschiedenen Methoden zur Bestimmung der ABL Höhe führen zu unterschiedlichen Ergebnissen, je nach Eigenschaften der ABL und ihrer Geschichte. Es wird gezeigt, dass die Methoden für die ABL Höhen-Bestimmung aus der Lidar Rückstreuung, die gewöhnlich für die mittleren Breiten verwendet werden, nur bedingt für arktische Bedingungen geeignet ist. Um die ABL Höhe aus der Rückstreuung ableiten zu können, müssen Aerosole oder Wolken in der Grenzschicht als Tracer vorhanden sein. Dazu ist eine Aerosolquelle nahe der Oberfläche notwendig, welche typischerweise unter dem Einfluss von offenem Wasser und konvektiven Bedingungen vorliegt. Dennoch ist es nicht immer möglich, die aktuelle Grenzschicht von residualen Schichten zu unterscheiden. Stabile Grenzschichten sind im Allgemeinen schwer zu detektieren. Um die Komplexität der arktischen Grenzschicht und die beteiligten Prozesse zu veranschaulichen, werden vier Fallstudien detailliert analysiert, welche jeweils eine Momentaufnahme des Zusammenspiels von Atmosphäre und Meereis oder Wasseroberfläche darstellen. Der Einfluss von Leads und offenem Wasser auf Aerosol und Wolken in der ABL werden identifiziert und diskutiert. Die Bildung von Wolken- und Nebelschichten, verursacht durch den Feuchteeintrag über offenen Leads, wird beobachtet. Zudem verringern leads die Stabilität der ABL, führen zu einer Zunahme ihrer Höhe und begünstigen dadurch Entrainment von Luft und Aerosolschichten aus der freien Troposphäre. KW - polar KW - atmosphere KW - AMALi KW - Polar 5 KW - lead KW - polar KW - Atmosphäre KW - AMALi KW - Polar 5 KW - Eisrinne Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75076 ER - TY - THES A1 - Yadavalli, Nataraja Sekhar T1 - Advances in experimental methods to probe surface relief grating formation mechanism in photosensitive materials T1 - Entstehung von Oberflächengittern in lichtempfindlichen Materialien N2 - When azobenzene-modified photosensitive polymer films are irradiated with light interference patterns, topographic variations in the film develop that follow the electric field vector distribution resulting in the formation of surface relief grating (SRG). The exact correspondence of the electric field vector orientation in interference pattern in relation to the presence of local topographic minima or maxima of SRG is in general difficult to determine. In my thesis, we have established a systematic procedure to accomplish the correlation between different interference patterns and the topography of SRG. For this, we devise a new setup combining an atomic force microscope and a two-beam interferometer (IIAFM). With this set-up, it is possible to track the topography change in-situ, while at the same time changing polarization and phase of the impinging interference pattern. To validate our results, we have compared two photosensitive materials named in short as PAZO and trimer. This is the first time that an absolute correspondence between the local distribution of electric field vectors of interference pattern and the local topography of the relief grating could be established exhaustively. In addition, using our IIAFM we found that for a certain polarization combination of two orthogonally polarized interfering beams namely SP (↕, ↔) interference pattern, the topography forms SRG with only half the period of the interference patterns. Exploiting this phenomenon we are able to fabricate surface relief structures below diffraction limit with characteristic features measuring only 140 nm, by using far field optics with a wavelength of 491 nm. We have also probed for the stresses induced during the polymer mass transport by placing an ultra-thin gold film on top (5–30 nm). During irradiation, the metal film not only deforms along with the SRG formation, but ruptures in regular and complex manner. The morphology of the cracks differs strongly depending on the electric field distribution in the interference pattern even when the magnitude and the kinetic of the strain are kept constant. This implies a complex local distribution of the opto-mechanical stress along the topography grating. The neutron reflectivity measurements of the metal/polymer interface indicate the penetration of metal layer within the polymer resulting in the formation of bonding layer that confirms the transduction of light induced stresses in the polymer layer to a metal film. N2 - Azobenzolhaltige Polymere gehören zu einer Klasse funktionaler Materialien, bei denen durch ein äußeres Strahlungsfeld eine starke mechanische Reaktion ausgelöst werden kann. Durch die Bindung an das Polymerrückgrat können die Azobenzole, die unter UV-Belichtung eine Photoisomerisierung ausführen, was zum Teil drastische Effekte zur Folge hat. Unter Belichtung mit Intensitätsmustern, d.h. mit räumlich variierender Verteilung der Polarisation oder der Intensität des einfallenden Lichts verändert sich die Topographie der azobenzolhaltigen Filme, was zur Bildung von Oberflächengittern (engl. Surface Relief Gratings, SRG) führt. In dieser Arbeit wurde eine neue Methode vorgeschlagen, bei der das Verhalten elastischer/morphologischer Eigenschaften unter verschiedenen Belichtungsbedingungen, d.h. mit unterschiedlicher Verteilung der Polarisation und der Intensität in situ lokal als Funktion der Position entlang der SRG aufgenommen werden kann. Außerdem wurde hier vorgeschlagen, opto-mechanische Spannungen, die innerhalb der photosensitiven Polymerfilme während der Belichtung entstehen, mit Hilfe dünner aufgebrachter metallischen Schichten abzubilden und zu analysieren. KW - Azobenzolhaltige Polymerfilme KW - Oberflächengitter KW - In-situ Rasterkraftmikroskopie KW - Opto-mechanische Spannungen KW - Metall/Graphen/Polymer Grenzfläch KW - azobenzene polymer films KW - surface relief grating KW - in-situ atomic force microscopy KW - opto-mechanical stresses KW - metal/polymer interfaces Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71213 ER - TY - THES A1 - Herenz, Peter T1 - A study of the absorption characteristics of gaseous galaxy halos in the local Universe T1 - Untersuchung von Absorptionsstrukturen in den gasförmigen Halos von Galaxien im lokalen Universum. N2 - Today, it is well known that galaxies like the Milky Way consist not only of stars but also of gas and dust. The galactic halo, a sphere of gas that surrounds the stellar disk of a galaxy, is especially interesting. It provides a wealth of information about in and outflowing gaseous material towards and away from galaxies and their hierarchical evolution. For the Milky Way, the so-called high-velocity clouds (HVCs), fast moving neutral gas complexes in the halo that can be traced by absorption-line measurements, are believed to play a crucial role in the overall matter cycle in our Galaxy. Over the last decades, the properties of these halo structures and their connection to the local circumgalactic and intergalactic medium (CGM and IGM, respectively) have been investigated in great detail by many different groups. So far it remains unclear, however, to what extent the results of these studies can be transferred to other galaxies in the local Universe. In this thesis, we study the absorption properties of Galactic HVCs and compare the HVC absorption characteristics with those of intervening QSO absorption-line systems at low redshift. The goal of this project is to improve our understanding of the spatial extent and physical conditions of gaseous galaxy halos in the local Universe. In the first part of the thesis we use HST /STIS ultraviolet spectra of more than 40 extragalactic background sources to statistically analyze the absorption properties of the HVCs in the Galactic halo. We determine fundamental absorption line parameters including covering fractions of different weakly/intermediately/highly ionized metals with a particular focus on SiII and MgII. Due to the similarity in the ionization properties of SiII and MgII, we are able to estimate the contribution of HVC-like halo structures to the cross section of intervening strong MgII absorbers at z = 0. Our study implies that only the most massive HVCs would be regarded as strong MgII absorbers, if the Milky Way halo would be seen as a QSO absorption line system from an exterior vantage point. Combining the observed absorption-cross section of Galactic HVCs with the well-known number density of intervening strong MgII absorbers at z = 0, we conclude that the contribution of infalling gas clouds (i.e., HVC analogs) in the halos of Milky Way-type galaxies to the cross section of strong MgII absorbers is 34%. This result indicates that only about one third of the strong MgII absorption can be associated with HVC analogs around other galaxies, while the majority of the strong MgII systems possibly is related to galaxy outflows and winds. The second part of this thesis focuses on the properties of intervening metal absorbers at low redshift. The analysis of the frequency and physical conditions of intervening metal systems in QSO spectra and their relation to nearby galaxies offers new insights into the typical conditions of gaseous galaxy halos. One major aspect in our study was to regard intervening metal systems as possible HVC analogs. We perform a detailed analysis of absorption line properties and line statistics for 57 metal absorbers along 78 QSO sightlines using newly-obtained ultraviolet spectra obtained with HST /COS. We find clear evidence for bimodal distribution in the HI column density in the absorbers, a trend that we interpret as sign for two different classes of absorption systems (with HVC analogs at the high-column density end). With the help of the strong transitions of SiII λ1260, SiIII λ1206, and CIII λ977 we have set up Cloudy photoionization models to estimate the local ionization conditions, gas densities, and metallicities. We find that the intervening absorption systems studied by us have, on average, similar physical conditions as Galactic HVC absorbers, providing evidence that many of them represent HVC analogs in the vicinity of other galaxies. We therefore determine typical halo sizes for SiII, SiIII, and CIII for L = 0.01L∗ and L = 0.05L∗ galaxies. Based on the covering fractions of the different ions in the Galactic halo, we find that, for example, the typical halo size for SiIII is ∼ 160 kpc for L = 0.05L∗ galaxies. We test the plausibility of this result by searching for known galaxies close to the QSO sightlines and at similar redshifts as the absorbers. We find that more than 34% of the measured SiIII absorbers have galaxies associated with them, with the majority of the absorbers indeed being at impact parameters ρ ≤160 kpc. N2 - Galaxien bestehen nicht nur aus Planeten und Sternen, sondern sind u.a. auch von einer Hülle aus Gas und Staub, dem Halo, umgeben. Dieser Halo spielt für die Entwicklung der Galaxie eine zentrale Rolle, da er mit der galaktischen Scheibe wechselwirken kann. Für das Verständnis des galaktischen Materiekreislaufs ist es daher entscheidend, die Prozesse und Vorgänge sowie das Zusammenspiel der verschiedenen Gasphasen in diesem Übergangsbereich zum intergalaktischen Medium charakterisieren und verstehen zu können. In der vorliegenden Arbeit werden lokale Phänomene, die sogenannten Hochgeschwindigkeitswolken (HVCs), im Halo der Milchstraße mit Hilfe des Hubble-Weltraumteleskops analysiert und ausgewertet. Im Gegensatz zu dem normalen Halo Gas bewegen sich diese HVCs mit ungewöhnlich hohen Geschwindigkeiten durch die ̈ äußeren Bereiche der Milchstraße. Sie passen daher nicht in das Galaktische Ge- schwindigkeitsmodell und stellen eine eigene, wichtige Klasse von Objekten dar, welche mit der Galaxie wechselwirken und diese beeinflussen. Für die Analyse dieser HVCs werden mehr als 40 Spektren von extragalaktischen Hintergrundquellen statistisch untersucht, um u.a. den Bedeckungsanteil von verschiedenen niedrig-/mittel- und hochionisierten Metallen zu ermitteln. Wegen der Ähnlichkeit der Ionisationsparameter von einfach ionisiertem Silizium, SiII, und einfach ionisiertem Magnesium, MgII, ist es möglich, den Beitrag von HVCs zum Wirkungsquerschnitt von starken MgII Absorbern im lokalen Universum zu bestimmen. Es stellt sich heraus, dass, würde man von außen auf die Milchstraße schauen, Galaktische HVCs etwa 52 % zum totalen Wirkungsquerschnitt von starken MgII Absorptionssystemen in der Milchstraße beitragen. Weiterhin ergibt sich, dass nur etwa ein Drittel der starken MgII Absorptionssysteme in der Umgebung von Milchstraßen-ähnlichen Galaxien als HVC Gegenstücke identifziert werden kann. Betrachtet man die große Anzahl an bekannten MgII Absorptionssystemen folgt daraus, dass das HVC-Phänomen nicht alleine auf unsere Galaxie beschränkt ist, sondern im Gegenteil, weit verbreitet zu sein scheint. Weiterhin werden die Eigenschaften von Metallsystemen bei niedriger Rotverschiebung in Quasarspektren analysiert. Die Suche nach extragalaktischen Metallsystemen in einer Vielzahl von Spektren und deren statistische Auswertung bezogen auf ihre Ursprungsgalaxien ermöglicht es, neue Erkenntnisse über die typische Struktur von Halos Milchstraßen-ähnlicher Galaxien zu erlangen. Eine der Hauptfragestellungen ist die Identifizierung von entfernten Metallsystemen als HVC-Analoga. Dazu wurden weitere Quasarspektren des Hubble-Teleskops ausgewertet und mit den Ergebnissen über Galaktische HVCs verglichen. Es zeigt sich hierbei, dass z.B. in der Säulendichteverteilung von neutralem Wasserstoff eine deutliche zweikomponentige Struktur zu erkennen ist. Diese könnte das Resultat von zwei verschiedenen Absorber Populationen sein, wobei eine HVC-ähnliche Eigenschaften aufweist. Diese Absorptionssysteme besitzen im Mittel sehr ähnliche Eigenschaften wie Galaktische Absorber, z.B. in Bezug auf die Eigenschaften des Gases oder dessen Zusammensetzung. Das impliziert u.a., dass sich auch dazugehörige Galaxien innerhalb eines bestimmten Abstandes um diese Absorber befinden sollten. Diese Vermutung wird anhand der Daten exemplarisch für zweichfach ionisiertes Silizium, SiII, untersucht. Es stellt sich heraus, dass sich in mehr als 34 % der Fälle zugehörige Galaxien bei SiIII Absorbern befinden, wobei die Mehrheit sogar innerhalb des von uns ermittelten mittleren Detektionsradius von 160 kpc zu finden ist. Allgemein können wir viele Hinweise darauf finden, dass das HVC-Phänomen nicht nur auf die Milchstraße beschränkt, sondern weit verbreitet ist. Zusätzlich scheinen Metallsysteme in Quasarspektren gute Indikatoren für HVC-Analoga in der Umgebung von anderen entfernten Galaxien zu sein. KW - Halo KW - Hochgeschwindigkeitswolken KW - Galaxien KW - Spektroskopie KW - halo KW - high-velocity-clouds KW - galaxies KW - spectroscopy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70513 ER - TY - THES A1 - D'Agata, Valeria Costanza T1 - A partire dalla Somaestetica di Shusterman T1 - Von der Somästhetik von Shusterman BT - una riflessione sul corpo BT - eine Reflexion über den Körper/Leib N2 - Con la sua proposta di una Somaestetica, articolata fondamentalmente in analitica, pragmatica e pratica, Richard Shusterman intende in primo luogo fornire e creare una cornice metodologica, un orientamento unitario che sia in grado di rintracciare, ricostruire e portare a manifestazione - all’interno di eterogenee riflessioni teoriche e pratiche somatiche - la comune esigenza di ridare luce alla dimensione corporea come modo primario di essere nel mondo. Recuperando l’accezione baumgarteniana di Aesthetica come gnoseologia inferiore, arte dell’analogo della ragione, scienza della conoscenza sensibile, la somaestetica intende dare nuovo impulso alla più profonda radice di estetica e filosofia che coglie la vita nel suo processo di metamorfosi e rigenerazione continua, in quel respiro vitale che, per quanto possa diventare cosciente, non è mai totalmente afferrabile dalla ragione discorsiva, situandosi piuttosto in quello spazio primordiale in cui coscienza e corpo si coappartengono, in cui il soggetto non è ancora individualizzabile perché fuso con l’ambiente, non è totalmente privatizzabile perché intrinsecamente plasmato dal tessuto sociale cui egli stesso conferisce dinamicamente forma. A partire dunque dalla rivalutazione del concetto di Aisthesis la disciplina somaestetica mira ad una intensificazione di sensorialità, percezione, emozione, commozione, rintracciando proprio nel Soma la fonte di quelle facoltà “inferiori” irriducibili a quelle puramente intellettuali, che permettono di accedere alle dimensioni qualitative dell’esperienza, di portare a manifestazione e far maturare l’essere umano come essere indivisibile che non si lascia incontrare da un pensiero che ne rinnega l’unitarietà in nome di fittizie e laceranti distinzioni dicotomiche. Nel corpo infatti si radicano in modo silente regole, convenzioni, norme e valori socioculturali che determinano e talvolta limitano la configurazione ed espressione di sensazioni, percezioni, cognizioni, pensieri, azioni, volizioni, disposizioni di un soggetto da sempre inserito in una Mitwelt (mondo comune), ed è allora proprio al corpo che bisogna rivolgersi per riconfigurare più autentiche modalità di espressione del soggetto che crea equilibri dinamici per mantenere una relazione di coerenza con il più ampio contesto sociale, culturale, ambientale. L’apertura al confronto con eterogenee posizioni filosofiche e l’intrinseca multidisciplinarietà spiegano la centralità nel contemporaneo dibattito estetologico internazionale della Somaestetica che, rivolgendosi tanto ad una formulazione teorica quanto ad una concreta applicazione pratica, intende rivalutare il soma come corporeità intelligente, senziente, intenzionale e attiva, non riducibile all’accezione peccaminosa di caro (mero corpo fisico privo di vita e sensazione). Attraverso la riflessione e la pratica di tecniche di coscienza somatica si portano in primo piano i modi in cui il sempre più consapevole rapporto con la propria corporeità come mediatamente esperita e immediatamente vissuta, sentita, offre occasioni autentiche di realizzazione progressiva di sé innanzitutto come persone, capaci di autocoltivazione, di riflessione cosciente sulle proprie abitudini incorporate, di ristrutturazione creativa di sé, di intensificata percezione e apprezzamento sensoriale sia nel concreto agire quotidiano, sia nella dimensione più propriamente estetologica di ricezione, fruizione e creazione artistica. L’indirizzo essenzialmente pragmatista della riflessione di Shusterman traccia così una concezione fondamentalmente relazionale dell’estetica in grado di porsi proprio nel movimento e nel rapporto continuamente diveniente di vera e propria trasformazione e passaggio tra le dimensioni fisiche, proprio-corporee, psichiche e spirituali del soggetto la cui interazione, ed il cui reciproco riversarsi le une nelle altre, può risultare profondamente arricchito attraverso una progressiva e sempre crescente consapevolizzazione della ricchezza della dimensione corporea in quanto intenzionale, percettiva, senziente, volitiva, tanto quanto vulnerabile, limitante, caduca, patica. Il presente lavoro intende ripercorrere ed approfondire alcuni dei principali referenti di Shusterman, focalizzandosi prevalentemente sulla radice pragmatista della sua proposta e sul confronto con il dibattito di area tedesca tra estetica, antropologia filosofica, neofenomenologia e antropologia medica, per riguadagnare una nozione di soma che proprio a partire dal contrasto, dall’impatto irriducibile con la potenza annullante delle situazioni limite, della crisi possa acquisire un più complesso e ricco valore armonizzante delle intrinseche e molteplici dimensioni che costituiscono il tessuto della soggettività incarnata. In particolare il primo capitolo (1. Somaestetica) chiarisce le radici essenzialmente pragmatiste della proposta shustermaniana e mostra come sia possibile destrutturare e dunque riconfigurare radicati modi di esperienza, rendendo coscienti abitudini e modi di vivere che si fissano a livello somatico in modo per lo più inavvertito. Il confronto con la nozione di Habitus, di cui Pierre Bourdieu mette brillantemente in luce l’invisibile e socialmente determinata matrice somatica, lascia scorgere come ogni manifestazione umana sia sostenuta dall’incorporazione di norme, credenze, valori che determinano e talvolta limitano l’espressione, lo sviluppo, persino le predisposizioni e le inclinazioni degli individui. Ed è proprio intervenendo a questo livello che si può restituire libertà alle scelte e aprirsi così alle dimensioni essenzialmente qualitative dell’esperienza che, nell’accezione deweyana è un insieme olistico unitario e coeso che fa da sfondo alle relazioni organismo-ambiente, un intreccio inestricabile di teoria e prassi, particolare e universale, psiche e soma, ragione ed emozione, percettivo e concettuale, insomma quell’immediata conoscenza corporea che struttura lo sfondo di manifestazione della coscienza. N2 - Mit seinem Vorschlag für eine Somästhetik, grundsätzlich in eine analytische, pragmatische und praktische unterteilt, beabsichtigt Richard Shusterman in erster Linie einen methodischen Rahmen zu bieten und zu schaffen, d. h. einen einheitlichen Ansatz, der in der Lage ist, das gemeinsame Bedürfnis zu verfolgen und ans Licht zu bringen - in heterogenen theoretischen Überlegungen und somatischen Praktiken - die Körper-Leiblichkeit als primäre Art des Seins in der Welt wiederherzustellen. Durch die Wiedergewinnung der Bedeutung der Aesthetica von Baumgarten als gnoseologia inferior, ars analogi rationis, scientia cognitionis sensitiuae1, will die Somaästhetik die tiefste Wurzel der Ästhetik und der Philosophie wieder erneuern, die das Leben in seinem Prozess der ununterbrochenen Metamorphose und Regeneration erfasst, in diesem Atem des Lebens, der, inwieweit er sich dessen bewusst ist, von der diskursiven Vernunft nie ganz begriffen wird, denn er befindet sich vielmehr im Ur- Raum, in dem Bewusstsein und Körperlichkeit zusammengehören, in dem das Subjekt noch nicht individualisierbar ist, weil es mit der Umwelt verschmolzen ist; es ist nicht vollständig privatisierbar, weil es untrennbar von der Sozialstruktur ist, der es selbst dynamisch Form gibt. Von der Neubewertung des Begriffes „Aisthesis“ sucht die somästhetische Disziplin eine Intensivierung der Sinne, der Wahrnehmung, der Emotionen, des Gefühls, um tatsächlich im Soma die Quelle der „minderwertigen“ Fähigkeiten (nicht reduzierbar auf rein intellektuelle) zu verfolgen, die es erlauben, mit den qualitativen Dimensionen der Erfahrung in Kontakt zu treten, den einheitlichen Menschen, der sich nicht dazu eignet, von einem dichotomen Gedanken trennen zu lassen, als unteilbares Wesen aufzudecken und reifen zu lassen. Im Körper schlagen unbewusst Regeln, Konventionen, Normen und sozio-kulturelle Werte Wurzeln, die die Konfiguration und den Ausdruck von Gefühlen, Wahrnehmungen, Wissen, Denken, Handeln, Willensakten, Bestimmungen von einem Subjekt, das seit jeher in eine Mitwelt eingefügt ist, bestimmen und manchmal begrenzen. Daraus folgt, dass wir unsere Aufmerksamkeit auf den Körper richten sollen, um die authentischste Ausdrucksweise des Subjekts, das ein dynamisches Gleichgewicht schafft, um eine Beziehung der Kohärenz mit der breiteren sozialen, kulturellen, ökologischen Kontext zu halten, neu zu konfigurieren. Die Öffnung für den Vergleich mit heterogenen philosophischen Positionen und dem inhärenten multidisziplinären Charakter2 erklärt die Zentralität der Somästhetik in der zeitgenössischen internationalen ästhetischen Debatte: durch eine theoretische Formulierung und eine konkrete praktische Anwendung beabsichtigt sie Soma neu zu bewerten, als intelligente, fühlende, vorsätzliche und aktive Körperlichkeit, nicht reduzierbar auf die sündige Bedeutung von caro (der bloße physische Körper, ohne Leben und Empfindungen). Durch Reflexion und Praxis der Techniken des Körperbewusstseins rücken die Modalitäten in den Vordergrund, in denen das stets bewusstere Verhältnis zu der eigenen Leiblichkeit, als mittelbar erlebt und unmittelbar gelebt, gefühlt wird, authentische Chancen für die progressive Realisierung des eigenen Ich bietet, d. h. zuallererst als Personen, die in der Lage sind, Selbst-Sorge zu tragen, die wissen, wie sie bewusst über ihre eigenen verkörperten Gewohnheiten reflektieren können, wie sie kreativ das Selbst umstrukturieren können, wie sie eine Intensivierung der Wahrnehmung und der sinnlichen Wertschätzung sowohl in konkreten täglichen Handlungen, als auch in der spezifischeren ästhetischen Dimension des künstlerischen Schaffens und Genießens erleben können3. Die wesentliche pragmatische Richtung der Reflexion von Shusterman umreißt eine grundlegend relationale Betrachtung der Ästhetik, die in der Lage ist, sich direkt in der Bewegung und in der sich ständig verändernden Beziehung der wirklichen Transformation und des Übergangs zwischen den körperlichen, leiblichen, mentalen und spirituellen Aspekten des Subjektes anzusiedeln. Die Interaktion zwischen diesen Dimensionen, die aufeinander verweisen, kann tief durch ein fortschreitendes und wachsendes Bewusstsein des Reichtums der leiblichen Dimension als absichtlich, wahrnehmend, fühlend, wollend, so wie vergänglich, verletzlich, einschränkend, pathisch angereichert werden. Die vorliegende Arbeit will auf einige der wichtigsten Themen, auf die sich Shusterman bezieht, eingehen und vertiefen, insbesondere die pragmatische Wurzel seines Vorschlags und der Vergleich mit der deutschen Debatte zur Ästhetik, philosophischen Anthropologie, medizinischen Anthropologie und neuen Phänomenologie, um wieder eine Vorstellung von Soma zu bekommen, beginnend von dem Kontrast, von der Wirkung mit der Kraft der unnachgiebigen Aufhebung und extremer Krisensituationen, eine komplexe und reiche Harmonisierung der inneren Werte und der vielfältigen Dimensionen, die das Gewebe der verkörperten Subjektivität bilden. Vor allem das erste Kapitel (1. Somaestetica - Somästhetik) verdeutlicht die Wurzeln des im wesentlichen pragmatischen Vorschlags von Shusterman und zeigt, wie es möglich ist, verwurzelte Erlebnisweisen zu dekonstruieren und neu zu konfigurieren, um Gewohnheiten und Lebensweisen, die sich auf der somatischen Ebene in den meisten Fällen unbemerkt ansiedeln, bewusst zu machen. Der Vergleich mit dem Begriff des Habitus, den Pierre Bourdieu brillant anstellt, beleuchtet den unsichtbaren und sozial bestimmten somatischen Ursprung; er lässt erkennen, wie jede menschliche Äußerung durch die Verkörperung von Normen, Überzeugungen und Werte unterstützt wird, wie diese Regeln den Ausdruck, die Entwicklung und auch die Veranlagungen und Neigungen des Einzelnen bestimmen und manchmal begrenzen. Und es ist durch ein Eingreifen eben auf dieser Ebene möglich, die Freiheit an Wahlen zurückzugeben und sich den wesentlich qualitativen Dimensionen der Erfahrung zu öffnen, die (im Sinne von Dewey) eine ganzheitliche und zusammenhängende Einheit als ein Hintergrund der Organismus-Umwelt-Beziehungen ist, d. h. eine unentwirrbare Verwicklung von Theorie und Praxis, im besonderen und im allgemeinen, Psyche und Soma, Vernunft und Gefühl, wahrnehmend und begriffsmäßig, kurz das unmittelbare körper-leibliche Wissen, das den Hintergrund für die Bewusstseinsäußerung bildet. KW - corpo fisico e corpo vissuto KW - avere ed essere corpo KW - Somaestetica KW - Somästhetik KW - Körper-Leib Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72650 ER - TY - THES A1 - Mauri, Marco T1 - A model for sigma factor competition in bacterial cells N2 - Bacteria respond to changing environmental conditions by switching the global pattern of expressed genes. In response to specific environmental stresses the cell activates several stress-specific molecules such as sigma factors. They reversibly bind the RNA polymerase to form the so-called holoenzyme and direct it towards the appropriate stress response genes. In exponentially growing E. coli cells, the majority of the transcriptional activity is carried out by the housekeeping sigma factor, while stress responses are often under the control of alternative sigma factors. Different sigma factors compete for binding to a limited pool of RNA polymerase (RNAP) core enzymes, providing a mechanism for cross talk between genes or gene classes via the sharing of expression machinery. To quantitatively analyze the contribution of sigma factor competition to global changes in gene expression, we develop a thermodynamic model that describes binding between sigma factors and core RNAP at equilibrium, transcription, non-specific binding to DNA and the modulation of the availability of the molecular components. Association of housekeeping sigma factor to RNAP is generally favored by its abundance and higher binding affinity to the core. In order to promote transcription by alternative sigma subunits, the bacterial cell modulates the transcriptional efficiency in a reversible manner through several strategies such as anti-sigma factors, 6S RNA and generally any kind of transcriptional regulators (e.g. activators or inhibitors). By shifting the outcome of sigma factor competition for the core, these modulators bias the transcriptional program of the cell. The model is validated by comparison with in vitro competition experiments, with which excellent agreement is found. We observe that transcription is affected via the modulation of the concentrations of the different types of holoenzymes, so saturated promoters are only weakly affected by sigma factor competition. However, in case of overlapping promoters or promoters recognized by two types of sigma factors, we find that even saturated promoters are strongly affected. Active transcription effectively lowers the affinity between the sigma factor driving it and the core RNAP, resulting in complex cross talk effects and raising the question of how their in vitro measure is relevant in the cell. We also estimate that sigma factor competition is not strongly affected by non-specific binding of core RNAPs, sigma factors, and holoenzymes to DNA. Finally, we analyze the role of increased core RNAP availability upon the shut-down of ribosomal RNA transcription during stringent response. We find that passive up-regulation of alternative sigma-dependent transcription is not only possible, but also displays hypersensitivity based on the sigma factor competition. Our theoretical analysis thus provides support for a significant role of passive control during that global switch of the gene expression program and gives new insights into RNAP partitioning in the cell. N2 - Bakterien reagieren auf Aenderungen in ihren Umgebungsbedingungen indem sie global das Genexpressionsprogramm umschalten. Die Zelle aktiviert, als spezifische Reaktion auf Stressbedingungen, mehrere charakteristische Molekuele wie zum Beispiel die Sigmafaktoren. Diese binden reversibel an die RNA Polymerase (RNAP), mit der sie einen Komplex bilden das sogenannte Holoenzym und steuern sie als Reaktion auf den Stress zu den entsprechenden Genen. In exponentiell wachsenden E. Coli Zellen wird das Meiste der Transkription von einem sogenannten Haushaltssigmafaktor organisiert. Wohingegen Stressreaktionen haeufig von alternativen Sigmafaktoren kontrolliert werden. Die verschiedenen Sigmafaktoren konkurrieren um einen begrenzten Pool von RNAP Coreenzymen, womit die Expression einzelner Gene oder Genklassen beeinflusst wird, da sie sich die Maschienerie teilen. Um den Beitrag der Sigmafaktorkonkurrenz an der gesamten Veraenderung der Genexpression quantitativ zu analysieren, haben wir ein theoretisches Modell entwickelt, welches das Binden von Sigmafaktoren mit RNAP Coreenzymen im gleichgewicht, die Transkription, das nichtspezifische Binden an die DNA sowie die Modulation verfuegbarer molekularer Komponenten beschreibt. Normalerweise wird die Assoziation des Haushaltssigmafaktors mit dem RNAP Coreenzym beguenstigt durch dessen grosse Anzahl und die hohe Bindungsaffinitaet. Daher nutzen bakterielle Zellen verschiedene, reversibele Strategien um die Transkription durch alternative Holoenzyme zu foerdern. Dazu gehoeren Anti-Sigmafaktoren, 6S RNA und generell beliebige Transkriptionsregulatoren (z.B.: Aktivatoren oder Repressoren). Sie beeinflussen das Transkriptionsprogramm der Zelle indem sie das Resultat der Sigmafaktorkonkurrenz um die RNAP Coreenzyme zugunsten eines der Sigmafaktoren verschieben. Das Modell kann validiert werden durch Vergleiche mit in vitro Konkurrenzexperimenten, die exzellente uebereinstimmung zeigen. Wir koennen feststellen, dass die Transkription durch Konzentrationsaenderungen der verschiedenen Holoenzyme beeinflusst wird, daher ist der Effekt der Sigmafaktorkonkurrenz klein bei saturierten Promotoren. Was sich jedoch aendert bei sich ueberlappenden Promotoren oder Promotoren, die von zwei verschiedenen Sigmafaktoren erkannt werden. In diesen Faellen sehen wir einen grossen Effekt. Transkription fuehrt zu effektiv abgesekten Affinitaet zwischen den zugehoerigen Sigmafaktoren und den RNAP Coreenzymen, was zu komplizierten Verhalten fuehrt und die Frage aufwirft, inwieweit in vitro gemessenen Effekte in der Zelle wiederzufinden sind. Wir koennen den Einfluss nichtspezifischen Bindens der RNAPs, der Sigmafaktoren und der Holoenzyme an die DNA abschaetzen. Als letztes analysieren wir die Konkurrenz waehrend der "Stringent Response". Hierbei wird die Transkription der ribosomalen RNA unterbrochen was die Anzahl der freien RNAP Coreenzyme stark erhoeht. Wir sehen, dass das passive Hochregeln des alternativen sigmafaktorabhaengigen Transkriptionsprogramms durch Sigmafaktorkokurrenz moeglich und sogar hypersensitiv ist. Unsere theoretische Analyse zeigt, dass die passive Kontrolle in diesem Fall eine signifikante Rolle im globalen umschalten des Transkriptionsprogramms spielt und liefert neue Erkenntnisse zur RNAP Partitionierung in der Zelle. T2 - Ein Modell für die Konkurrenz zwischen Sigmafaktoren in Bakterienzellen KW - biophysics KW - systems biology KW - gene regulation KW - stress response KW - Biophysik KW - Systembiologie KW - Genregulation KW - Stressantwort Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72098 ER - TY - THES A1 - Muksin, Umar T1 - A fault-controlled geothermal system in Tarutung (North Sumatra, Indonesia)investigated by seismological analysis N2 - The seismic structure (Vp, Vp/Vs, and Qp anomalies) contributes to the physical properties and the lithology of rocks and possible fluid distribution in the region. The Vp model images the geometry of the Tarutung and the Sarulla basins. Both basins have a depth of around 2.0 km. High Vp/Vs and high attenuation (low Qp) anomalies are observed along the Sarulla graben associated with a weak zone caused by volcanic activities along the graben. Low Vp/Vs and low conductivity anomalies are found in the west of the Tarutung basin. This anomaly is interpreted as dry, compact, and rigid granitic rock in the region as also found by geological observations. Low Vp, high Vp/Vs and low Qp anomalies are found at the east of the Tarutung basin which appear to be associated with the three big geothermal manifestations in Sipoholon, Hutabarat, and Panabungan area. These anomalies are connected with high Vp/Vs and low Qp anomalies below the Tarutung basin at depth of around 3 - 10 km. This suggests that these geothermal manifestations are fed by the same source of the hot fluid below the Tarutung basin. The hot fluids from below the Tarutung basin propagate to the more dilatational and more permeable zone in the northeast. Granite found in the west of the Tarutung basin could also be abundant underneath the basin at a certain depth so that it prevents the hot fluid to be transported directly to the Tarutung basin. High seismic attenuation and low Vp/Vs anomalies are found in the southwest of the Tarutung basin below the Martimbang volcano. These anomalies are associated with hot rock below the volcano without or with less amount of partial melting. There is no indication that the volcano controls the geothermal system around the Tarutung basin. The geothermal resources around the Tarutung basin is a fault-controlled system as a result of deep circulation of fluids. Outside of the basin, the seismicity delineation and the focal mechanism correlate with the shape and the characteristics of the strike-slip Sumatran fault. Within the Tarutung basin, the seismicity is distributed more broadly which coincides with the margin of the basin. An extensional duplex system in the Tarutung basin is derived from the seismicity and focal mechanism analysis which is also consistent with the geological observations. The vertical distribution of the seismicity suggests the presence of a negative flower structure within the Tarutung basin. N2 - Indonesien zählt zu den weltweit führenden Ländern bei der Nutzung von geothermischer Energie. Die geothermischen Energiequellen sind im Wesentlichen an den aktiven Vulkanismus gebunden, der durch die Prozesse an der indonesischen Subduktionszone verursacht wird. Darüber hinaus sind geotektonische Strukturen wie beispielsweise die Sumatra-Störung als verstärkende Faktoren für das geothermische Potenzial von Bedeutung. Bei der geophysikalischen Erkundung der indonesischen Geothermie-Ressourcen konzentrierte man sich bisher vor allem auf die Magnetotellurik. Passive Seismologie wurde dahingegen ausschließlich für die Überwachung von im Betrieb befindlichen Geothermie-Anlagen verwendet. Jüngste Untersuchungungen z.B. in Island und in den USA haben jedoch gezeigt, dass seismologische Verfahren bereits in der Erkundungsphase wichtige Informationen zu den physikalischen Eigenschaften, zum Spannungsfeld und zu möglichen Fluid- und Wärmetransportwegen liefern können. In der vorgelegten Doktorarbeit werden verschiedene moderne Methoden der passiven Seismologie verwendet, um beispielhaft ein neues, von der indonesischen Regierung für zukünftige geothermische Energiegewinnung ausgewiesenes Gebiet im nördlichen Teil Sumatras (Indonesien) zu erkunden. Die konkreten Ziele der Untersuchungen umfassten (1) die Ableitung von 3D Strukturmodellen der P- und S-Wellen Geschwindigkeiten (Parameter Vp und Vs), (2) die Bestimmung der Absorptionseigenschaften (Parameter Qp), und (3) die Kartierung und Charakterisierung von Störungssystemen auf der Grundlage der Seismizitätsverteilung und der Herdflächenlösungen. Für diese Zwecke habe ich zusammen mit Kollegen ein seismologisches Netzwerk in Tarutung (Sumatra) aufgebaut und über einen Zeitraum von 10 Monaten (Mai 2011 – Februar 2012) betrieben. Insgesamt wurden hierbei 42 Stationen (jeweils ausgestattet mit EDL-Datenlogger, 3-Komponenten, 1 Hz Seismometer) über eine Fläche von etwa 35 x 35 km verteilt. Mit dem Netzwerk wurden im gesamten Zeitraum 2568 lokale Erdbeben registriert. Die integrierte Betrachtung der Ergebnisse aus den verschiedenen Teilstudien (Tomographie, Erdbebenverteilung) erlaubt neue Einblicke in die generelle geologische Stukturierung sowie eine Eingrenzung von Bereichen mit einem erhöhten geothermischen Potenzial. Das tomographische Vp-Modell ermöglicht eine Bestimmung der Geometrie von Sedimentbecken entlang der Sumatra-Störung. Für die Geothermie besonders interessant ist der Bereich nordwestlich des Tarutung-Beckens. Die dort abgebildeten Anomalien (erhöhtes Vp/Vs, geringes Qp) habe ich als mögliche Aufstiegswege von warmen Fluiden interpretiert. Die scheinbar asymetrische Verteilung der Anomalien wird hierbei im Zusammenhang mit der Seismizitätsverteilung, der Geometrie der Beben-Bruchflächen, sowie struktur-geologischen Modellvorstellungen diskutiert. Damit werden wesentliche Informationen für die Planung einer zukünftigen geothermischen Anlage bereitgestellt. T2 - Seismologische Untersuchungen eines Störungs-kontrollierten geothermischen Systems in Tarutung (Nord-Sumatra, Indonesien) KW - Tarutung KW - Sumatra Störung KW - Absorptionseigenschaften KW - seismische Geschwindigkeiten KW - Tarutung KW - Sumatra fault KW - attenuation tomography KW - velocity structure Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72065 ER -