TY - THES A1 - Hutter, Anne T1 - Unveiling the epoch of reionization by simulations and high-redshift galaxies T1 - Untersuchungen der Epoche der Reionisation mithilfe von Simulationen und Beobachtungen hoch rotverschobener Galaxien N2 - The Epoch of Reionization marks after recombination the second major change in the ionization state of the universe, going from a neutral to an ionized state. It starts with the appearance of the first stars and galaxies; a fraction of high-energy photons emitted from galaxies permeate into the intergalactic medium (IGM) and gradually ionize the hydrogen, until the IGM is completely ionized at z~6 (Fan et al., 2006). While the progress of reionization is driven by galaxy evolution, it changes the ionization and thermal state of the IGM substantially and affects subsequent structure and galaxy formation by various feedback mechanisms. Understanding this interaction between reionization and galaxy formation is further impeded by a lack of understanding of the high-redshift galactic properties such as the dust distribution and the escape fraction of ionizing photons. Lyman Alpha Emitters (LAEs) represent a sample of high-redshift galaxies that are sensitive to all these galactic properties and the effects of reionization. In this thesis we aim to understand the progress of reionization by performing cosmological simulations, which allows us to investigate the limits of constraining reionization by high-redshift galaxies as LAEs, and examine how galactic properties and the ionization state of the IGM affect the visibility and observed quantities of LAEs and Lyman Break galaxies (LBGs). In the first part of this thesis we focus on performing radiative transfer calculations to simulate reionization. We have developed a mapping-sphere-scheme, which, starting from spherically averaged temperature and density fields, uses our 1D radiative transfer code and computes the effect of each source on the IGM temperature and ionization (HII, HeII, HeIII) profiles, which are subsequently mapped onto a grid. Furthermore we have updated the 3D Monte-Carlo radiative transfer pCRASH, enabling detailed reionization simulations which take individual source characteristics into account. In the second part of this thesis we perform a reionization simulation by post-processing a smoothed-particle hydrodynamical (SPH) simulation (GADGET-2) with 3D radiative transfer (pCRASH), where the ionizing sources are modelled according to the characteristics of the stellar populations in the hydrodynamical simulation. Following the ionization fractions of hydrogen (HI) and helium (HeII, HeIII), and temperature in our simulation, we find that reionization starts at z~11 and ends at z~6, and high density regions near sources are ionized earlier than low density regions far from sources. In the third part of this thesis we couple the cosmological SPH simulation and the radiative transfer simulations with a physically motivated, self-consistent model for LAEs, in order to understand the importance of the ionization state of the IGM, the escape fraction of ionizing photons from galaxies and dust in the interstellar medium (ISM) on the visibility of LAEs. Comparison of our models results with the LAE Lyman Alpha (Lya) and UV luminosity functions at z~6.6 reveals a three-dimensional degeneracy between the ionization state of the IGM, the ionizing photons escape fraction and the ISM dust distribution, which implies that LAEs act not only as tracers of reionization but also of the ionizing photon escape fraction and of the ISM dust distribution. This degeneracy does not even break down when we compare simulated with observed clustering of LAEs at z~6.6. However, our results show that reionization has the largest impact on the amplitude of the LAE angular correlation functions, and its imprints are clearly distinguishable from those of properties on galactic scales. These results show that reionization cannot be constrained tightly by exclusively using LAE observations. Further observational constraints, e.g. tomographies of the redshifted hydrogen 21cm line, are required. In addition we also use our LAE model to probe the question when a galaxy is visible as a LAE or a LBG. Within our model galaxies above a critical stellar mass can produce enough luminosity to be visible as a LBG and/or a LAE. By finding an increasing duty cycle of LBGs with Lya emission as the UV magnitude or stellar mass of the galaxy rises, our model reveals that the brightest (and most massive) LBGs most often show Lya emission. Predicting the Lya equivalent width (Lya EW) distribution and the fraction of LBGs showing Lya emission at z~6.6, we reproduce the observational trend of the Lya EWs with UV magnitude. However, the Lya EWs of the UV brightest LBGs exceed observations and can only be reconciled by accounting for an increased Lya attenuation of massive galaxies, which implies that the observed Lya brightest LAEs do not necessarily coincide with the UV brightest galaxies. We have analysed the dependencies of LAE observables on the properties of the galactic and intergalactic medium and the LAE-LBG connection, and this enhances our understanding of the nature of LAEs. N2 - Die Epoche der Reionisation markiert die nach der Rekombination zweite grundlegende Änderung des Ionisationszustandes des Universums, nämlich den Übergang von einem neutralen zu einem ionisierten Zustand. Die Epoche der Reionisation beginnt mit dem Erscheinen der ersten Sterne und Galaxien. Von den Galaxien ausgesendete energiereiche Photonen durchdringen das intergalaktische Medium (IGM) und ionisieren den vorhandenen Wasserstoff schrittweise, bis das IGM bei z~6 (Fan et al., 2006) vollständig ionisiert ist. Während der Verlauf der Reionisation zum einen durch die Galaxienentwicklung bestimmt wird, verändert die Reionisation zum anderen den Ionisations- und thermischen Zustand des IGMs und beeinflusst damit die darauffolgende Struktur- und Galaxienentwicklung durch verschiedene Rückkopplungsmechanismen. Die geringen Kenntnisse der Eigenschaften von Galaxien bei hohen Rotverschiebungen wie der Staubverteilung und des Anteils an ionisierenden Photonen, die die Galaxien verlassen können, erschweren jedoch das Verständnis des Wechselspiels zwischen Reionisation und Galaxienentwicklung. Lyman Alpha Emitter (LAE) stellen Galaxien bei hoher Rotverschiebung dar, deren Sichtbarkeit diesen Eigenschaften und den Effekten der Reionisa\-tion unterliegen. Diese Arbeit zielt darauf ab, den Verlauf der Reionisation anhand von kosmologischen Simulationen zu verstehen. Insbesondere interessiert, inwieweit der Verlauf der Reionisation durch Galaxien bei hohen Rotverschiebungen eingeschränkt werden kann, und wie die Eigenschaften der Galaxien und der Ionisationszustand des IGMs die Sichtbarkeit und die beobachtbaren Größen der LAE und Lyman Break Galaxien (LBG) beeinflussen können. Im ersten Teil dieser Arbeit werden verschiedene Ansätze zur Lösung des Strahlungstransportes neu- und weiterentwickelt mit dem Ziel, die Epoche der Reionisation zu simulieren. Dazu wurde zum einen eine Methode entwickelt, die als Berechnungsgrundlage sphärisch gemittelte Temperatur- und Dichtefelder benutzt. Mithilfe des in dieser Arbeit entwickelten eindimensionalen Strahlungstransportcodes werden die Auswirkungen jeder Quelle auf die dementsprechenden Temperatur- und Ionisa\-tionsprofile (HII, HeII, HeIII) berechnet und diese auf ein Gitter abgebildet. Zum anderen wurde der dreidimensionale Monte-Carlo-Strahlungstransportcode pCRASH so erweitert, sodass detaillierte Reionisationsimulationen, die individulle Quelleneigenschaften berücksichtigen, durchgeführt werden können. Im zweiten Teil dieser Arbeit wird die Epoche der Reionisation in sich konsistent simuliert, indem aufbauend auf einer gasdynamischen Simulation (smoothed particle hydrodynamics (SPH), GADGET-2) mithilfe von pCRASH Strahlungstransportrechnungen ausgeführt werden. Dabei werden die ionisierenden Quellen gemäß der Eigenschaften der Sternpopulationen in der gasdynamischen Simulation modelliert. Die Entwicklung der IGM-Ionisationsanteile an Wasserstoff (HII) und Helium (HeII, HeIII) sowie der Temperatur werden in der Simulation verfolgt. Es zeigt sich, dass Reionisation erstens bei z~11 beginnt und bei z~6 endet, und zweitens von überdichten zu unterdichten Gebieten des Kosmos hin verläuft. Im dritten Teil der Arbeit werden kosmologische SPH - und Strahlungstransportsimulationen mit einem physikalisch motivierten, selbst-konsistenten Modell für LAEs kombiniert, um den Einfluss des Ionisationszustandes des IGMs, des Anteils der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im interstellaren Medium (ISM) auf die sichtbaren Eigenschaften der LAEs zu verstehen. Der Vergleich der Simulationsergebnisse mit den beobachteten LAE Lyman Alpha- und UV-Leuchtkraftfunktionen bei z~6.6 offenbart eine dreidimensionale Entartung zwischen dem Ionisationszustand des IGMs, dem Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM. Dies bedeutet, dass die Sichtbarkeit von LAEs nicht nur ein Indikator für den Ionisationszustand des IGM ist, sondern auch für den Anteil an ionisierenden Photonen, die die Galaxien verlassen können, und für die Staubverteilung im ISM. Diese Entartung lässt sich auch nicht auflösen, wenn Simulations- und Beobachtungsdaten der räumlichen Verteilung der LAEs bei z~6.6 gemessen mit der winkelabhängigen Zweipunktkorrelationsfunktion verglichen werden. Jedoch zeigt unser Modell, dass die Reionisation den größten Effekt auf die Amplitude der Winkelkorrelation hat und dass sich ihre Spuren klar von den Effekten auf galaktischen Skalen (den Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM) unterscheiden lassen. Somit kann Reionisation nicht alleine durch LAE Beobachtungen eingeschränkt werden, und es werden weitere Beobachtungen, wie z.B. die Tomographie der rotverschobenen 21cm Wasserstofflinie, benötigt. KW - cosmology KW - reionization KW - high-redshift galaxies KW - radiative transfer KW - simulation KW - Kosmologie KW - Reionisation KW - hoch rotverschobene Galaxien KW - Strahlungstransport KW - Simulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76998 ER - TY - THES A1 - Merkel, Roswitha T1 - Untersuchung zur Synthese und Eigenschaften von komplexen Oligospiroketalen T1 - Investigation of synthesis and properties of complex oligospiroketals N2 - Es ist in dieser Arbeit gelungen, starre Oligospiroketal(OSK)-Stäbe als Grundbausteine für komplexe 2D- und 3D-Systeme zu verwenden. Dazu wurde ein difunktionalisierter starrer Stab synthetisiert, der mit seines Gleichen und anderen verzweigten Funktionalisierungseinheiten in Azid-Alkin-Klickreaktionen eingesetzt wurde. An zwei über Klickreaktion verknüpften OSK-Stäben konnten mittels theoretischer Berechnungen Aussagen über die neuartige Bimodalität der Konformation getroffen werden. Es wurde dafür der Begriff Gelenkstab eingeführt, da die Moleküle um ein Gelenk gedreht sowohl gestreckt als auch geknickt vorliegen können. Aufbauend auf diesen Erkenntnissen konnte gezeigt werden, dass nicht nur gezielt große Polymere aus bis zu vier OSK-Stäben synthetisiert werden können, sondern es auch möglich ist, durch gezielte Änderung von Reaktionsbedingungen der Klickreaktion auch Cyclen aus starren OSK-Stäben herzustellen. Die neu entwickelte Substanzklasse der Gelenkstäbe wurde im Hinblick auf die Steuerung des vorliegenden Gleichgewichts zwischen geknicktem und gestrecktem Gelenkstab hin untersucht. Dafür wurde der Gelenkstab mit Pyrenylresten in terminaler Position versehen. Es wurde durch Fluoreszenzmessungen festgestellt, dass das Gleichgewicht z. B. durch die Temperatur oder die Wahl des Lösungsmittels beeinflussbar ist. Für vielfache Anwendungen wurde eine vereinfachte Synthesestrategie gefunden, mit der eine beliebige Funktionalisierung in nur einem Syntheseschritt erreicht werden konnte. Es konnten photoaktive Gelenkstäbe synthetisiert werden, die gezielt zur intramolekularen Dimerisierung geführt werden konnten. Zusätzlich wurde durch Aminosäuren ein Verknüpfungselement am Ende der Gelenkstäbe gefunden, das eine stereoselektive Synthese von Mehrfachfunktionalisierungen zulässt. Die Synthese der komplexen Gelenkstäbe wurde als ein neuartiges Gebiet aufgezeigt und bietet ein breites Forschungspotential für weitere Anwendungen z. B. in der Biologie (als molekulare Schalter für Ionentransporte) und in der Materialchemie (als Ladungs- oder Energietransporteure). N2 - In this dissertation the use of rigid Oligospiroketal (OSK)-rods as basic model for 2D- and 3D-systems was shown. For that purpose a bifunctionalized rigid rod was synthesized and was used in Azide-Alkine-clickreaction with itself and with other branched functionalized units. By theoretical calculations a statement about the novel bimodulation of the conformation of two OSK-rods which are linked by a clickreaction could be made. “Articulated rod” was introduced as new term, because the molecules could exist elongated or buckled. Based on this knowledge it became apparent that not only the size selective synthesis of polymers by using up to four OSK-rods is possible but also cycles with OSK-rods by using different click-reaction conditions can be synthesized. The newly developed group of “articulated rod” substances was examined regarding the equilibrium between buckled and elongated “articulated rod”. That for the articulated rod was functionalized with pyrenyl moieties in terminal position. By fluorescence measurements of these rods it could be shown that the equilibration is influenced by different temperatures and different solvents. For multiple applications a simplified strategy for synthesis with a wide range of functionalization in only one step of synthesis could be achieved. Photoactive articulated rods were synthesized, that could be selectively intramolecular dimerized. Additionally, amino acids were introduced as linker at the end of a articulated rod. By this a stereoselective synthesis of multiple functionaliations is possible. By the synthesis of complex articulated rods a novel field of research was found. There is a wide potential of research for more applications for example in biology (as molecular switch for transportation of ions) and in materials chemistry (as transporter for charge or energy). KW - Stab KW - Oligospiroketal KW - Klick KW - Alkin KW - Azid KW - articulated KW - rod KW - click KW - alkine KW - azide Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72561 ER - TY - THES A1 - Orgis, Thomas T1 - Unstetige Galerkin-Diskretisierung niedriger Ordnung in einem atmosphärischen Multiskalenmodell T1 - Low-order discontinuous Galerkin discretization in an atmospheric multi-scale model N2 - Die Dynamik der Atmosphäre der Erde umfasst einen Bereich von mikrophysikalischer Turbulenz über konvektive Prozesse und Wolkenbildung bis zu planetaren Wellenmustern. Für Wettervorhersage und zur Betrachtung des Klimas über Jahrzehnte und Jahrhunderte ist diese Gegenstand der Modellierung mit numerischen Verfahren. Mit voranschreitender Entwicklung der Rechentechnik sind Neuentwicklungen der dynamischen Kerne von Klimamodellen, die mit der feiner werdenden Auflösung auch entsprechende Prozesse auflösen können, notwendig. Der dynamische Kern eines Modells besteht in der Umsetzung (Diskretisierung) der grundlegenden dynamischen Gleichungen für die Entwicklung von Masse, Energie und Impuls, so dass sie mit Computern numerisch gelöst werden können. Die vorliegende Arbeit untersucht die Eignung eines unstetigen Galerkin-Verfahrens niedriger Ordnung für atmosphärische Anwendungen. Diese Eignung für Gleichungen mit Wirkungen von externen Kräften wie Erdanziehungskraft und Corioliskraft ist aus der Theorie nicht selbstverständlich. Es werden nötige Anpassungen beschrieben, die das Verfahren stabilisieren, ohne sogenannte „slope limiter” einzusetzen. Für das unmodifizierte Verfahren wird belegt, dass es nicht geeignet ist, atmosphärische Gleichgewichte stabil darzustellen. Das entwickelte stabilisierte Modell reproduziert eine Reihe von Standard-Testfällen der atmosphärischen Dynamik mit Euler- und Flachwassergleichungen in einem weiten Bereich von räumlichen und zeitlichen Skalen. Die Lösung der thermischen Windgleichung entlang der mit den Isobaren identischen charakteristischen Kurven liefert atmosphärische Gleichgewichtszustände mit durch vorgegebenem Grundstrom einstellbarer Neigung zu(barotropen und baroklinen)Instabilitäten, die für die Entwicklung von Zyklonen wesentlich sind. Im Gegensatz zu früheren Arbeiten sind diese Zustände direkt im z-System(Höhe in Metern)definiert und müssen nicht aus Druckkoordinaten übertragen werden.Mit diesen Zuständen, sowohl als Referenzzustand, von dem lediglich die Abweichungen numerisch betrachtet werden, und insbesondere auch als Startzustand, der einer kleinen Störung unterliegt, werden verschiedene Studien der Simulation von barotroper und barokliner Instabilität durchgeführt. Hervorzuheben ist dabei die durch die Formulierung von Grundströmen mit einstellbarer Baroklinität ermöglichte simulationsgestützte Studie des Grades der baroklinen Instabilität verschiedener Wellenlängen in Abhängigkeit von statischer Stabilität und vertikalem Windgradient als Entsprechung zu Stabilitätskarten aus theoretischen Betrachtungen in der Literatur. N2 - The dynamics of the Earth’s atmosphere encompass a range from microphysical turbulence over convective processes and cloud formation up to planetary wave patterns. For weather forecasting and the investigation of climate over decades and centuries, these are subject to modelling with numerical methods. With progressing development of computer technology, re-development of the dynamical cores of climate models is in order to properly handle processes covered by the increasing resolution. The dynamical core of a model consists of the adaptation(discretization)of the basic equations for the dynamics of mass, energy and momentum for solving them numerically employing computers. The presented work investigates the applicability of a low-order Discontinuous Galerkin (DG) method for atmospheric applications. With equations that include external forces like gravitation and the Coriolis force, that is not given by theory. Necessary changes for stabilizing the method without resorting to slope limiters are presented. For the unmodified method, the basic inability to properly keep atmospheric balances is demonstrated. The developed stabilized model reproduces a set of standard test cases in a wide range of spatial and temporal scales. The solution of the termal wind equation along its characteristics curves, those being identical to the isobars, produces balanced atmospheric states with tunable (barotropic and baroclinic) instability via a prescribed zonal wind field. The constructed instability directly relates to the generation of cyclones. In contrast to earlier works, these balanced states are directly given in the z system (height in meters), without need for elaborate conversion from pressure coordinates. With these constructed states, both as reference state, the deviations from which being considered numerically, and as especially as initial condition subject to a small perturbation, several studies of barotropic and baroclinic instability are conducted via simulations. Particularily, the construction of steady states with configurable zonal flows of certain baroclinity facilitates a simulation-based study of baroclinic instability of differing wavelengths, depending on static stability and vertical wind gradient, in correspondence with stability maps from theoretical considerations in the literature. KW - Atmosphärenmodellierung KW - Unstetiges Galerkin-Verfahren KW - Multiskale KW - Barokline Instabilität KW - thermische Windgleichung KW - atmospheric modelling KW - discontinuous Galerkin method KW - multi-scale KW - baroclinic instability KW - thermal wind equation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70687 ER - TY - THES A1 - Beck, Andreas T1 - Unionsrechtliche Staatshaftung der EU-Mitgliedstaaten für judikatives Unrecht T1 - EU law state liability of EU member states for judicial breaches N2 - Obwohl in den unionalen Verträgen bis heute keine Vorschrift bezüglich einer Staatshaftung der Mitgliedstaaten für Entscheidungen ihrer Gerichte existiert, hat der Gerichtshof der Europäischen Union (EuGH) in einer Reihe von Entscheidungen eine solche Haftung entwickelt und präzisiert. Die vorliegende Arbeit analysiert eingehend diese Rechtsprechung mitsamt den sich daraus ergebenden facettenreichen Rechtsfragen. Im ersten Kapitel widmet sich die Arbeit der historischen Entwicklung der unionsrechtlichen Staatshaftung im Allgemeinen, ausgehend von dem bekannten Francovich-Urteil aus dem Jahr 1991. Sodann werden im zweiten Kapitel die zur Haftung für judikatives Unrecht grundlegenden Entscheidungen in den Rechtssachen Köbler und Traghetti vorgestellt. In dem sich anschließenden dritten Kapitel wird der Rechtscharakter der unionsrechtlichen Staatshaftung – einschließlich der Frage einer Subsidiarität des unionsrechtlichen Anspruchs gegenüber bestehenden nationalen Staatshaftungsansprüchen – untersucht. Das vierte Kapitel widmet sich der Frage, ob eine unionsrechtliche Staatshaftung für judikatives Unrecht prinzipiell anzuerkennen ist, wobei die wesentlichen für und gegen eine solche Haftung sprechenden Argumente ausführlich behandelt und bewertet werden. Im fünften Kapitel werden die im Zusammenhang mit den unionsrechtlichen Haftungsvoraussetzungen stehenden Probleme der Haftung für letztinstanzliche Gerichtsentscheidungen detailliert erörtert. Zugleich wird der Frage nachgegangen, ob eine Haftung für fehlerhafte unterinstanzliche Gerichtsentscheidungen zu befürworten ist. Das sechste Kapitel befasst sich mit der Ausgestaltung der unionsrechtlichen Staatshaftung für letztinstanzliche Gerichtsentscheidungen durch die Mitgliedstaaten, wobei u.a. zur Anwendbarkeit der deutschen Haftungsprivilegien bei judikativem Unrecht auf den unionsrechtlichen Staatshaftungsanspruch Stellung genommen wird. Im letzten Kapitel wird der Frage nachgegangen, ob der EuGH überhaupt über eine Kompetenz zur Schaffung der Staatshaftung für letztinstanzliche Gerichtsentscheidungen verfügte. Abschließend werden die wichtigsten Ergebnisse der Arbeit präsentiert und ein Ausblick auf weitere mögliche Auswirkungen und Entwicklungen der unionsrechtlichen Staatshaftung für judikatives Unrecht gegeben. N2 - Although no provision has been made in the EU Treaties concerning liability of the EU member states for the decisions of their courts, the European Court of Justice (ECJ) has developed and specified such a liability in a number of decisions. The present study is a thorough analysis of this jurisprudence resulting in diverse legal questions. The first chapter of the thesis is dedicated to the historical development of the state liability founded on EU law in general, originating from the well-known decision in the Francovich case in 1991. Chapter two presents the cases Köbler and Traghetti, the two core judgments concerning state liability for breaches of EU law resulting from national court decisions. Chapter three investigates the legal character of state liability based on EU law – including the question of a possible subsidiarity of the claim under EU law towards existing claims, establishing state liability which is founded on national law. The fourth chapter poses the question of whether state liability for judicial faults based on EU law should be accepted in principle; subsequently, the essential arguments for and against this liability are addressed and evaluated in detail. The fifth chapter comprehensively examines the problems of state liability for decisions of courts adjudicating at last instance, which are related to the conditions of state liability founded on EU law. In this context the question of whether EU law state liability for decisions of courts not adjudicating at last instance should be supported, will also be examined. Chapter 6 is dedicated to the complement of state liability for court decisions on the basis of EU law through the member states. At this stage the application of privileges regarding state liability for court decisions which exist within German national law to actions for damages regarding state liability founded on EU law is also discussed. The last chapter examines the question whether the ECJ actually had the competence to establish state liability for decisions of courts adjudicating at last instance. In conclusion the most important results of the thesis are presented and an outlook on further possible consequences and developments of state liability for judicial breaches based on EU law is given. KW - unionsrechtliche Staathaftung KW - Urteil Köbler KW - Verstöße gegen EU-Recht durch nationale Gerichte KW - unionsrechtlicher Staatshaftungsanspruch bei judikativem Unrecht KW - Entscheidungen letztinstanzlicher nationaler Gerichte KW - EU law state liability KW - Köbler decision KW - claims based on EU state liability for national court decisions KW - decisions of national courts adjudicating at last instance Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80211 ER - TY - THES A1 - Logačev, Pavel T1 - Underspecification and parallel processing in sentence comprehension T1 - Unterspezifikation und parallele Verarbeitung im Satzverständnis N2 - The aim of the present thesis is to answer the question to what degree the processes involved in sentence comprehension are sensitive to task demands. A central phenomenon in this regard is the so-called ambiguity advantage, which is the finding that ambiguous sentences can be easier to process than unambiguous sentences. This finding may appear counterintuitive, because more meanings should be associated with a higher computational effort. Currently, two theories exist that can explain this finding. The Unrestricted Race Model (URM) by van Gompel et al. (2001) assumes that several sentence interpretations are computed in parallel, whenever possible, and that the first interpretation to be computed is assigned to the sentence. Because the duration of each structure-building process varies from trial to trial, the parallelism in structure-building predicts that ambiguous sentences should be processed faster. This is because when two structures are permissible, the chances that some interpretation will be computed quickly are higher than when only one specific structure is permissible. Importantly, the URM is not sensitive to task demands such as the type of comprehension questions being asked. A radically different proposal is the strategic underspecification model by Swets et al. (2008). It assumes that readers do not attempt to resolve ambiguities unless it is absolutely necessary. In other words, they underspecify. According the strategic underspecification hypothesis, all attested replications of the ambiguity advantage are due to the fact that in those experiments, readers were not required to fully understand the sentence. In this thesis, these two models of the parser’s actions at choice-points in the sentence are presented and evaluated. First, it is argued that the Swets et al.’s (2008) evidence against the URM and in favor of underspecification is inconclusive. Next, the precise predictions of the URM as well as the underspecification model are refined. Subsequently, a self-paced reading experiment involving the attachment of pre-nominal relative clauses in Turkish is presented, which provides evidence against strategical underspecification. A further experiment is presented which investigated relative clause attachment in German using the speed-accuracy tradeoff (SAT) paradigm. The experiment provides evidence against strategic underspecification and in favor of the URM. Furthermore the results of the experiment are used to argue that human sentence comprehension is fallible, and that theories of parsing should be able to account for that fact. Finally, a third experiment is presented, which provides evidence for the sensitivity to task demands in the treatment of ambiguities. Because this finding is incompatible with the URM, and because the strategic underspecification model has been ruled out, a new model of ambiguity resolution is proposed: the stochastic multiple-channel model of ambiguity resolution (SMCM). It is further shown that the quantitative predictions of the SMCM are in agreement with experimental data. In conclusion, it is argued that the human sentence comprehension system is parallel and fallible, and that it is sensitive to task-demands. N2 - Das Ziel der vorliegenden Arbeit ist es zu untersuchen zu welchem Grad Satzverständnis kontextabhängig ist. In anderen Worten, werden die mentalen Prozesse die zum Satzverständnis beitragen davon beeinflusst mit welchem Ziel ein Satz gelesen wird? Ein in diesem Hinblick zentrales Phänomen ist die sogenannte ambiguity advantage, wonach ambige Sätze schneller gelesen werden als eindeutige. Dies erscheint zunächst kontraintuitiv, denn die Erstellung mehrerer Bedeutungen müsste mit einem höheren Verarbeitungsaufwand verbunden sein. Im Moment existieren zwei Theorien, die diesen Effekt erklären können: Das Unrestricted Race Model (URM; van Gompel, Pickering, and Traxler, 2000) basiert auf der Annahme, daß Leser, wann immer möglich, mehrere Interpretationen eines Satzes gleichzeitig zu erstellen versuchen. Sobald die erste Interpretation erstellt wurde, wird diese als die finale Interpretation des aktuellen Inputs akzeptiert, und die Erstellung weiterer Interpretationen wird terminiert. Weil die Dauer jedes Strukturerstellungsprozesses variiert, führt dieser Interpretationsmechanismus dazu daß Sätze mit mehreren Bedeutungen schneller verarbeitet werden. Wenn zwei Satzstrukturen zulässig sind, ist die Wahrscheinlichkeit höher daß zumindest eine von beiden relativ schnell berechnet wird als wenn nur eine Struktur zulässig ist. Dieses Modell nimmt keine Einflüsse von Verständnisaufgaben auf die Verarbeitungsstrategie an. Einen gänzlich anderen Erklärungsansatz verfolgt das strategische Unterspezifizierungsmodell von Swets et al. (2008). Hier wird angenommen daß Leser Ambiguitäten nur dann auflösen, wenn es unbedingt notwendig ist. Wenn es nicht notwendig ist, unterspezifizieren sie stattdessen. Laut dem Unterspezifizierungsmodell sind alle bisherigen Replikationen der ambiguity advantage der Tatsache geschuldet, daß in diesen Experimenten nur oberflächliche Fragen gestellt wurden, die keine Ambiguitätsauflösung erforderten. Wäre Disambiguierung erforderlich gewesen, wäre die Verarbeitung ambiger Sätze langsamer. In der vorliegenden Arbeit werden diese beiden Modelle der Ambiguitätsauflösung diskutiert und empirisch evaluiert. Zunächst wird diskutiert warum die Daten von Swets et al.'s (2008) Experiment keine Evidenz für Unterspezifikation darstellen. Als nächstes werden die präzisen quantitativen Vorhersagen des URM und des Unterspezifizierungsmodells diskutiert. Es werden die Resultate eines self-paced reading Experiments mit pränominalen Relativsätzen im Türkischen vorgestellt, welche nicht mit dem Unterspezifizierungsmodell kompatibel sind. Als nächstes werden die Resultate eines weiteren Experiments vorgestellt, welches den Prozess der Relativsatzanbindung im Deutschen im Speed-Accuracy Tradeoff Paradigma (SAT) untersucht. Die Resultate sind mit dem URM, aber nicht mit strategischer Unterspezifikation vereinbar. Des weiteren wird ein drittes Experiment vorgestellt, welches zeigt daß Parsingstrategien von den Gesichtspunkten abhängen unter denen Leser einen Satz lesen. Um alle experimentellen Ergebnisse in dieser Arbeit zu erklären, wird ein neues Modell der Disambiguierung vorgestellt: das Stochastic Multiple-Channel Model (SMCM). Es wird des weiteren gezeigt, daß die quantitativen Vorhersagen des SMCM mit den experimentellen Daten übereinstimmen. KW - psycholinguistics KW - sentence processing KW - Psycholinguistik KW - Satzverarbeitung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82047 ER - TY - THES A1 - Goswami, Bedartha T1 - Uncertainties in climate data analysis T1 - Unsicherheiten in der Analyse von Klimadaten BT - Perspectives on working with measurement errors and other unknowns BT - Über Möglichkeiten der Arbeit mit Meßfehlern und anderen Unbekannten N2 - Scientific inquiry requires that we formulate not only what we know, but also what we do not know and by how much. In climate data analysis, this involves an accurate specification of measured quantities and a consequent analysis that consciously propagates the measurement errors at each step. The dissertation presents a thorough analytical method to quantify errors of measurement inherent in paleoclimate data. An additional focus are the uncertainties in assessing the coupling between different factors that influence the global mean temperature (GMT). Paleoclimate studies critically rely on `proxy variables' that record climatic signals in natural archives. However, such proxy records inherently involve uncertainties in determining the age of the signal. We present a generic Bayesian approach to analytically determine the proxy record along with its associated uncertainty, resulting in a time-ordered sequence of correlated probability distributions rather than a precise time series. We further develop a recurrence based method to detect dynamical events from the proxy probability distributions. The methods are validated with synthetic examples and demonstrated with real-world proxy records. The proxy estimation step reveals the interrelations between proxy variability and uncertainty. The recurrence analysis of the East Asian Summer Monsoon during the last 9000 years confirms the well-known `dry' events at 8200 and 4400 BP, plus an additional significantly dry event at 6900 BP. We also analyze the network of dependencies surrounding GMT. We find an intricate, directed network with multiple links between the different factors at multiple time delays. We further uncover a significant feedback from the GMT to the El Niño Southern Oscillation at quasi-biennial timescales. The analysis highlights the need of a more nuanced formulation of influences between different climatic factors, as well as the limitations in trying to estimate such dependencies. N2 - Wissenschaftliche Untersuchungen setzen nicht nur eine Formulierung des gegenwärtigen Kenntnisstandes mitsamt ihrer Unsicherheiten voraus, sondern ebenso eine Eingrenzung des Unbekannten. Bezogen auf die Analyse von Klimadaten beinhaltet dies eine präzise Spezifikation gemessener Größen sowie eine durchgängige Berücksichtigung ihrer Messunsicherheiten in allen Schritten der Analyse. Diese Dissertation präsentiert eine analytische Methode zur Quantifizierung der in Paläoklimadaten inhärenten Messunsicherheiten. Ein weiterer Schwerpunkt liegt auf der Untersuchung von Unsicherheiten in der Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die globale Durchschnittstemperatur (GMT global mean temperature) beeinflussen. Die Paläoklimaforschung beruht in kritischem Maße auf der Analyse von Proxydaten welche die Klimaentwicklung dokumentieren. Allerdings sind Proxydaten mit inhärenten Datierungsunsicherheiten behaftet. Basierend auf einem generischen Bayes’schen Ansatz wird in dieser Dissertation eine analytische Methode vorgestellt um aus den zeitlich unsicheren Proxydaten zeitlich präzise Folgen korrelierter Wahrscheinlichkeitsverteilungen zu erhalten. Von diesen Verteilungen werden Proxyzeitreihen zusammen mit ihren Unsicherheiten berechnet. Weiterhin wird eine rekurrenzbasierte Methode zur Analyse von Proxydaten entwickelt welche anhand dieser Wahrscheinlichkeitsverteilungen plötzliche Änderungen in der Dynamik des Systems ermittelt. Beide Methoden werden mit Hilfe synthetischer Beispieldaten validiert und mit realen Proxydaten demonstriert. Diese statistische Analyse von Proxydaten deckt unteranderem die Beziehungen zwischen der Variabilität der Daten und zugehöriger Unsicherheiten der Proxyzeitreihen auf. Die Re- kurrenzanalyse des Ostasiatischen Sommermonsuns bestätigt die bekannten Trockenzeiten der letzten 9.000 Jahre um 8.200 bzw. 4.400 Jahre vor unserer Zeit und deckt eine zusätzliche Trockenzeit um etwa 6.900 Jahre vor unserer Zeit auf. Die Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die GMT beeinflussen lässt sich als ein verworrenes, gerichtetes Netzwerk mit multiplen Links, welche zu verschiedenen Zeitskalen gehören, darstellen. Speziell ergibt sich eine signifikante Wechselwirkung zwischen der GMT und dem ENSO-Phänomen (El Niño-Southern Oscillation) auf einer quasi-zweijährigen Zeitskala. Einerseits beleuchtet diese Analyse die Notwendigkeit Einflüsse verschiedener Klimafaktoren auf die GMT nuancierter zu formulieren, andererseits werden die Grenzen der Quantifizierung dieser Einflüsse aufgezeigt. KW - data analysis KW - Bayesian estimation KW - Bayessche Schätzer KW - Datenanalyse Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78312 ER - TY - THES A1 - Trabant, Christoph T1 - Ultrafast photoinduced phase transitions in complex materials probed by time-resolved resonant soft x-ray diffraction T1 - Ultraschnelle lichtinduzierte Phasenübergänge in komplexen Materialien untersucht mit zeitaufgelöster resonanter Weichröntgenbeugung N2 - In processing and data storage mainly ferromagnetic (FM) materials are being used. Approaching physical limits, new concepts have to be found for faster, smaller switches, for higher data densities and more energy efficiency. Some of the discussed new concepts involve the material classes of correlated oxides and materials with antiferromagnetic coupling. Their applicability depends critically on their switching behavior, i.e., how fast and how energy efficient material properties can be manipulated. This thesis presents investigations of ultrafast non-equilibrium phase transitions on such new materials. In transition metal oxides (TMOs) the coupling of different degrees of freedom and resulting low energy excitation spectrum often result in spectacular changes of macroscopic properties (colossal magneto resistance, superconductivity, metal-to-insulator transitions) often accompanied by nanoscale order of spins, charges, orbital occupation and by lattice distortions, which make these material attractive. Magnetite served as a prototype for functional TMOs showing a metal-to-insulator-transition (MIT) at T = 123 K. By probing the charge and orbital order as well as the structure after an optical excitation we found that the electronic order and the structural distortion, characteristics of the insulating phase in thermal equilibrium, are destroyed within the experimental resolution of 300 fs. The MIT itself occurs on a 1.5 ps timescale. It shows that MITs in functional materials are several thousand times faster than switching processes in semiconductors. Recently ferrimagnetic and antiferromagnetic (AFM) materials have become interesting. It was shown in ferrimagnetic GdFeCo, that the transfer of angular momentum between two opposed FM subsystems with different time constants leads to a switching of the magnetization after laser pulse excitation. In addition it was theoretically predicted that demagnetization dynamics in AFM should occur faster than in FM materials as no net angular momentum has to be transferred out of the spin system. We investigated two different AFM materials in order to learn more about their ultrafast dynamics. In Ho, a metallic AFM below T ≈ 130 K, we found that the AFM Ho can not only be faster but also ten times more energy efficiently destroyed as order in FM comparable metals. In EuTe, an AFM semiconductor below T ≈ 10 K, we compared the loss of magnetization and laser-induced structural distortion in one and the same experiment. Our experiment shows that they are effectively disentangled. An exception is an ultrafast release of lattice dynamics, which we assign to the release of magnetostriction. The results presented here were obtained with time-resolved resonant soft x-ray diffraction at the Femtoslicing source of the Helmholtz-Zentrum Berlin and at the free-electron laser in Stanford (LCLS). In addition the development and setup of a new UHV-diffractometer for these experiments will be reported. N2 - In der Datenspeichertechnologie werden bisher hauptsächlich ferromagnetische Materialien eingesetzt. Da mit diesen aber physikalische Grenzen erreicht werden, werden neue Konzepte gesucht, um schnellere und kleinere Schalter, größere Datendichten und eine höherere Energieeffizienz zu erzeugen. Unter den diskutierten Materialklassen finden sich komplexen Übergangsmetalloxide und Materialien mit antiferromagnetischer Kopplung. Die Anwendbarkeit solcher Materialien hängt stark davon ab, wie schnell sich deren Eigenschaften verändern lassen und wieviel Energie dafür eingesetzt werden muss. Die vorliegende Arbeit beschäftigt sich mit ultraschnellen, Nicht-Gleichgewicht-Phasenübergängen genau in solchen Materialien. In Übergangsmetalloxiden führt die enge Kopplung zwischen den unterschiedlichen Freiheitsgraden zu einem effektiven niederenergetischen Anregungsspektrum. Diese Anregungen sind oft verknüpft mit spektakulären makroskopischen Eigenschaften, wie z.B. dem kolossalen Magnetowiderstand, Hochtemperatur-Supraleitung, Metall- Isolator-Übergang, die oft von nanoskaliger Ordnung von Spins, Ladungen, orbitaler Besetzung sowie Gitterverzerrungen begleitet sind. Dadurch werden diese Materialien interessant für Anwendbarkeit. Magnetit, ein Prototyp eines solchen funktionalen Materials zeigt einen Metall-Isolator-Übergang bei T = 123 K. Untersucht man die Ladungs- und orbitale Ordnung sowie die Struktur nach einer optischen Anregung, so findet man, dass die elektronische Struktur und Gitterverzerrung, die kennzeichnend für die Tieftemperaturphase sind, innerhalb der Zeitauflösung des Experiments von 300 fs zerstört wird. Der eigentliche Metall-Isolator-Übergang zeigt sich erst nach 1.5 ps. Die Ergebnisse zeigen, dass MITs in funktionalen Materialien bis zu tausend Mal schneller geschaltet werden können als in vorhandenen Halbleiter-Schaltern. Seit kurzem rücken auch ferrimagnetische und antiferromagnetische Materialen in den Fokus des Interesses. Es wurde im Ferrimagnet GdFeCo gezeigt, dass der Transfer von Drehimpuls zwischen zwei entgegengesetzten Subsystemen mit unterschiedlichen Zeitkonstanten zu einem Umschalten der Magnetisierung führt. Zudem wurde vorhergesagt, dass Demagnetisierungsdynamiken in antiferromagnetischen Materialien schneller ablaufen soll als in ferromagnetischen, da kein Drehimpuls aus dem Spinsystem abgeführt werden muss. Damit wir mehr über antiferromagnetische Dynamik erfahren haben wir zwei unterschiedliche Antiferromagneten untersucht, um sie mit den bekannten FM zu vergleichen. Im metallischen AFM Holmium fanden wir, dass die magnetische Ordnung schneller und zehnmal energieeffizienter zerstört werden kann als in vergleichbaren FM Metallen. In Europium-Tellurid, einem antiferromagnetischem Halbleiter, haben wir den Zerfall der magnetischen Ordnung im Hinblick auf Wechselwirkungen mit der Struktur untersucht. Wir fanden auf kurzen Zeitskalen eine eher entkoppelte Dynamik. Eine Ausnahme ist ein schneller Beitrag zur Gitterdynamik, den wir mit dem Wegfall von Magnetostriktion erklären. Die hier gezeigten Ergebnisse wurden mit Hilfe zeitaufgelöster resonanter weicher Röntgenbeugung an der Femtoslicing Strahlungsquelle des Helmholtz-Zentrums Berlin und am freien Elektronenlaser LCLS gemessen. Zusätzlich wird über die Entwicklung und den Bau eines UHV-Diffraktometers für diese Experimente berichtet. KW - Ultraschnell KW - Weichröntgenbeugung KW - nichtgleichgewichts Dynamik KW - Phasenübergänge KW - Antiferromagnetisch KW - Ultrafast KW - soft x-ray diffraction KW - photoinduced dynamics KW - phase transitions KW - antiferromagnetic Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71377 ER - TY - THES A1 - Schollaen, Karina T1 - Tracking climate signals in tropical trees T1 - Klimasignale in tropischen Hölzern BT - new insights from Indonesian stable isotope records BT - neue Erkenntnisse von stabilen Isotopendaten aus Indonesien N2 - The tropical warm pool waters surrounding Indonesia are one of the equatorial heat and moisture sources that are considered as a driving force of the global climate system. The climate in Indonesia is dominated by the equatorial monsoon system, and has been linked to El Niño-Southern Oscillation (ENSO) events, which often result in severe droughts or floods over Indonesia with profound societal and economic impacts on the populations living in the world's fourth most populated country. The latest IPCC report states that ENSO will remain the dominant mode in the tropical Pacific with global effects in the 21st century and ENSO-related precipitation extremes will intensify. However, no common agreement exists among climate simulation models for projected change in ENSO and the Australian-Indonesian Monsoon. Exploring high-resolution palaeoclimate archives, like tree rings or varved lake sediments, provide insights into the natural climate variability of the past, and thus helps improving and validating simulations of future climate changes. Centennial tree-ring stable isotope records | Within this doctoral thesis the main goal was to explore the potential of tropical tree rings to record climate signals and to use them as palaeoclimate proxies. In detail, stable carbon (δ13C) and oxygen (δ18O) isotopes were extracted from teak trees in order to establish the first well-replicated centennial (AD 1900-2007) stable isotope records for Java, Indonesia. Furthermore, different climatic variables were tested whether they show significant correlation with tree-ring proxies (ring-width, δ13C, δ18O). Moreover, highly resolved intra-annual oxygen isotope data were established to assess the transfer of the seasonal precipitation signal into the tree rings. Finally, the established oxygen isotope record was used to reveal possible correlations with ENSO events. Methodological achievements | A second goal of this thesis was to assess the applicability of novel techniques which facilitate and optimize high-resolution and high-throughput stable isotope analysis of tree rings. Two different UV-laser-based microscopic dissection systems were evaluated as a novel sampling tool for high-resolution stable isotope analysis. Furthermore, an improved procedure of tree-ring dissection from thin cellulose laths for stable isotope analysis was designed. The most important findings of this thesis are: I) The herein presented novel sampling techniques improve stable isotope analyses for tree-ring studies in terms of precision, efficiency and quality. The UV-laser-based microdissection serve as a valuable tool for sampling plant tissue at ultrahigh-resolution and for unprecedented precision. II) A guideline for a modified method of cellulose extraction from wholewood cross-sections and subsequent tree-ring dissection was established. The novel technique optimizes the stable isotope analysis process in two ways: faster and high-throughput cellulose extraction and precise tree-ring separation at annual to high-resolution scale. III) The centennial tree-ring stable isotope records reveal significant correlation with regional precipitation. High-resolution stable oxygen values, furthermore, allow distinguishing between dry and rainy season rainfall. IV) The δ18O record reveals significant correlation with different ENSO flavors and demonstrates the importance of considering ENSO flavors when interpreting palaeoclimatic data in the tropics. The findings of my dissertation show that seasonally resolved δ18O records from Indonesian teak trees are a valuable proxy for multi-centennial reconstructions of regional precipitation variability (monsoon signals) and large-scale ocean-atmosphere phenomena (ENSO) for the Indo-Pacific region. Furthermore, the novel methodological achievements offer many unexplored avenues for multidisciplinary research in high-resolution palaeoclimatology. N2 - Die tropischen Gewässer um Indonesien sind eine der äquatorialen Wärme- und Feuchtigkeitsquellen, die als treibende Kraft des globalen Klimasystems betrachtet werden können. Das Klima in Indonesien ist geprägt durch das Australisch-Indonesische Monsunsystem. Weiterhin besteht eine Verknüpfung mit El Niño-Southern Oszillation (ENSO) Ereignissen, die oft zu schweren Dürren oder Überschwemmungen in der Region mit tiefgreifenden gesellschaftlichen und wirtschaftlichen Folgen führen. Der neueste IPCC-Bericht legt dar, dass ENSO auch in den nächsten 100 Jahren das vorherrschende Klimaphänomen im tropischen Pazifik bleiben wird. Ferner wird davon ausgegangen, dass sich die ENSO-bezogenen Niederschlagsextrema intensivieren werden. Wenig Übereinstimmung herrscht jedoch bislang zwischen den Klimasimulationsmodellen in Bezug auf die voraussichtlichen Veränderungen von ENSO und dem Australisch-Indonesischen Monsunsystem. Hochaufgelöste Paläoklima-Archive, wie z.B. Jahrringe oder warvierte Seesedimente, geben Auskunft über die natürliche Klimavariabilität der Vergangenheit und können somit dazu beitragen, die Computersimulationen der künftigen Klimaentwicklung zu verbessern und zu validieren. Hundertjährige stabile Jahrring-Isotopenchronologien | Das Hauptziel dieser Doktorarbeit war es, dass Potenzial von tropischen Jahrringen zur Aufzeichnung von Klimasignalen herauszustellen und deren Evaluierung als Paläoklimaproxys. Im Detail wurden stabile Kohlenstoff- (δ13C) und Sauerstoff- (δ18O) Isotopenverhältnisse in Teakbäumen analysiert, und die ersten gut replizierten hundertjährigen (AD 1900-2007) stabilen Isotopenchronologien aus Java (Indonesien) erstellt. Dabei wurden verschiedene klimatische Einflussgrößen getestet, ob diese signifikante Korrelationen mit den Jahrringparametern aufzeigen. Weiterhin wurden hochaufgelöste intra-annuelle Sauerstoffisotopenzeitreihen erstellt, um den Transfer des saisonalen Niederschlagssignals in den jeweiligen Jahrring zu bemessen. Die ermittelte Sauerstoff-Isotopenchronologie wurde anschließend auf mögliche ENSO Signale hin untersucht. Methodische Errungenschaften | Ein zweites Ziel dieser Arbeit war es neue Verfahren zur Analyse stabiler Isotope in Baumjahrringen zu entwickeln und zu optimieren. Zwei verschiedene UV-Lasermikrodissektions-Systeme wurden getestet als neues präzises Präparationswerkzeug für stabile Isotopenstudien. Darüber hinaus wurde eine verbesserte Methode für die Probenaufbereitung stabiler Isotopenmessungen anhand von Zellulose-Dünnschnitten entwickelt. Die wichtigsten Ergebnisse dieser Doktorarbeit sind: I) Die hier vorgestellten neuartigen Techniken zu Probenvorbereitung verbessern die Analyse stabiler Isotope für Jahrringstudien in Hinsicht auf Präzision, Effizienz und Qualität. Es wurde gezeigt, dass die UV-Lasermikrodissektion eine wertvolle Technik ist, um die Beprobung von Pflanzengewebe in höchster Auflösung und beispielloser Präzision durchzuführen. II) Es ist gelungen, einen Leitfaden für ein modifiziertes Verfahren der Zelluloseextraktion an Gesamtholz-Dünnschnitten und der anschließenden Jahrringaufbereitung zu erstellen. Diese neuartige Methode optimiert die Analyse stabiler Isotopenzeitreihen in zweierlei Hinsicht: schnellere und effiziente Zelluloseextraktion und präzise Trennung der Jahrringsequenzen in inter-annueller bis intra-annuelle Auflösung. III) Die hundertjährigen stabilen Jahrring-Isotopenchronologien weisen signifikante Korrelationen mit dem regionalen Niederschlag auf. In den hochaufgelösten stabilen Sauerstoffisotopenwerten spiegelt sich deutlich das Niederschlagssignal der Trocken- und der Regenzeit wieder. IV) Die stabile Sauerstoffisotopenzeitreihe zeigt signifikante Korrelationen mit verschiedenen ENSO Phasen. Dies betont, dass die verschiedenen ENSO Phasen bei der Interpretation von tropischen Paläodaten zu berücksichtigen sind. Die Ergebnisse der Dissertation zeigen, dass saisonal aufgelöste stabile Sauerstoffisotopenchronologien von indonesischen Teakbäumen ein geeigneter Proxy für mehrhundertjährige Rekonstruktionen der regionalen Niederschlagsvariabilität (Monsun-Signale) und großräumiger Ozean-Atmosphären-Systeme (ENSO) für den Indopazifik ist. Darüber hinaus bieten die neuartigen methodischen Errungenschaften viele neue Ansätze für multidisziplinäre hochaufgelöste Studien in der paläoklimatologischen Forschung. KW - Stabile Sauerstoff- und Kohlenstoffisotope KW - Dendroklimatologie KW - Tectona grandis KW - Tropen KW - UV-Lasermikrodissektion KW - oxygen and carbon stable isotopes KW - dendroclimatology KW - Tectona grandis KW - tropics KW - UV-laser microdissection Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71947 ER - TY - THES A1 - Biegholdt, Georg T1 - Theorie und Praxis der Lerngruppensprache im Musikunterricht T1 - Theory and practice of learning group language in music lessons N2 - Der Umgang mit der musikalischen Fachsprache wird in den meisten Lehrplänen für den Musikunterricht der Sekundarstufe I gefordert. Allerdings fehlt nicht nur in den Lehrplänen, sondern auch in der musikdidaktischen Literatur eine inhaltliche Ausgestaltung dieser Forderung. Über Inhalt, Umfang und Ziel der in der Schule anzuwendenden musikalischen Fachsprache herrscht daher keine Klarheit. Empirische Untersuchungen zu den sprachlichen Inhalten im Musikunterricht liegen ebenfalls nicht vor. Auch in vielen anderen Unterrichtsfächern ist die Forschungslage die sprachlichen Inhalte betreffend überschaubar. Mit der Verwendung von Sprache sind jedoch nicht nur Kommunikationsprozesse verbunden, sondern gleichzeitig Lernprozesse innerhalb der Sprache, von der Wortschatzerweiterung bis zur Herstellung von inhaltlich-thematischen Zusammenhängen. Diese Lernprozesse werden beeinflusst von der Wortwahl der Lernenden und Lehrenden. Die Wortwahl der Lernenden lässt gleichzeitig einen Schluss zu auf den Stand des Wissens und dessen Vernetzung. Auf dieser Basis ist der sprachliche Inhalt des Musikunterrichtes der Gegenstand der vorgelegten Arbeit. Ziel der Studie war herauszu¬finden, inwieweit es gelingen kann, durch die Art und Weise des Einsatzes und den Umfang von Fachsprache im Musikunterricht Lernprozesse effektiver und erfolgreicher zu gestalten und besser an Gegenwarts- und Zukunftsbedürfnissen der Lernenden auszurichten. N2 - Dealing with the musical technical terminology is required in most curricula for the teaching of music in the secondary school level. However, lacking in the curriculum and in the music didactic literature a substantive aspect of this requirement. About the content, scope and purpose of the applicable school musical technical terminology, there is no clarity. Empirical studies on the linguistic content in music lessons are also not available. In many other subjects, the research situation, the linguistic content is rare. With the use of language are connected communication processes and learning processes within the language of the vocabulary extension to the production of content and thematic connections. These learning processes are influenced by the choice of words the students and teachers. The wording of the learners can be at the same time a conclusion as to the state of knowledge and its networking. On this basis, the linguistic content of the music teaching is the subject of this study. The aim of the study was to find out discover what extent it possible to make by way of the use and scope of the technical language in music teaching learning process more effective and more successful and better align to current and future needs of the learner. KW - Lerngruppensprache KW - musikalische Fachsprache KW - Musikpädagogik KW - learning group language KW - technical music terminology KW - music pedagogy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69657 ER - TY - THES A1 - Bacskai-Atkari, Julia T1 - The syntax of comparative constructions : operators, ellipsis phenomena and functional left peripheries T1 - Die Syntax von Vergleichskonstruktionen : Operatoren, Ellipsenphänomene und funktionale linke Peripherien N2 - Adopting a minimalist framework, the dissertation provides an analysis for the syntactic structure of comparatives, with special attention paid to the derivation of the subclause. The proposed account explains how the comparative subclause is connected to the matrix clause, how the subclause is formed in the syntax and what additional processes contribute to its final structure. In addition, it casts light upon these problems in cross-linguistic terms and provides a model that allows for synchronic and diachronic differences. This also enables one to give a more adequate explanation for the phenomena found in English comparatives since the properties of English structures can then be linked to general settings of the language and hence need no longer be considered as idiosyncratic features of the grammar of English. First, the dissertation provides a unified analysis of degree expressions, relating the structure of comparatives to that of other degrees. It is shown that gradable adjectives are located within a degree phrase (DegP), which in turn projects a quantifier phrase (QP) and that these two functional layers are always present, irrespectively of whether there is a phonologically visible element in these layers. Second, the dissertation presents a novel analysis of Comparative Deletion by reducing it to an overtness constraint holding on operators: in this way, it is reduced to morphological differences and cross-linguistic variation is not conditioned by way of postulating an arbitrary parameter. Cross-linguistic differences are ultimately dependent on whether a language has overt operators equipped with the relevant – [+compr] and [+rel] – features. Third, the dissertation provides an adequate explanation for the phenomenon of Attributive Comparative Deletion, as attested in English, by way of relating it to the regular mechanism of Comparative Deletion. I assume that Attributive Comparative Deletion is not a universal phenomenon, and its presence in English can be conditioned by independent, more general rules, while the absence of such restrictions leads to its absence in other languages. Fourth, the dissertation accounts for certain phenomena related to diachronic changes, examining how the changes in the status of comparative operators led to changes in whether Comparative Deletion is attested in a given language: I argue that only operators without a lexical XP can be grammaticalised. The underlying mechanisms underlying are essentially general economy principles and hence the processes are not language-specific or exceptional. Fifth, the dissertation accounts for optional ellipsis processes that play a crucial role in the derivation of typical comparative subclauses. These processes are not directly related to the structure of degree expressions and hence the elimination of the quantified expression from the subclause; nevertheless, they are shown to be in interaction with the mechanisms underlying Comparative Deletion or the absence thereof. N2 - Unter Verwendung eines minimalistischen Frameworks wird in der Dissertation eine Analyse der syntaktischen Struktur von Vergleichskonstruktionen vorgestellt, mit besonderem Augenmerk auf der Ableitung des eingebetteten Satzes. Die vorgeschlagene Analyse erklärt, wie der komparative Nebensatz mit dem Matrixsatz verbunden ist, wie der Nebensatz in der Syntax gebildet wird und welche zusätzlichen Prozesse zu seiner endgültigen Struktur beitragen. Außerdem beleuchtet sie diese Probleme aus cross-linguistischer Sicht und bietet ein Modell, das synchrone und diachrone Unterschiede berücksichtigt. Dies ermöglicht auch eine adäquatere Erklärung der Phänomene in englischen Vergleichskonstruktionen, da die Eigenschaften der englischen Strukturen mit allgemeinen Eigenschaften der Sprache verknüpft werden und es daher nicht mehr nötig ist, sie als idiosynkratrische Merkmale der Grammatik der englischen Sprache zu behandeln. Die Dissertation bietet zum einen eine einheitliche Analyse von Gradphrasen, wobei die Struktur von Vergleichskonstruktionen mit der von anderen Graden verbunden wird. Es wird gezeigt, dass graduierbare Adjektive sich in einer Gradphrase (degree phrase, DegP) befinden, die wiederum eine Quantorenphrase (QP) projiziert, und dass diese beiden Funktionsschichten immer vorhanden sind, unabhängig davon, ob es ein phonologisch sichtbares Element in diesen Schichten gibt. Zweitens präsentiert die Dissertation eine neue Analyse von Komparativ-Tilgung (Comparative Deletion), die auf eine Overtheits-Bedingung für Operatoren reduziert wird: dadurch wird das Phänomen auf morphologische Unterschiede zurückgeführt, und cross-linguistische Variation wird nicht durch die Postulierung eines arbiträren Parameters begründet. Cross-linguistische Unterschiede sind letztlich davon abhängig, ob eine Sprache overte Operatoren mit den relevanten Merkmalen – [+ compr] und [+ rel] – hat. Drittens bietet die Dissertation eine adäquate Erklärung für das Phänomen der attributiven Komparativ-Tilgung (Attributive Comparative Deletion), wie man sie im Englischen findet, indem sie mit dem regulären Mechanismus der Komparativ-Tilgung in Zusammenhang gebracht wird. Ich gehe davon aus, dass attributive Komparativ-Tilgung kein universelles Phänomen ist, und dass ihr Vorhandensein im Englischen durch unabhängige, allgemeinere Regeln erfasst werden kann, während das Fehlen solcher Regeln zur Abwesenheit des Phänomens in anderen Sprachen führt. Viertens erklärt die Dissertation bestimmte Phänomene in Bezug auf diachronische Veränderungen und untersucht, wie Veränderungen im Status der Komparativoperatoren beeinflussen, ob Komparativ-Tilgung in einer Sprache vorkommt: Ich argumentiere dafür, dass nur Operatoren ohne eine lexikalische XP grammatikalisiert werden können. Die zugrunde liegenden Mechanismen sind im Wesentlichen allgemeine Prinzipien der Ökonomie, und damit sind die Prozesse nicht sprachspezifisch oder Ausnahmen. Fünftens bietet die Dissertation eine Erklärung für optionale Ellipsenprozesse, die bei der Ableitung von typischen komparativen Nebensätzen eine entscheidende Rolle spielen. Diese Prozesse haben nicht direkt mit der Struktur von Gradphrasen und somit mit der Entfernung der quantifizierten Phrase aus dem Nebensatz zu tun; aber es wird gezeigt, dass sie mit den Mechanismen, die Komparativ-Tilgung oder deren Abwesenheit zugrunde liegen, interagieren. KW - komparative Nebensätze KW - Komparativ-Tilgung KW - Gradphrasen KW - linke Peripherie KW - Overtheits-Bedingung KW - comparative subclauses KW - Comparative Deletion KW - degree phrases KW - left periphery KW - overtness requirement Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71255 SN - 978-3-86956-301-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Schmitt, Clemens Nikolaus Zeno T1 - The role of protein metal complexes in the mechanics of Mytilus californianus byssal threads T1 - Der Einfluss von Protein-Metall-Komplexen auf die mechanischen Eigenschaften der Byssusfäden von Mytilus californianus N2 - Protein-metal coordination complexes are well known as active centers in enzymatic catalysis, and to contribute to signal transduction, gas transport, and to hormone function. Additionally, they are now known to contribute as load-bearing cross-links to the mechanical properties of several biological materials, including the jaws of Nereis worms and the byssal threads of marine mussels. The primary aim of this thesis work is to better understand the role of protein-metal cross-links in the mechanical properties of biological materials, using the mussel byssus as a model system. Specifically, the focus is on histidine-metal cross-links as sacrificial bonds in the fibrous core of the byssal thread (Chapter 4) and L-3,4-dihydroxyphenylalanine (DOPA)-metal bonds in the protective thread cuticle (Chapter 5). Byssal threads are protein fibers, which mussels use to attach to various substrates at the seashore. These relatively stiff fibers have the ability to extend up to about 100 % strain, dissipating large amounts of mechanical energy from crashing waves, for example. Remarkably, following damage from cyclic loading, initial mechanical properties are subsequently recovered by a material-intrinsic self-healing capability. Histidine residues coordinated to transition metal ions in the proteins comprising the fibrous thread core have been suggested as reversible sacrificial bonds that contribute to self-healing; however, this remains to be substantiated in situ. In the first part of this thesis, the role of metal coordination bonds in the thread core was investigated using several spectroscopic methods. In particular, X-ray absorption spectroscopy (XAS) was applied to probe the coordination environment of zinc in Mytilus californianus threads at various stages during stretching and subsequent healing. Analysis of the extended X-ray absorption fine structure (EXAFS) suggests that tensile deformation of threads is correlated with the rupture of Zn-coordination bonds and that self-healing is connected with the reorganization of Zn-coordination bond topologies rather than the mere reformation of Zn-coordination bonds. These findings have interesting implications for the design of self-healing metallopolymers. The byssus cuticle is a protective coating surrounding the fibrous thread core that is both as hard as an epoxy and extensible up to 100 % strain before cracking. It was shown previously that cuticle stiffness and hardness largely depend on the presence of Fe-DOPA coordination bonds. However, the byssus is known to concentrate a large variety of metals from seawater, some of which are also capable of binding DOPA (e.g. V). Therefore, the question arises whether natural variation of metal composition can affect the mechanical performance of the byssal thread cuticle. To investigate this hypothesis, nanoindentation and confocal Raman spectroscopy were applied to the cuticle of native threads, threads with metals removed (EDTA treated), and threads in which the metal ions in the native tissue were replaced by either Fe or V. Interestingly, replacement of metal ions with either Fe or V leads to the full recovery of native mechanical properties with no statistical difference between each other or the native properties. This likely indicates that a fixed number of metal coordination sites are maintained within the byssal thread cuticle – possibly achieved during thread formation – which may provide an evolutionarily relevant mechanism for maintaining reliable mechanics in an unpredictable environment. While the dynamic exchange of bonds plays a vital role in the mechanical behavior and self-healing in the thread core by allowing them to act as reversible sacrificial bonds, the compatibility of DOPA with other metals allows an inherent adaptability of the thread cuticle to changing circumstances. The requirements to both of these materials can be met by the dynamic nature of the protein-metal cross-links, whereas covalent cross-linking would fail to provide the adaptability of the cuticle and the self-healing of the core. In summary, these studies of the thread core and the thread cuticle serve to underline the important and dynamic roles of protein-metal coordination in the mechanical function of load-bearing protein fibers, such as the mussel byssus. N2 - Protein-Metall Bindungen sind vor allem durch ihre Rolle in physiologischen Prozessen bekannt. Vor kurzem jedoch wurde eine völlig andere Funktion dieser chemischen Bindungen, als lasttragendes Vernetzungselement in Kieferzangen mariner Ringelwürmer der Gattung Nereis und Byssusfäden mariner Muscheln der Gattung Mytilus (Miesmuscheln) entdeckt. Ziel dieser Dissertation ist es, am Beispiel von M. californianus Byssusfäden, ein besseres Verständnis des Einflusses von Protein-Metall Komplexen auf die mechanischen Eigenschaften biologischer Materialien zu erlangen. Byssusfäden sind Proteinfasern, welche Miesmuscheln zur sicheren Befestigung verwenden. Diese relativ steifen Fäden können bis zu 100 % gedehnt zu werden, ohne zu brechen. Bei sofortiger Wiederbelastung zeigt sich jedoch eine Verschlechterung der mechanischen Eigenschaften des Materials. Erstaunlicherweise können sich die mechanischen Eigenschaften der Fäden hiervon wieder erholen. Es wird angenommen, dass im Faserkern der Byssusfäden die Aminosäure Histidin Bindungen mit Metallionen eingeht, welche als reversible Opferbindungen fungieren können und so einen Selbstheilungsprozess ermöglichen. In dieser Arbeit wurde der Beitrag von Protein-Zink Bindungen zur Mechanik der Byssusfäden mittels Röntgenabsorptionsspektroskopie (XAS), untersucht. Die ermittelten Daten legen nahe, dass Zn-Aminosäure Bindungen unter Dehnung der Byssusfäden brechen. Des Weiteren scheint der Selbstheilungsprozess nicht auf der bloßen Wiederherstellung dieser Bindungen zu beruhen, sondern viel mehr auf der Regenerierung der anfänglichen Bindungsstruktur und -verteilung. Diese Erkenntnisse stellen interessante Konzepte für die Entwicklung von selbstheilenden Metallopolymeren bereit. Die relativ harte Hülle der Byssusfäden schützt den Faserkern vor Abrieb. Laut Literatur basiert ihre Härte und Steifigkeit hauptsächlich auf der Quervernetzung durch Fe-DOPA (eine modifizierte Aminosäure) Bindungen. Jedoch können verschiedene Metalle aus dem Meerwasser in Byssusfäden aufgenommen werden und auch Bindungen mit DOPA bilden. Daher stellt sich die Frage, nach dem Zusammenhang zwischen mechanischen Eigenschaften und der Metallzusammensetzung der Byssushülle. Um dieser Frage nachzugehen, wurden die Metallionen aus der Hülle natürlicher Byssusfäden entfernt, und durch entweder Fe oder V ersetzt. Anschließend wurden die mechanischen Eigenschaften der Hüllen der behandelten und unbehandelten Byssusfäden mittels Nanoindentierung bestimmt. Interessanterweise besteht kein Unterschied der mechanischen Eigenschaften der natürlichen und modifizierten Hüllen der Byssusfäden, was dafür spricht, dass in der Hülle der Byssusfäden eine feste Anzahl an Protein-Metall Quervernetzungspunkten vorhanden ist, die möglicherweise durch den speziellen Produktionsprozess der Fäden festgelegt wird. Dies könnte eine evolutionäre Anpassung des Byssus darstellen, um eine verlässliche Verankerung des Organismus in verschiedenen Umgebungen zu gewährleisten. Während die Dynamik der Protein-Metall Bindungen ihnen eine Rolle als chemische Opferbindung im selbstheilenden Faserkern erlaubt, ermöglicht sie die Funktion der Hülle unter Verwendung verschiedener Metalle. Andere nicht-kovalente Wechselwirkungen haben sicherlich eine ähnliche Dynamik, und kovalente Bindungen sind stabiler, aber nur Protein-Metall Bindungen erlauben eine stabile und dynamische Quervernetzung, ohne die weder das Anpassungsvermögen der Hülle, noch das Selbstheilungsvermögen des Faserkerns möglich wären. Die Untersuchungen der Hülle und des Faserkerns der Byssusfäden verdeutlichen die Wichtigkeit der Protein-Metall Bindungen und ihrer Dynamik für die mechanische Funktion lasttragender Proteinfasern, wie dem Byssus der Miesmuscheln. KW - biomaterials KW - self-healing materials KW - protein-metal interaction KW - Biomaterialien KW - selbstheilende Materialien KW - Protein-Metall-Wechselwirkung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74216 ER - TY - THES A1 - Schaefer, Laura T1 - Synchronisationsphänomene myotendinöser Oszillationen interagierender neuromuskulärer Systeme T1 - Synchronization phenomena of myotendinal oscillations during interaction of neuromuscular systems BT - mit Betrachtung einer Hypothese bezüglich unterschiedlicher Qualitäten isometrischer Muskelaktion BT - considering a hypothesis regarding different qualities of isometric muscle action N2 - Muskeln oszillieren nachgewiesener Weise mit einer Frequenz um 10 Hz. Doch was geschieht mit myofaszialen Oszillationen, wenn zwei neuromuskuläre Systeme interagieren? Die Dissertation widmet sich dieser Fragestellung bei isometrischer Interaktion. Während der Testmessungen ergaben sich Hinweise für das Vorhandensein von möglicherweise zwei verschiedenen Formen der Isometrie. Arbeiten zwei Personen isometrisch gegeneinander, können subjektiv zwei Modi eingenommen werden: man kann entweder isometrisch halten – der Kraft des Partners widerstehen – oder isometrisch drücken – gegen den isometrischen Widerstand des Partners arbeiten. Daher wurde zusätzlich zu den Messungen zur Interaktion zweier Personen an einzelnen Individuen geprüft, ob möglicherweise zwei Formen der Isometrie existieren. Die Promotion besteht demnach aus zwei inhaltlich und methodisch getrennten Teilen: I „Single-Isometrie“ und II „Paar-Isometrie“. Für Teil I wurden mithilfe eines pneumatisch betriebenen Systems die hypothetischen Messmodi Halten und Drücken während isometrischer Aktion untersucht. Bei n = 10 Probanden erfolgte parallel zur Aufzeichnung des Drucksignals während der Messungen die Erfassung der Kraft (DMS) und der Beschleunigung sowie die Aufnahme der mechanischen Muskeloszillationen folgender myotendinöser Strukturen via Mechanomyo- (MMG) bzw. Mechanotendografie (MTG): M. triceps brachii (MMGtri), Trizepssehne (MTGtri), M. obliquus externus abdominis (MMGobl). Pro Proband wurden bei 80 % der MVC sowohl sechs 15-Sekunden-Messungen (jeweils drei im haltenden bzw. drückenden Modus; Pause: 1 Minute) als auch vier Ermüdungsmessungen (jeweils zwei im haltenden bzw. drückenden Modus; Pause: 2 Minuten) durchgeführt. Zum Vergleich der Messmodi Halten und Drücken wurden die Amplituden der myofaszialen Oszillationen sowie die Kraftausdauer herangezogen. Signifikante Unterschiede zwischen dem haltenden und dem drückenden Modus zeigten sich insbesondere im Bereich der Ermüdungscharakteristik. So lassen Probanden im haltenden Modus signifikant früher nach als im drückenden Modus (t(9) = 3,716; p = .005). Im drückenden Modus macht das längste isometrische Plateau durchschnittlich 59,4 % der Gesamtdauer aus, im haltenden sind es 31,6 % (t(19) = 5,265, p = .000). Die Amplituden der Single-Isometrie-Messungen unterscheiden sich nicht signifikant. Allerdings variieren die Amplituden des MMGobl zwischen den Messungen im drückenden Modus signifikant stärker als im haltenden Modus. Aufgrund dieser teils signifikanten Unterschiede zwischen den beiden Messmodi wurde dieses Setting auch im zweiten Teil „Paar-Isometrie“ berücksichtigt. Dort wurden n = 20 Probanden – eingeteilt in zehn gleichgeschlechtliche Paare – während isometrischer Interaktion untersucht. Die Sensorplatzierung erfolgte analog zu Teil I. Die Oszillationen der erfassten MTG- sowie MMG-Signale wurden u.a. mit Algorithmen der Nichtlinearen Dynamik auf ihre Kohärenz hin untersucht. Durch die Paar-Isometrie-Messungen zeigte sich, dass die Muskeln und die Sehnen beider neuromuskulärer Systeme bei Interaktion im bekannten Frequenzbereich von 10 Hz oszillieren. Außerdem waren sie in der Lage, sich bei Interaktion so aufeinander abzustimmen, dass sich eine signifikante Kohärenz entwickelte, die sich von Zufallspaarungen signifikant unterscheidet (Patchanzahl: t(29) = 3,477; p = .002; Summe der 4 längsten Patches: t(29) = 7,505; p = .000). Es wird der Schluss gezogen, dass neuromuskuläre Komplementärpartner in der Lage sind, sich im Sinne kohärenten Verhaltens zu synchronisieren. Bezüglich der Parameter zur Untersuchung der möglicherweise vorhandenen zwei Formen der Isometrie zeigte sich bei den Paar-Isometrie-Messungen zwischen Halten und Drücken ein signifikanter Unterschied bei der Ermüdungscharakteristik sowie bezüglich der Amplitude der MMGobl. Die Ergebnisse beider Teilstudien bestärken die Hypothese, dass zwei Formen der Isometrie existieren. Fraglich ist, ob man überhaupt von Isometrie sprechen kann, da jede isometrische Muskelaktion aus feinen Oszillationen besteht, die eine per Definition postulierte Isometrie ausschließen. Es wird der Vorschlag unterbreitet, die Isometrie durch den Begriff der Homöometrie auszutauschen. Die Ergebnisse der Paar-Isometrie-Messungen zeigen u.a., dass neuromuskuläre Systeme in der Lage sind, ihre myotendinösen Oszillationen so aufeinander abzustimmen, dass kohärentes Verhalten entsteht. Es wird angenommen, dass hierzu beide neuromuskulären Systeme funktionell intakt sein müssen. Das Verfahren könnte für die Diagnostik funktioneller Störungen relevant werden. N2 - Muscles oscillate with a frequency of about 10 Hz. But what happens with myofascial oscillations if two neuromuscular systems interact? The dissertation is devoted to this question during isometric interaction. The test measurements provide hints for the presence of possibly two different forms of isometric muscle action. When two persons work against each other, each individual can subjectively choose to take up one of two modes: one can either hold isometrically – thus resist the force of the partner – or one can push isometrically – and therefore work against the resistance of the partner. In addition to the measurements to determine the interaction of neuromuscular systems, measurements with single individuals were done to evaluate the question, if probably two forms of isometric muscle action exist. The doctoral thesis consists of two separate parts concerning the content and methodology: I “Single Isometric” and II “Coupled Isometric”. For part I the hypothetical measurement modes - “holding” and “pushing” during isometric muscle action - were examined using a pneumatic system. During the measurements of n = 10 subjects the signal of pressure, force (strain gauge) and acceleration were recorded. Furthermore, the detection of the mechanic muscle oscillations of the following myotendinal structures occurred via Mechanomyo- (MMG) and Mechanotendography (MTG), respectively: triceps brachii muscle (MMGtri), tendon of triceps brachii muscle (MTGtri) and obliquus externus abdominis muscle (MMGobl). Each test person performed at 80 % of MVC six 15-seconds-measurements (three at holding and three at pushing mode, respectively; break: 1 min.) as well as four fatigue measurements (two at holding and two at pushing mode, respectively; break: 2 min.). In order to compare the two measurement modes holding and pushing, the amplitude of the myofascial oscillations as well as the force endurance were used. Significant differences between the holding and the pushing mode appeared especially when looking at the characteristics of fatigue. Subjects in the holding mode yielded earlier than during the pushing one (t(9) = 3.716; p = .005). In the pushing mode the longest isometric plateau amounts 59.4 % of the overall duration of the measurement. During holding it lasted 31.6 % (t(19) = 5.265, p = .000). The amplitudes of the single-isometric-measurements did not differ significantly. But the amplitude of the MMGobl varied significantly stronger during the pushing mode comparing to the holding one. Due to these partly significant differences between both measurement modes, this setting was considered for the second part „Coupled-Isometric“, too. For the coupled-isometric-measurements n = 20 subjects – divided into same-sex couples – were investigated during isometric interaction. The placement of the sensors is analogous to part I. The oscillations of the recorded MMG- and MTG-signals were analyzed regarding their coherence inter alia by algorithms of non-linear dynamics. Through the coupled-isometric-measurements it was shown, that also during isometric interaction the muscles and the tendons of both neuromuscular systems oscillate at the known frequency range of 10 Hz. Moreover, the systems are able to coordinate them in such a manner, that a significant coherence appears. This differed significantly from random pairings (number of patches: t(29) = 3.477; p = .002; Sum of 4 longest patches: t(29) = 7.505; p = .000). Thus it is concluded that neuromuscular complementary partners are able to synchronize themselves in the sense of coherent behavior. Regarding the parameters concerning the possibly existing forms of isometric muscle action, a significant difference at the coupled-isometric-measurements between holding and pushing appeared with respect to the characteristics of fatigue as well as the amplitudes of the MMGobl. The results of both sub studies strengthen the hypothesis that two forms of isometric muscle action exist. It is questionable whether one can talk of isometry at all, since each isometric muscle action consists of fine oscillations. This excludes a by definition postulated isometry. It is proposed to exchange this term with homeometry. The results of the coupled-isometric-measurements show inter alia, that neuromuscular systems are able to coordinate their myotendinal oscillations, so that coherent behavior arises. It is supposed that for this both systems have to be functionally intact. This procedure could become relevant for diagnostics of functional disorders. KW - Mechanomyografie KW - myofasziale Oszillationen KW - Isometrie KW - Interaktion KW - Synchronisation KW - mechanomyography KW - myofascial oscillations KW - isometric muscle action KW - interaction KW - synchronization Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72445 ER - TY - THES A1 - Pussak, Marcin T1 - Seismic characterization of geothermal reservoirs by application of the common-reflection-surface stack method and attribute analysis T1 - Seismische Charakterisierung von geothermischen Reservoiren mittels “Common-Reflection-Surface” Stapelungs-Methode und Attribut-Analysen N2 - An important contribution of geosciences to the renewable energy production portfolio is the exploration and utilization of geothermal resources. For the development of a geothermal project at great depths a detailed geological and geophysical exploration program is required in the first phase. With the help of active seismic methods high-resolution images of the geothermal reservoir can be delivered. This allows potential transport routes for fluids to be identified as well as regions with high potential of heat extraction to be mapped, which indicates favorable conditions for geothermal exploitation. The presented work investigates the extent to which an improved characterization of geothermal reservoirs can be achieved with the new methods of seismic data processing. The summations of traces (stacking) is a crucial step in the processing of seismic reflection data. The common-reflection-surface (CRS) stacking method can be applied as an alternative for the conventional normal moveout (NMO) or the dip moveout (DMO) stack. The advantages of the CRS stack beside an automatic determination of stacking operator parameters include an adequate imaging of arbitrarily curved geological boundaries, and a significant increase in signal-to-noise (S/N) ratio by stacking far more traces than used in a conventional stack. A major innovation I have shown in this work is that the quality of signal attributes that characterize the seismic images can be significantly improved by this modified type of stacking in particular. Imporoved attribute analysis facilitates the interpretation of seismic images and plays a significant role in the characterization of reservoirs. Variations of lithological and petro-physical properties are reflected by fluctuations of specific signal attributes (eg. frequency or amplitude characteristics). Its further interpretation can provide quality assessment of the geothermal reservoir with respect to the capacity of fluids within a hydrological system that can be extracted and utilized. The proposed methodological approach is demonstrated on the basis on two case studies. In the first example, I analyzed a series of 2D seismic profile sections through the Alberta sedimentary basin on the eastern edge of the Canadian Rocky Mountains. In the second application, a 3D seismic volume is characterized in the surroundings of a geothermal borehole, located in the central part of the Polish basin. Both sites were investigated with the modified and improved stacking attribute analyses. The results provide recommendations for the planning of future geothermal plants in both study areas. N2 - Ein wichtiger Beitrag der Geowissenschaften zur Bereitstellung erneuerbarer Energien besteht in der Nutzbarmachung von geothermischen Ressourcen. Für die Entwicklung von geothermischen Anlagen in großen Tiefen ist in der ersten Phase eine detaillierte geologisch-geophysikalische Erkundung erforderlich. Hierbei werden Informationen über das Temperaturfeld, zur Litho-Stratigraphie und Strukturgeologie, Geomechanik, Hydrogeologie sowie petrophysikalische Eigenschaften im Reservoir-Maßstab benötigt. Mit Hilfe aktiver seismischer Methoden können hochauflösende Abbilder des geothermischen Reservoirs geliefert werden. Dadurch können potentielle Transportwege für Fluide sowie Regionen mit hohem Wärmeabsorptionspotential identifiziert und kartiert werden. Die vorgelegte Arbeit untersucht, inwieweit mit neuen Methoden der seismischen Datenbearbeitung eine verbesserte Charakterisierung von geothermischen Reservoiren erreicht werden kann. Die Stapelung ist ein entscheidender Schritt bei der Bearbeitung von seismischen Felddaten. Die sogenannte “common-reflection-surface” Stapelung ist eine Erweiterung des klassischen Stapelungs-Konzepts. Durch ihre Anwendung können detailliertere und zuverlässigere Abbilder des Untergrundes gewonnen werden. Als wichtige Neuerung habe ich in der Arbeit aufgezeigt, dass durch diese modifizierte Art der Stapelung insbesondere die Qualität von Signalattribut-Darstellungen der seismischen Abbilder signifikant verbessert wird. Signalattribute sind ein wichtiges Werkzeug bei der Untersuchung von Reservoiren. Variationen der lithologischen und petrophysikalischen Eigenschaften spiegeln sich in Variationen in bestimmten Signalattributen (z.B. Frequenzeigenschaften, Amplitudeneigenschaften) wieder. Daraus kann auf die Qualität des geothermischen Reservoirs, z.B. hinsichtlich der Aufnahmefähigkeit von Fluiden zur Wärmeabsorption in Kreislaufsystemen, geschlossen werden. Das vorgeschlagenen methodische Konzept wird an Hand von 2 Fallstudien demonstriert. Im ersten Beispiel analysierte ich eine Reihe von 2D seismischen Profilschnitten durch das Alberta-Sedimentbecken am Ostrand der kanadischen Rocky Mountains. Bei der zweiten Anwendung wird ein 3D seismisches Volumen im Umfeld einer Geothermie-Bohrung im Zentralteil des Polnischen Sedimentbeckens mit Hilfe der modifizierten Stapelung und verbesserten Attribut-Analysen charakterisiert. Die Ergebnisse ermöglichen Empfehlungen für die Planung zukünftiger Geothermie-Anlagen in beiden Untersuchungsgebieten. KW - seismic KW - geothermischer Reservoire KW - seismische Stapelungs-Methode KW - Attribut-Analysen KW - Verarbeitung seismischer Daten KW - Common-Reflection-Surface Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77565 ER - TY - THES A1 - Schulz, Anneli T1 - Search for gamma-ray emission from bow shocks of runaway stars T1 - Suche nach Gammastrahlungsemission aus Bugwellen von Schnellläufersternen N2 - The mystery of the origin of cosmic rays has been tackled for more than hundred years and is still not solved. Cosmic rays are detected with energies spanning more than 10 orders of magnitude and reaching energies up to ~10²¹ eV, far higher than any man-made accelerator can reach. Different theories on the astrophysical objects and processes creating such highly energetic particles have been proposed. A very prominent explanation for a process producing highly energetic particles is shock acceleration. The observation of high-energy gamma rays from supernova remnants, some of them revealing a shell like structure, is clear evidence that particles are accelerated to ultrarelativistic energies in the shocks of these objects. The environments of supernova remnants are complex and challenge detailed modelling of the processes leading to high-energy gamma-ray emission. The study of shock acceleration at bow shocks, created by the supersonic movement of individual stars through the interstellar medium, offers a unique possibility to determine the physical properties of shocks in a less complex environment. The shocked medium is heated by the stellar and the shock excited radiation, leading to thermal infrared emission. 28 bow shocks have been discovered through their infrared emission. Nonthermal radiation in radio and X-ray wavelengths has been detected from two bow shocks, pointing to the existence of relativistic particles in these systems. Theoretical models of the emission processes predict high-energy and very high-energy emission at a flux level in reach of current instruments. This work presents the search for gamma-ray emission from bow shocks of runaway stars in the energy regime from 100MeV to ~100TeV. The search is performed with the large area telescope (LAT) on-board the Fermi satellite and the H.E.S.S. telescopes located in the Khomas Highland in Namibia. The Fermi-LAT was launched in 2008 and is continuously scanning the sky since then. It detects photons with energies from 20MeV to over 300 GeV and has an unprecedented sensitivity. The all-sky coverage allows us to study all 28 bow shocks of runaway stars listed in the E-BOSS catalogue of infrared bow shocks. No significant emission was detected from any of the objects, although predicted by several theoretical models describing the non-thermal emission of bow shocks of runaway stars. The H.E.S.S. experiment is the most sensitive system of imaging atmospheric Cherenkov telescopes. It detects photons from several tens of GeV to ~100TeV. Seven of the bow shocks have been observed with H.E.S.S. and the data analysis is presented in this thesis. The analyses of the very-high energy data did not reveal significant emission from any of the sources either. This work presents the first systematic search for gamma-ray emission from bow shocks of runaway stars. For the first time Fermi-LAT data was specifically analysed to reveal emission from bow shocks of runaway stars. In the TeV regime no searches for emission from theses objects have been published so far, the study presented here is the first in this energy regime. The level of the gamma-ray emission from bow shocks of runaway stars is constrained by the calculated upper limits over six orders in magnitude in energy. The upper limits calculated for the bow shocks of runaway stars in the course of this work, constrain several models. For the best candidate, ζ Ophiuchi, the upper limits in the Fermi-LAT energy range are lower than the predictions by a factor ~5. This challenges the assumptions made in this model and gives valuable input for further modelling approaches. The analyses were performed with the software packages provided by the H.E.S.S. and Fermi collaborations. The development of a unified analysis framework for gamma-ray data, namely GammaLib/ctools, is rapidly progressing within the CTA consortium. Recent implementations and cross-checks with current software frameworks are presented in the Appendix. N2 - Das Rätsel des Ursprungs der kosmischen Strahlung wird seit über 100 Jahren angegangen und ist noch immer nicht gelöst. Kosmische Strahlung wird mit Energien die zehn Größenordnungen überspannen gemessen und erreicht Energien bis zu ~10²¹ eV, weit höher als irgendein menschengemachter Beschleuniger erzeugen kann. Verschiedene Theorien über die astrophysikalischen Objekte und Prozesse, die solch hochenergetische Teilchen erzeugen können, wurden vorgeschlagen. Eine prominente Erklärung für einen Prozess, der hochenergetische Teilchen erzeugt ist Schockbeschleunigung. Die Detektion von hochenergetischer Gammastrahlung von Supernovaüberresten, von denen einige schalenförmige Strukturen offenbarten, ist ein klarer Beweis für die Beschleunigung von Teilchen zu ultrarelativistischen Energien in den Schocks dieser Objekte. Die Umgebung von Supernovaüberresten ist komplex und das detaillierte Modellieren der Prozesse die zu hochenergetischer Gammastrahlung führen herausfordernd. Die Untersuchung von Schockbeschleunigung an Bugwellen, die durch individuelle Sterne erzeugt werden, die sich mit Überschallgeschwindigkeit durch das interstellare Medium bewegen, bietet die einmalige Gelegenheit die physikalischen Eigenschaften von Schocks in einer weniger komplexen Umgebung zu bestimmen. Das komprimierte ("geschockte") Medium wird durch die Strahlung des Sterns und die durch den Schock angeregte Strahlung erhitzt und sendet infolgedessen thermische Infrarot-Strahlung aus. Nichtthermische Strahlung, die auf die Existenz von relativistischen Teilchen hinweist, wurde von zwei Bugwellen in Radio- und Röntgen-Wellenlängen gemessen. Theoretische Modelle der Strahlungsprozesse sagen hochenergetische und sehr hochenergetische Strahlung auf einem Niveau, welches mit aktuellen Instrumenten gemessen werden kann, voraus. Diese Arbeit präsentiert die Suche nach hochenergetischer Gammastrahung von Bugwellen von Schnellläufersternen in einem Energiebereich von 100MeV bis ~100TeV. Diese Suche wird mit dem "large area telescope"(LAT) an Bord des Fermi Satelliten und den H.E.S.S. Teleskopen, die im Khomas Hochland in Namibia in Betrieb sind, durchgeführt. Der Fermi Satellit wurde 2008 gestartet und das Fermi-LAT durchmustert seitdem kontinuierlich den Himmel. Es detektiert Photonen im Energiebereich von 20MeV bis über 300GeV und hat eine noch nie dagewesene Sensitivität. Die Abdeckung des gesamten Himmels erlaubt es alle 28 Bugwellen von Schnellläufersternen, die im E-BOSS Katalog aufgelistet sind, zu untersuchen. Von keiner der Bugwellen der Schnellläufersterne konnte signifikante Strahlung nachgewiesen werden, obwohl diese von theoretischen Modellen, die die nichtthermische Emission von Bugwellen von Schnellläufersternen beschreiben, vorausgesagt wurde. Das H.E.S.S. Experiment ist das sensitivste System von abbildenden Cherenkovteleskopen. Es kann Photonen mit Energien von einigen zehn GeV bis zu ~100TeV nachweisen. Sieben der Bugwellen von Schnellläufersternen wurden mit H.E.S.S. beobachtet und die Analyse der Daten wird in dieser Arbeit präsentiert. Auch die Analysen der sehr hochenergetischen Strahlung enthüllten keine signifikante Strahlung aus den Bugwellen der Schnellläufersterne. Diese Arbeit stellt die erste systematische Suche nach Gammastrahlung aus Bugwellen von Schnellläufersternen vor. Zum ersten Mal wurden Fermi-LAT Daten speziell zur Suche nach Emission von diesen Objekten analysiert. Im TeV-Energiebereich wurden bisher noch keine Suchen nach Gammastrahlung von Schnellläufersternen publiziert, die hier vorgestellte Studie ist also die erste in diesem Energiebereich. Das Niveau des Gammastrahlungflusses von Schnellläufersternen wird über einen sechs Größenordnungen überspannenden Energiebereich eingeschränkt. Die oberen Grenzen des Gammastrahlungs usses aus Bugwellen von Schnellläufersternen schränken verschiedene Modelle ein. Für den besten Kandidaten, ζ Ophiuchi, liegen die berechneten oberen Grenzen im Fermi-LAT Energiebereich einen Faktor ~5 unter den Vorhersagen. Dies fordert die Annahmen des Modells heraus und liefert wertvolle Bedingungen für weitere Modellierungsansätze. Die präsentierten Analysen wurden mit den Softwarepakten, die von den Fermi und H.E.S.S. Kollaborationen zur Verfügung gestellt werden, durchgeführt. Die Entwicklung einer gemeinsamen Analyseumgebung namens GammaLib/ctools wird im Rahmen des CTA Konsortiums umgesetzt. Neue Implementierungen und Gegenproben zu den momentanen Analyseumgebungen werden im Anhang präsentiert. KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - GammaLib/ctools KW - Bugwellenschocks KW - Schnellläufersterne KW - gamma-ray astronomy KW - Fermi KW - H.E.S.S KW - gammalib/ctools KW - bow shocks KW - runaway stars Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73905 ER - TY - THES A1 - Kirchhecker, Sarah T1 - Renewable imidazolium zwitterions as platform molecules for the synthesis of ionic liquids and materials T1 - Neue funktionalisierte Imidazoliumverbindungen als Bausteinmoleküle aus Biomasse und ihre Verwendung zur Synthese von ionischen Flüssigkeiten und Materialien N2 - Following the principles of green chemistry, a simple and efficient synthesis of functionalised imidazolium zwitterionic compounds from renewable resources was developed based on a modified one-pot Debus-Radziszewski reaction. The combination of different carbohydrate-derived 1,2-dicarbonyl compounds and amino acids is a simple way to modulate the properties and introduce different functionalities. A representative compound was assessed as an acid catalyst, and converted into acidic ionic liquids by reaction with several strong acids. The reactivity of the double carboxylic functionality was explored by esterification with long and short chain alcohols, as well as functionalised amines, which led to the straightforward formation of surfactant-like molecules or bifunctional esters and amides. One of these di-esters is currently being investigated for the synthesis of poly(ionic liquids). The functionalisation of cellulose with one of the bifunctional esters was investigated and preliminary tests employing it for the functionalisation of filter papers were carried out successfully. The imidazolium zwitterions were converted into ionic liquids via hydrothermal decarboxylation in flow, a benign and scalable technique. This method provides access to imidazolium ionic liquids via a simple and sustainable methodology, whilst completely avoiding contamination with halide salts. Different ionic liquids can be generated depending on the functionality contained in the ImZw precursor. Two alanine-derived ionic liquids were assessed for their physicochemical properties and applications as solvents for the dissolution of cellulose and the Heck coupling. N2 - In dieser Arbeit wurden, den Prinzipien der nachhaltigen Chemie folgend, neue funktionalisierte Imidazolium-Verbindungen aus Biomasse hergestellt. Diese wurden als Plattformmoleküle verwendet, die durch einfache Derivation in verschiedene andere Verbindungen überführt, und als Bausteine für die Herstellung von Materialien genutzt werden können. Imidazolium Zwitterionen (ImZw) wurden in Eintopfreaktionen in Wasser dargestellt, wobei alle Ausgangsstoffe auf nachwachsenden Rohstoffen basierten Durch die Verwendung von Aminosaeuren wurden die ImZw durch die Wahl der verschiedenen Seitenketten direkt funktionalisiert. Die Säureeigenschaften der Moleküle wurden bestimmt und ihre Eignung als Katalysatoren überprüft. An einer Modellverbindung ewurden verschiedene Modifikationen der Carboxylgruppen unternommen, u.a. wurde es mit verschiedenen Alkoholen esterifiziert, und anfolgend auch mit verschiedenen Aminen amidiert. Eines von den esterifizierten ImZw wurde als Monomer für die Synthese einer komplett aus nachwachsenden Rohstoffen hergestellten polyionischen Flüssigkeit verwendet, sowie für die Funktionalisierung von Cellulosefasern und Filterpapieren. Des weiteren wurden die ImZw unter hydrothermalen Bedingungen in der Gegenwart von Essigsäure decarboxyliert und so in ionische Flüssigkeiten überführt. Diese Reaktionen wurden in einem Durchflußreaktor durchgeführt, der gegenüber anderen Synthesemethoden weniger Energie verwendet. Die so hergestellten ionischen Flüssigkeiten wurden in zwei Anwendungen getestet, wo sie sehr vielversprechende Ergebnisse zeigten. Eine wurde als Lösungsmittel in einer Heck Reaktion verwendet, wo der Pd-Katalysator 5 mal ohne Aktivitätsverlust recycelt werden konnte eine andere konnte einen hohe Menge an Cellulose (16.9 wt%) lösen. KW - ionic liquids KW - platform chemicals KW - renewables KW - imidazolium KW - green chemistry KW - hydrothermal KW - ionische Flüssigkeiten KW - nachhaltige Chemie KW - Imidazolium KW - Zwitterionen KW - nachwachsende Rohstoffe Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77412 ER - TY - THES A1 - Videla, Santiago T1 - Reasoning on the response of logical signaling networks with answer set programming T1 - Modellierung Logischer Signalnetzwerke mittels Antwortmengenprogrammierung N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks. KW - Systembiologie KW - logische Signalnetzwerke KW - Antwortmengenprogrammierung KW - systems biology KW - logical signaling networks KW - answer set programming Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71890 ER - TY - THES A1 - Mayer, Michael T1 - Pulsar wind nebulae at high energies BT - a diverse population and exceptional twins BT - eine vielfältige Population und außergewöhnliche Zwillinge N2 - Pulsar wind nebulae (PWNe) are the most abundant TeV gamma-ray emitters in the Milky Way. The radiative emission of these objects is powered by fast-rotating pulsars, which donate parts of their rotational energy into winds of relativistic particles. This thesis presents an in-depth study of the detected population of PWNe at high energies. To outline general trends regarding their evolutionary behaviour, a time-dependent model is introduced and compared to the available data. In particular, this work presents two exceptional PWNe which protrude from the rest of the population, namely the Crab Nebula and N 157B. Both objects are driven by pulsars with extremely high rotational energy loss rates. Accordingly, they are often referred to as energetic twins. Modelling the non-thermal multi-wavelength emission of N157B gives access to specific properties of this object, like the magnetic field inside the nebula. Comparing the derived parameters to those of the Crab Nebula reveals large intrinsic differences between the two PWNe. Possible origins of these differences are discussed in context of the resembling pulsars. Compared to the TeV gamma-ray regime, the number of detected PWNe is much smaller in the MeV-GeV gamma-ray range. In the latter range, the Crab Nebula stands out by the recent detection of gamma-ray flares. In general, the measured flux enhancements on short time scales of days to weeks were not expected in the theoretical understanding of PWNe. In this thesis, the variability of the Crab Nebula is analysed using data from the Fermi Large Area Telescope (Fermi-LAT). For the presented analysis, a new gamma-ray reconstruction method is used, providing a higher sensitivity and a lower energy threshold compared to previous analyses. The derived gamma-ray light curve of the Crab Nebula is investigated for flares and periodicity. The detected flares are analysed regarding their energy spectra, and their variety and commonalities are discussed. In addition, a dedicated analysis of the flare which occurred in March 2013 is performed. The derived short-term variability time scale is roughly 6h, implying a small region inside the Crab Nebula to be responsible for the enigmatic flares. The most promising theories explaining the origins of the flux eruptions and gamma-ray variability are discussed in detail. In the technical part of this work, a new analysis framework is presented. The introduced software, called gammalib/ctools, is currently being developed for the future CTA observa- tory. The analysis framework is extensively tested using data from the H. E. S. S. experiment. To conduct proper data analysis in the likelihood framework of gammalib/ctools, a model describing the distribution of background events in H.E.S.S. data is presented. The software provides the infrastructure to combine data from several instruments in one analysis. To study the gamma-ray emitting PWN population, data from Fermi-LAT and H. E. S. S. are combined in the likelihood framework of gammalib/ctools. In particular, the spectral peak, which usually lies in the overlap energy regime between these two instruments, is determined with the presented analysis framework. The derived measurements are compared to the predictions from the time-dependent model. The combined analysis supports the conclusion of a diverse population of gamma-ray emitting PWNe. N2 - Pulsarwindnebel (PWN) sind im Bereich der TeV Gammastrahlung die am häufigsten vorkommende Quellklasse. Die vorliegende Arbeit präsentiert eine detaillierte Studie der Population von gammastrahlungsemittierenden PWNn. Um ihre Entwicklung zu untersuchen, wird ein zeitabhängiges Modell vorgestellt und mit Messdaten verglichen. Der Fokus dieser Arbeit liegt des Weiteren auf zwei außergewöhnlichen PWNn, die aus der übrigen Population hervorstechen: der Krebsnebel und N 157B. Diese beiden PWN werden von Pulsaren mit ähnlich hohen Rotationsenergieverlustraten gespeist. Daher werden die beiden Pulsare auch oft als “energetische Zwillinge” bezeichnet. Im Rahmen dieser Arbeit wird die Breitbandemission von N 157B modelliert. Dies ermöglicht es, spezielle Eigenschaften dieses PWNs abzuschätzen. Diese sind im Vergleich zum Krebsnebel sehr unterschiedlich, obwohl sich die jeweiligen Energiequellen stark ähneln. Es werden verschiedene Möglichkeiten für die unterschiedliche Erscheinung dieser beiden Quellen diskutiert. Auf Grund kürzlich gemessener MeV Gammastrahlungsausbrüche wird die Einzigartigkeit des Krebsnebels in diesem Energiebereich verdeutlicht. Die auf Zeitskalen von Tagen bis Wochen variierende Helligkeit ist nach dem gegenwärtigen Verständnis von PWNn unerwartet. In dieser Arbeit wird die zeitliche Variabilität des Krebsnebels mit Daten vom Fermi Large Area Telescope (Fermi-LAT) analysiert. Die vorgestellte Datenanalyse basiert auf einer neuen Rekonstruktionsmethode von Gammastrahlen, welche zu einer höheren Empfindlichkeit und einer niedrigeren Energieschwelle führt. Die Lichtkurve des Krebsnebels in Gammastrahlung wird auf Periodizität und Variabilität untersucht. Des Weiteren werden die nachgewiesenen Strahlungsausbrüche hinsichtlich ihrer Energiespektren ausgewertet und miteinander auf Gemeinsamkeiten und Unterschiede verglichen. Zusätzlich wird eine detaillierte Analyse der starken Flusserhöhung vom März 2013 vorgestellt. Die hierbei bestimmte Kurzzeitvariabilität von ca. sechs Stunden lässt vermuten, dass eine sehr kleine Region innerhalb des Krebsnebels für die Strahlungsausbrüche verantwortlich ist. Die vielversprechendsten Theorien zu diesem Phänomen werden vorgestellt und diskutiert. Im technischen Teil dieser Arbeit wird eine neue Analyseumgebung vorgestellt, die derzeit für das zukünftige CTA Observatorium entwickelt wird. Diese Software wird intensiven Analysetests mit Daten des H.E.S.S. Experiments unterzogen. Für die angemessene Durchführung von H.E.S.S. Datenanalysen wird ein Modell vorgestellt, das die Verteilung der Untergrundereignisse in H. E. S. S. Daten beschreibt. Des Weiteren erlaubt die Analyseumgebung die Kombination von Daten mehrerer Instrumente. Diese einzigartige Option wird genutzt, um die beschriebene PWN Population genauer zu studieren. Zu diesem Zweck werden Daten von Fermi-LAT und H. E. S. S. gemeinsam analysiert. Von besonderem Interesse ist hierbei das spektrale Maximum von PWN, welches meist im energetischen Überlappbereich der beiden Instrumente liegt. Die Ergebnisse der gemeinsamen Analyse werden mit dem zeitabhängigen Modell für PWN verglichen. Die daraus gewonnenen Resultate verdeutlichen unter anderem die breite Vielfalt von PWNn. T2 - Pulsarwindnebel bei hohen Energien KW - Crab Nebula KW - N157B KW - gammalib/ctools KW - gamma-ray astronomy KW - data analysis KW - Gammastrahlungsastronomie KW - Fermi-LAT KW - H.E.S.S. KW - Statistische Datenanalyse KW - Krebsnebel KW - N157B KW - Pulsarwindnebel Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71504 ER - TY - THES A1 - Rogge-Solti, Andreas T1 - Probabilistic Estimation of Unobserved Process Events T1 - Probabilistische Abschätzung Unbeobachteter Prozessereignisse N2 - Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance. N2 - Unternehmen versuchen Wettbewerbsvorteile zu gewinnen und die Kundenzufriedenheit zu erhöhen. Um die Qualität und die Effizienz ihrer Prozesse zu gewährleisten, wenden Unternehmen Geschäftsprozessmanagement an. Hierbei spielt die Prozesskontrolle im täglichen Betrieb eine wichtige Rolle. Prozesskontrolle wird durch Prozessmonitoring ermöglicht, d.h. durch die Überwachung des Prozessfortschritts laufender Prozessinstanzen. So können Verzögerungen entdeckt und es kann entsprechend reagiert werden, um Prozesse wie erwartet und termingerecht beenden zu können. Um Prozessmonitoring zu ermöglichen, müssen prozessrelevante Ereignisse aus der Prozessumgebung gesammelt und ausgewertet werden. Sofern eine Prozessausführungsengine die Orchestrierung von Geschäftsprozessen übernimmt, kann jede Prozessaktivität überwacht werden. Aber viele Geschäftsprozesse eignen sich nicht für automatisierte Orchestrierung, da sie z.B. besonders viel Handlungsfreiheit erfordern. Dies ist in Krankenhäusern der Fall, in denen Geschäftsprozesse oft manuell durchgeführt werden. Daher ist es meist umständlich oder unmöglich, jeden Prozessfortschritt zu erfassen. Zudem ist händische Prozessausführung und -dokumentation fehleranfällig, so wird z.B. manchmal vergessen zu dokumentieren. Eine Herausforderung für Unternehmen ist, dass manche Prozessereignisse nicht im Prozessmonitoring erfasst werden. Solch unbeobachtete Prozessereignisse können jedoch als Entscheidungsgrundlage dienen, selbst wenn kein exaktes Wissen über den Zeitpunkt ihres Auftretens vorliegt. Zum Beispiel ist bei der Prozesskontrolle zu entscheiden, ob zusätzliche Ressourcen eingesetzt werden sollen, wenn eine Verspätung angenommen wird. Diese Arbeit stellt einen probabilistischen Ansatz für den Umgang mit unbeobachteten Prozessereignissen vor. Dabei werden entscheidende Fragen von Prozessmanagern beantwortet (z.B. "Wann werden wir den Fall beenden?", oder "Wann wurde die Aktivität ausgeführt, die nicht dokumentiert wurde?"). Der Hauptbeitrag der Arbeit ist die Einführung eines erweiterten probabilistischen Modells ins Geschäftsprozessmanagement, das auf stochastischen Petri Netzen basiert. Dabei wird ein ganzheitlicher Ansatz zur Unterstützung der einzelnen Phasen des Geschäftsprozesslebenszyklus verfolgt. Es werden Techniken zum Lernen des probabilistischen Modells, zum Vorhersagen des Zeitpunkts des Prozessendes, zum Qualitätsmanagement von Dokumentationen durch Erkennung fehlender Einträge, und zur Optimierung von Monitoringkonfigurationen bereitgestellt. Letztere dient zur Auswahl von relevanten Stellen im Prozess, die beobachtet werden sollten. Diese Techniken wurden in einer quelloffenen prototypischen Anwendung implementiert. Zur Evaluierung wird der Ansatz mit existierenden Alternativen an echten Prozessdaten eines Krankenhauses gemessen. Die generelle Anwendbarkeit in weiteren Domänen wird examplarisch an Prozessdaten aus der Logistik und dem Finanzwesen gezeigt. KW - Geschäftsprozessmanagement KW - stochastische Petri Netze KW - Bayessche Netze KW - Probabilistische Modelle KW - Vorhersage KW - Fehlende Daten KW - Process Mining KW - business process management KW - stochastic Petri nets KW - Bayesian networks KW - probabilistic models KW - prediction KW - missing data KW - process mining Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70426 ER - TY - THES A1 - Trost, Gerda T1 - Poly(A) Polymerase 1 (PAPS1) influences organ size and pathogen response in Arabidopsis thaliana T1 - Poly(A) Polymerase 1 (PAPS1) beeinflusst die Organgröße und Pathogenantwort in Arabidopsis thaliana N2 - Polyadenylation of pre-mRNAs is critical for efficient nuclear export, stability, and translation of the mature mRNAs, and thus for gene expression. The bulk of pre-mRNAs are processed by canonical nuclear poly(A) polymerase (PAPS). Both vertebrate and higher-plant genomes encode more than one isoform of this enzyme, and these are coexpressed in different tissues. However, in neither case is it known whether the isoforms fulfill different functions or polyadenylate distinct subsets of pre-mRNAs. This thesis shows that the three canonical nuclear PAPS isoforms in Arabidopsis are functionally specialized owing to their evolutionarily divergent C-terminal domains. A moderate loss-of-function mutant in PAPS1 leads to increase in floral organ size, whereas leaf size is reduced. A strong loss-of-function mutation causes a male gametophytic defect, whereas a weak allele leads to reduced leaf growth. By contrast, plants lacking both PAPS2 and PAPS4 function are viable with wild-type leaf growth. Polyadenylation of SMALL AUXIN UP RNA (SAUR) mRNAs depends specifically on PAPS1 function. The resulting reduction in SAUR activity in paps1 mutants contributes to their reduced leaf growth, providing a causal link between polyadenylation of specific pre-mRNAs by a particular PAPS isoform and plant growth. Additionally, opposite effects of PAPS1 on leaf and flower growth reflect the different identities of these organs. The overgrowth of paps1 mutant petals is due to increased recruitment of founder cells into early organ primordia whereas the reduced leaf size is due to an ectopic pathogen response. This constitutive immune response leads to increased resistance to the biotrophic oomycete Hyaloperonospora arabidopsidis and reflects activation of the salicylic acid-independent signalling pathway downstream of ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immune responses are accompanied by intracellular redox changes. Consistent with this, the redox-status of the chloroplast is altered in paps1-1 mutants. The molecular effects of the paps1-1 mutation were analysed using an RNA sequencing approach that distinguishes between long- and short tailed mRNA. The results shown here suggest the existence of an additional layer of regulation in plants and possibly vertebrate gene expression, whereby the relative activities of canonical nuclear PAPS isoforms control de novo synthesized poly(A) tail length and hence expression of specific subsets of mRNAs. N2 - Polyadenylierung von prä-mRNAs ist entscheidend für den Export aus dem Zellkern, die Stabilität und die Translation der reifen mRNAs und dadurch für die Genexpression. Der Großteil der mRNAs wird durch sogenannte canonische Poly(A) Polymerasen (cPAPS) prozessiert. Die Genome von sowohl Wirbeltieren als auch Pflanzen kodieren mehr als eine Isoform dieser Enzyme, welche gleichzeitig in verschiedenen Geweben exprimiert werden. Es ist jedoch kein Beispiel bekannt, das zeigt, ob die verschiedenen Isoformen unterschiedliche Funktionen einnehmen bzw. verschiedene Untergruppen von mRNAs polyadenylieren. Diese Arbeit zeigt, dass drei canonische PAPS Isoformen in Arabidopsis thaliana aufgrund ihrer evolutionär unterschiedlichen C-terminalen Domänen spezialisierte Funktionen haben. Eine schwache Verlust-Mutation im PAPS1 Gen bewirkt eine Vergrößerung der Blütenorgane, während die Blattgröße vermindert ist. Eine starke Verlust-Mutation bewirkt zusätzlich einen Defekt der männlichen Keimzellen. Im Gegenzug dazu sind Mutanten des PAPS2 oder PAPS4 Gens gesund und zeigen ein normales Wachstum. Polyadenylierung von SMALL AUXIN UP RNA (SAUR) mRNAs hängt spezifisch von der Funktion von PAPS1 ab. Die daraus entstehende Reduzierung der SAUR Aktivität in den paps1 Mutanten trägt zur Verringerung der Blattgröße bei und stellt eine kausale Verbindung zwischen Polyadenylierung spezifischer mRNAs durch bestimmte PAPS Isoformen und Pflanzenwachstum dar. Zusätzlich spiegeln die unterschiedlichen Effekte von PAPS1 auf Blüten und Blätter die Identitäten dieser Organe wieder. Das übermäßige Wachstum der mutanten Petalen beruht auf einer erhöhten Anzahl an Gründer-Zellen im frühen Primordium, wohingegen die verminderte Blattgröße auf eine ektopische Pathogen Antwort zurückzuführen ist. Diese konstitutive Immunantwort bewirkt eine erhöhte Resistenz der Mutanten gegenüber dem biotrophen Oomyceten Hyaloperonospora arabidopsidis und reflektiert die Aktivierung des Salizylsäure unabhängigen Signalweges von ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immunantworten sind von Veränderungen des intrazellulären Redoxpotenzials gekennzeichnet. Damit übereinstimmend zeigen die Chloroplasten der paps1-1 Mutanten ein verändertes Redoxpotenzial. Zur genaueren Aufklärung der molekularen Effekte der paps1 1 mutation wurde eine RNA-Sequenzierungsmethode verwendet, die zwischen mRNAs mit langem oder kurzem Poly(A) Schwanz unterscheidet. Die Aktivitäten der verschiedenen canonischen PAPS Isoformen kontrollieren die Länge des neu synthetisierten poly(A) Schwanzes und damit die Expression spezifischer Untergruppen von mRNAs. Dadurch lassen die hier gezeigten Ergebnisse eine weitere Ebene der Genregulierung in Pflanzen, und möglicherweise auch in anderen Eukaryoten, vermuten. KW - Polyadenylierung KW - Pathogenantwort KW - Organgröße KW - polyadenylation KW - pathogen response KW - organ size Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72345 ER - TY - THES A1 - Bamberg, Marlene T1 - Planetary mapping tools applied to floor-fractured craters on Mars T1 - Planetare Analysewerkzeuge am Anwendungsgebiet von Kratern mit zerbrochenen Boeden auf dem Mars N2 - Planetary research is often user-based and requires considerable skill, time, and effort. Unfortunately, self-defined boundary conditions, definitions, and rules are often not documented or not easy to comprehend due to the complexity of research. This makes a comparison to other studies, or an extension of the already existing research, complicated. Comparisons are often distorted, because results rely on different, not well defined, or even unknown boundary conditions. The purpose of this research is to develop a standardized analysis method for planetary surfaces, which is adaptable to several research topics. The method provides a consistent quality of results. This also includes achieving reliable and comparable results and reducing the time and effort of conducting such studies. A standardized analysis method is provided by automated analysis tools that focus on statistical parameters. Specific key parameters and boundary conditions are defined for the tool application. The analysis relies on a database in which all key parameters are stored. These databases can be easily updated and adapted to various research questions. This increases the flexibility, reproducibility, and comparability of the research. However, the quality of the database and reliability of definitions directly influence the results. To ensure a high quality of results, the rules and definitions need to be well defined and based on previously conducted case studies. The tools then produce parameters, which are obtained by defined geostatistical techniques (measurements, calculations, classifications). The idea of an automated statistical analysis is tested to proof benefits but also potential problems of this method. In this study, I adapt automated tools for floor-fractured craters (FFCs) on Mars. These impact craters show a variety of surface features, occurring in different Martian environments, and having different fracturing origins. They provide a complex morphological and geological field of application. 433 FFCs are classified by the analysis tools due to their fracturing process. Spatial data, environmental context, and crater interior data are analyzed to distinguish between the processes involved in floor fracturing. Related geologic processes, such as glacial and fluvial activity, are too similar to be separately classified by the automated tools. Glacial and fluvial fracturing processes are merged together for the classification. The automated tools provide probability values for each origin model. To guarantee the quality and reliability of the results, classification tools need to achieve an origin probability above 50 %. This analysis method shows that 15 % of the FFCs are fractured by intrusive volcanism, 20 % by tectonic activity, and 43 % by water & ice related processes. In total, 75 % of the FFCs are classified to an origin type. This can be explained by a combination of origin models, superposition or erosion of key parameters, or an unknown fracturing model. Those features have to be manually analyzed in detail. Another possibility would be the improvement of key parameters and rules for the classification. This research shows that it is possible to conduct an automated statistical analysis of morphologic and geologic features based on analysis tools. Analysis tools provide additional information to the user and are therefore considered assistance systems. N2 - Planetenforschung umfasst oft zeitintensive Projekte, bei denen Expertise und Erfahrung eine wesentliche Rolle spielen. Auf Grund äusserst komplexer und sich selten wiederholender Forschungsfragen sind Annahmen, Definitionen und Regeln zur Lösung dieser Fragen nicht leicht nachvollziehbar oder aber nicht eindeutig dokumentiert. Ein Vergleich der Ergebnisse unterschiedlicher Forscher zum selben Thema oder eine Erweiterung der Forschungsfrage macht dies somit nur schwer möglich. Vergleiche liefern oftmals verzerrte Ergebnisse, da die Ausgangslage und Randbedingungen unterschiedlich definiert worden sind. Das Ziel dieser Arbeit ist es eine Standardmethode zur Oberflächenanalyse zu entwickeln, die auf zahlreiche Untersuchungsfragen angewandt werden kann. Eine gleichbleibende Qualität der Ergebnisse muss durch diese Methode gewährleistet sein. Ein weiteres Ziel ist es, dass diese Methode ohne Vorwissen und Expertise angewandt werden kann und die Ergebnisse in kurzer Zeit vorliegen. Ausserdem müssen die Ergebnisse vergleichbar und nachvollziehbar sein. Automatisch operierende Analysewerkzeuge können die zahlreichen Anforderungen erfüllen und als Standardmethode dienen. Statistische Ergebnisse werden durch diese Methode erzielt. Die Werkzeuge basieren auf vordefinierten, geowissenschaftlichen Techniken und umfassen Messungen, Berechnungen und Klassifikationen der zu untersuchenden Oberflächenstrukturen. Für die Anwendung dieser Werkzeuge müssen Schlüsselstrukturen und Randbedingungen definiert werden. Des Weiteren benötigen die Werkzeuge eine Datenbank, in der alle Oberflächenstrukturen, aber auch Informationen zu den Randbedingungen gespeichert sind. Es ist mit geringem Aufwand möglich, Datenbanken zu aktualisieren und sie auf verschiedenste Fragestellungen zu adaptieren. Diese Tatsache steigert die Flexibilität, Reproduzierbarkeit und auch Vergleichbarkeit der Untersuchung. Die vordefinierten Randbedingungen und die Qualität der Datenbank haben jedoch auch direkten Einfluss auf die Qualität der Ergebnisse. Um eine gleichbleibend hohe Qualität der Untersuchung zu gewährleisten muss sichergestellt werden, dass alle vordefinierten Bedingungen eindeutig sind und auf vorheriger Forschung basieren. Die automatisch operierenden Analysewerkzeuge müssen als mögliche Standardmethode getestet werden. Hierbei geht es darum Vorteile, aber auch Nachteile zu identifizieren und zu bewerten. In dieser Arbeit werden die Analysewerkzeuge auf einen bestimmten Einschlagskratertyp auf dem Mars angewandt. Krater mit zerbrochenen Kraterböden (Floor-Fractured Craters) sind in verschiedensten Regionen auf dem Mars zu finden, sie zeigen zahlreiche Oberflächenstrukturen und wurden durch unterschiedliche Prozesse geformt. All diese Fakten machen diesen Kratertyp zu einem interessanten und im geologischen und morphologischen Sinne sehr komplexen Anwendungsgebiet. 433 Krater sind durch die Werkzeuge analysiert und je nach Entstehungsprozess klassifiziert worden. Für diese Analyse sind Position der Krater, Art des Umfeldes und Strukturen im Kraterinneren ausschlaggebend. Die kombinierten Informationen geben somit Auskunft über die Prozesse, welche zum Zerbrechen des Kraterbodens geführt haben. Die entwickelten Analysewerkzeuge können geologische Prozesse, die sehr ähnlich zueinander sind, von einander abhängig sind und zusätzlich auch dieselben Oberflächenstrukturen formen, nicht eindeutig unterscheiden. Aus diesem Grund sind fluviale und glaziale Entstehungsprozesse für den untersuchten Kratertyp zusammengefasst. Die Analysewerkzeuge liefern Wahrscheinlichkeitswerte für drei mögliche Entstehungsarten. Um die Qualität der Ergebnisse zu verbessern muss eine Wahrscheinlichkeit über 50 % erreicht werden. Die Werkzeuge zeigen, dass 15 % der Krater durch Vulkanismus, 20 % durch Tektonik und 43 % durch Wasser- und Eis-bedingte Prozesse gebildet wurden. Insgesamt kann für 75 % des untersuchten Kratertyps ein potentieller Entstehungsprozess zugeordnet werden. Für 25 % der Krater ist eine Klassifizierung nicht möglich. Dies kann durch eine Kombination von geologischen Prozessen, einer Überprägung von wichtigen Schlüsselstrukturen, oder eines bisher nicht berücksichtigten Prozesses erklärt werden. Zusammenfassend ist zu sagen, dass es möglich ist planetare Oberflächenstrukturen quantitativ durch automatisch operierende Analysewerkzeuge zu erfassen und hinsichtlich einer definierten Fragestellung zu klassifizieren. Zusätzliche Informationen können durch die entwickelten Werkzeuge erhalten werden, daher sind sie als Assistenzsystem zu betrachten. KW - Datenbank KW - Automatisierung KW - Klassifizierung KW - geologische Prozesse KW - Geomorphologie KW - database KW - automation KW - classification KW - geological processes KW - geomorphology Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72104 ER -