TY - THES A1 - Linnik, Anastasia T1 - Coherence and structure in aphasic and non-aphasic spoken discourse T1 - Kohärenz und Struktur im aphasischen und nicht-aphasischen gesprochenen Diskurs N2 - Discourse production is crucial for communicative success and is in the core of aphasia assessment and treatment. Coherence differentiates discourse from a series of utterances/sentences; it is internal unity and connectedness, and, as such, perhaps the most inherent property of discourse. It is unclear whether people with aphasia, who experience various language production difficulties, preserve the ability to produce coherent discourse. A more general question of how coherence is established and represented linguistically has been addressed in the literature, yet remains unanswered. This dissertation presents an investigation of discourse production in aphasia and the linguistic mechanisms of establishing coherence. N2 - Die Diskursproduktion ist entscheidend für den kommunikativen Erfolg und ist ausschlaggebend für die Diagnostik und Behandlung von Aphasie. Durch Kohärenz wird eine Reihe von Äußerungen oder Sätzen zum Diskurs. Kohärenz stellt die innere Einheit und Verbundenheit eines Textes dar und ist damit vielleicht die zentrale Eigenschaft des Diskurses. Es ist unklar, ob Menschen mit Aphasie, die Schwierigkeiten bei der Sprachproduktion haben, die Fähigkeit bewahren, einen kohärenten Diskurs zu konstruieren. Die Frage, was genau Sprache kohärent macht, wurde in der Literatur behandelt, ist aber nicht vollständig verstanden. Diese Dissertation stellt eine Untersuchung der aphasischen Diskursproduktion und der linguistischen Mechanismen zur Herstellung von Kohärenz dar. KW - aphasia KW - discourse production KW - rhetorical structure theory KW - coherence KW - Aphasie KW - Diskursproduktion KW - rhetorische Struktur KW - Kohärenz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423202 ER - TY - THES A1 - Kühn, Jane T1 - Functionally-driven language change T1 - Funktional gesteuerter Sprachwandel BT - prosodic focus and sentence type marking in German-Turkish bilingual yes/no questions BT - prosodische Fokus-und Satztypmarkierung in Deutsch-Türkischen Ja/ Nein Fragen N2 - Since the 1960ies, Germany has been host to a large Turkish immigrant community. While migrant communities often shift to the majority language over the course of time, Turkish is a very vital minority language in Germany and bilingualism in this community is an obvious fact which has been subject to several studies. The main focus usually is on German, the second language (L2) of these speakers (e.g. Hinnenkamp 2000, Keim 2001, Auer 2003, Cindark & Aslan (2004), Kern & Selting 2006, Selting 2009, Kern 2013). Research on the Turkish spoken by Turkish bilinguals has also attracted attention although to a lesser extend mainly in the framework of so called heritage language research (cf. Polinski 2011). Bilingual Turkish has been investigated under the perspective of code-switching and codemixing (e.g. Kallmeyer & Keim 2003, Keim 2003, 2004, Keim & Cindark 2003, Hinnenkamp 2003, 2005, 2008, Dirim & Auer 2004), and with respect to changes in the morphologic, the syntactic and the orthographic system (e.g. Rehbein & Karakoç 2004, Schroeder 2007). Attention to the changes in the prosodic system of bilingual Turkish on the other side has been exceptional so far (Queen 2001, 2006). With the present dissertation, I provide a study on contact induced linguistic changes on the prosodic level in the Turkish heritage language of adult early German-Turkish bilinguals. It describes structural changes in the L1 Turkish intonation of yes/no questions of a representative sample of bilingual Turkish speakers. All speakers share a similar sociolinguistic background. All acquired Turkish as their first language from their families and the majority language German as an early L2 at latest in the kinder garden by the age of 3. A study of changes in bilingual varieties requires a previous cross-linguistic comparison of both of the involved languages in language contact in order to draw conclusions on the contact-induced language change in delimitation to language-internal development. While German is one of the best investigated languages with respect to its prosodic system, research on Turkish intonational phonology is not as progressed. To this effect, the analysis of bilingual Turkish, as elicited for the present dissertation, is preceded by an experimental study on monolingual Turkish. In this regard an additional experiment with 11 monolingual university students of non-linguistic subjects was conducted at the Ege University in Izmir in 2013. On these grounds the present dissertation additionally contributes new insights with respect to Turkish intonational phonology and typology. The results of the contrastive analysis of German and Turkish bring to light that the prosodic systems of both languages differ with respect to the use of prosodic cues in the marking of information structure (IS) and sentence type. Whereas German distinguishes in the prosodic marking between explicit categories for focus and givenness, Turkish uses only one prosodic cue to mark IS. Furthermore it is shown that Turkish in contrast to German does not use a prosodic correlate to mark yes/no questions, but a morphological question marker. To elicit Turkish yes/no questions in a bilingual context which differ with respect to their information structure in a further step the methodology of Xu (1999) to elicit in-situ focus on different constituents was adapted in the experimental study. A data set of 400 Turkish yes/no questions of 20 bilingual Turkish speakers was compiled at the Zentrum für Allgemeine Sprachwissenschaft (ZAS) in Berlin and at the University of Potsdam in 2013. The prosodic structure of the yes/no questions was phonologically and phonetically analyzed with respect to changes in the f0 contour according to IS modifications and the use of prosodic cues to indicate sentence type. The results of the analyses contribute surprising observations to the research of bilingual prosody. Studies on bilingual language change and language acquisition have repeatedly shown that the use of prosodic features that are considered as marked by means of lower and implicational use across and within a language cause difficulties in language contact and second language acquisition. Especially, they are not expected to pass from one language to another through language contact. However, this structurally determined expectation on language development is refuted by the results of the present study. Functionally related prosody, such as the cues to indicate IS, are transferred from German L2 to the Turkish L1 of German-Turkish bilingual speakers. This astonishing observation provides the base for an approach to language change centered on functional motivation. Based on Matras’ (2007, 2010) assumption of functionality in language change, Paradis’ (1993, 2004, 2008) approach of Language Activation and the Subsystem Theory and the Theory of Language as a Dynamic System (Heredina & Jessner 2002), it will be shown that prosodic features which are absent in one of the languages of bilingual speech communities are transferred from the respective language to the other when they contribute to the contextualization of a pragmatic concept which is not expressed by other linguistic means in the target language. To this effect language interaction is based on language activation and inhibition mechanisms dealing with differences in the implicit pragmatic knowledge between bilinguals and monolinguals. The motivator for this process of language change is the contextualization of the message itself and not the structure of the respective feature on the surface. It is shown that structural consideration may influence language change but that bilingual language change does not depend on structural restrictions nor does the structure cause a change. The conclusions drawn on the basis of empirical facts can especially contribute to a better understanding of the processes of bilingual language development as it combines methodologies and theoretical aspects of different linguistic subfields. N2 - Seit den 1960er Jahren und der damit einhergehenden Arbeitsmigration ist Deutschland eines der europäischen Länder mit der größten türkischstämmigen Einwanderergesellschaft, die sich auf etwa 2.8 Millionen Personen beläuft (Woellert et al. 2009). Obwohl Sprachminderheiten im Laufe der Generationen gewöhnlich zur Mehrheitssprache wechseln, ist das Türkische in Deutschland zweifelsohne eine lebendige Sprache. Die Zweisprachigkeit der türkischen Gemeinschaft in Deutschland ist eine nicht von der Hand zu weisende Tatsache und liegt im Fokus sprachwissenschaftlicher Forschung. Hierbei liegt das Hauptaugenmerk auf der Betrachtung der sprachlichen Merkmale und Veränderungen in der Zweitsprache (L2) Deutsch (e.g. Hinnenkamp 2000, Keim 2001, Auer 2003, Cindark & Aslan 2004, Kern & Selting 2006, Selting 2009, Kern 2013). Die Erstsprache (L1) Türkisch findet vorrangig Beachtung in der sogenannten heritage language Forschung. Obwohl der Begriff keiner klaren Definition oder Abgrenzung bezüglich ähnlicher Konzepte, wie der Minderheitensprache unterliegt, bezieht sich heritage language im Allgemeinen auf die Erstsprache bilingualer Sprecher in der Diaspora (vgl. Polinski 2011). Das Türkische in Deutschland wurde bislang vor allem in Bezug auf Sprechstil und den einhergehenden Mechanismen von code-switching und code-mixing (z.B. Kallmeyer & Keim 2003, Keim 2003, 2004, Keim & Cindark 2003, Hinnenkamp 2003, 2005, 2008, Dirim & Auer 2004), aber auch in Bezug auf grammatikalische und orthographische Veränderungen untersucht (e.g. Rehbein & Karacoç 2004, Schroeder 2007). In Bezug auf prosodische Merkmale von bilingualem Türkisch beschreibt Queen (2001, 2006) eine Vermischung (fusion) steigender Intonationskonturen in Konversationen bilingualer Deutsch- Türkischer Kinder. Backus, Jorgenson & Pfaff (2010) bieten einen Überblick zu bisheriger Forschung zum Türkischen in der Diaspora. Mit der vorliegenden Dissertation wird ein Forschungsbeitrag zur Veränderung im prosodischen System des Türkischen als heritage language Deutsch-Türkisch bilingualer Sprecher mit frühem Zweitspracherwerb geleistet. Damit wird zum einen das Themengebiet des kontaktinduzierten Sprachwandels und zum anderen das der bilingualen Intonationsforschung aufgegriffen. Obwohl die Beschreibungen phonologischer Unterschiede bei bilingualen Sprechern in Bezug auf die segmentale Ebene reichhaltig sind, ist ein reges Interesse an phonologischen Phänomenen auf der suprasegmentalen Ebene in der Mehrsprachigkeitsforschung recht frisch und bezieht sich größtenteils auf die Zweitsprache und weniger auf die Veränderungen in der heritage language. Die vorliegende Arbeit beschreibt strukturelle Veränderungen in der L1 Intonation in türkischen Ja/Nein Fragen eines repräsentativen Samples bilingualer Türkischsprecher. Der Untersuchungsschwerpunkt liegt dabei auf der Realisierung funktional relationierter Prosodie. Funktional relationierte Prosodie gilt gemäß markiertheitsstrukturierter Ansätze (z.B. Eckmann 1977, Rasier & Hilligsmann 2007, Zerbian 2015) als markierter als strukturell relationierte Prosodie und damit als potentieller Auslöser von Veränderungen im bilingualen Spracherwerb und Sprachkontakt. In der Dissertation werden zwei funktionale Aspekte der Prosodie untersucht. Zum einen werden Veränderungen in der Intonationskontur in Abhängigkeit von Informationsstruktur (IS) untersucht. Genauer, wie kontrastiver in-situ Fokus in der Grundfrequenz umgesetzt wird. Zum anderen wird untersucht wie die Markierung von Ja/Nein Fragen in der f0 Kontur realisiert wird. Eine Einführung in die Thematik von Ja/nein Fragen erfolgt für das Türkische in Kapitel II. 6 und für das Deutsche in Kapitel V.6. Eine umfassende Erläuterung zu IS und seinen verschiedenen Kategorien erfolgt in Kapitel I. KW - bilingualism KW - prosody KW - pragmatics KW - Turkish KW - Zweisprachigkeit KW - Prosodie KW - Pragmatik KW - Türkisch Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-422079 ER - TY - THES A1 - Wisehart, Daniel T1 - Drug Control and International Law T2 - Routledge Research in International Law N2 - This book provides for an extensive legal analysis of the international drug control system in light of the growing challenges and criticism that this system faces. In the current debate on global drug policy, the central pillars of the international drug control system – the UN Drug Conventions as well as its institutions – are portrayed as outdated, suppressive and seen as an obstacle to necessary changes. The book’s objective is to provide an in-depth and positivist insight into drug control’s present legal framework and thus provide for a better understanding of the normative assumptions upon which drug control is currently based. This is attained by clarifying the objectives of the international drug control system and the premises by which these objectives are to be achieved. The objective of the current global framework of international drug control is the limitation of drugs to medical and scientific purposes. The meaning of this objective and its concrete implications for States’ parties as well as its problems from the perspective of other regimes of international law, most notably international human rights law, are extensively analysed. Additionally, the book focuses on how the international drug control system attempts to reach the objective of confining drugs to medical and scientific purposes, i.e. by setting up a universal system that exercises a rigid control on drug supply. The consequences of this heavy focus on the reduction of drug supply are outlined, and the book concludes by making suggestions on how the international drug control system could be reformed in the near future in order to better meet the existing challenges. The analysis occurs from a general international law perspective. It aims to map the international drug control system within a wider context of international law and to understand whether the problems that the international drug control system faces are exemplary for the difficulties that institutionalized systems of global scope face in the twenty-first century. Y1 - 2016 SN - 978-1-138-48604-1 PB - Routledge CY - New York ER - TY - THES A1 - Schoellner, Karsten T1 - Towards a Wittgensteinian metaethics T1 - Metaethik nach Wittgenstein N2 - This doctoral thesis seeks to elaborate how Wittgenstein’s very sparse writings on ethics and ethical thought, together with his later work on the more general problem of normativity and his approach to philosophical problems as a whole, can be applied to contemporary meta-ethical debates about the nature of moral thought and language and the sources of moral obligation. I begin with a discussion of Wittgenstein’s early “Lecture on Ethics”, distinguishing the thesis of a strict fact/value dichotomy that Wittgenstein defends there from the related thesis that all ethical discourse is essentially and intentionally nonsensical, an attempt to go beyond the limits of sense. The first chapter discusses and defends Wittgenstein’s argument that moral valuation always goes beyond any ascertaining of fact; the second chapter seeks to draw out the valuable insights from Wittgenstein’s (early) insistence that value discourse is nonsensical while also arguing that this thesis is ultimately untenable and also incompatible with later Wittgensteinian understanding of language. On the basis of this discussion I then take up the writings of the American philosopher Cora Diamond, who has worked out an ethical approach in a very closely Wittgensteinian spirit, and show how this approach shares many of the valuable insights of the moral expressivism and constructivism of contemporary authors such as Blackburn and Korsgaard while suggesting a way to avoid some of the problems and limitations of their approaches. Subsequently I turn to a criticism of the attempts by Lovibond and McDowell to enlist Wittgenstein in the support for a non-naturalist moral realism. A concluding chapter treats the ways that a broadly Wittgensteinian conception expands the subject of metaethics itself by questioning the primacy of discursive argument in moral thought and of moral propositions as the basic units of moral belief. N2 - Die folgende Arbeit verbindet die wenigen Schriften und Bemerkungen Wittgensteins zu Ethik und moralischem Denken, seine späteren Arbeiten zum allgemeineren Problem der Normativität und seine therapeutische Behandlung philosophischer Probleme überhaupt, mit den zeitgenössischen metaethischen Debatten über das Wesen moralischen Denkens und die Quelle des moralischen Sollens. Im Rahmen einer einleitenden Diskussion von Wittgensteins früher Schrift „A Lecture on Ethics” unterscheide ich zwischen der Fakt/Wert-Dichotomie, die er dort vertritt, und der damit verwandten These, moralische Aussagen seien alle wesentlich und absichtlich unsinnig und stellten alle einen Versuch dar, über die Grenzen des Sinnes hinaus zu gelangen. In einem ersten Kapitel erläutere und verteidige ich sein Argument, dass moralische Bewertungen immer über faktische Feststellungen hinausgehen; in einem zweiten Kapitel versuche ich, der These der Unsinnigkeit wichtige und zentrale Einsichten über den moralischen Diskurs abzugewinnen, zeige aber gleichzeitig, dass diese These letztendlich unhaltbar ist und auch mit der späteren wittgensteinschen Sprachauffassung unvereinbar ist. Auf Grundlage dieser Diskussion wende ich mich den moralphilosophischen Arbeiten der amerikanischen Philosophin Cora Diamond zu, die deutlich von Wittgenstein beeinflusst sind; dabei zeigt sich, wie Diamonds wittgensteinscher Ansatz zu moralischen Phänomenen die wichtigsten Einsichten von Expressivismus und Konstruktivismus teilen kann – exemplarisch dargestellt anhand von Simon Blackburn und Christine Korsgaard – und zugleich die Probleme und Beschränkungen dieser Theorien überwinden kann. Danach kritisiere ich die Versuche von Lovibond und McDowell, Wittgenstein für eine Verteidigung eines non-naturalistischen Realismus zu beanspruchen. Ein abschließendes Kapitel diskutiert die Weisen, in denen eine im weitesten Sinne Wittgensteinsche Auffassung der Moral das Thema der Metaethik selber erweitert durch eine Infragestellung des Primats von Argumentation im moralischen Denken und von moralischen Aussagesätze für moralische Überzeugungen. KW - Wittgenstein KW - metaethics KW - Wittgenstein KW - Metaethik KW - Moraltheorie KW - moral theory KW - Cora Diamond KW - Cora Diamond KW - expressivism KW - Expressivismus KW - constructivism KW - Konstruktivismus Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409288 ER - TY - THES A1 - Bendre, Abhijit B. T1 - Growth and saturation of dynamo in spiral galaxies via direct simulations T1 - Wachstum und Sättigung des Dynamos in Spiralgalaxien mit direkten Simulationen N2 - We do magnetohydrodynamic (MHD) simulations of local box models of turbulent Interstellar Medium (ISM) and analyse the process of amplification and saturation of mean magnetic fields with methods of mean field dynamo theory. It is shown that the process of saturation of mean fields can be partially described by the prolonged diffusion time scales in presence of the dynamically significant magnetic fields. However, the outward wind also plays an essential role in the saturation in higher SN rate case. Algebraic expressions for the back reaction of the magnetic field onto the turbulent transport coefficients are derived, which allow a complete description of the nonlinear dynamo. We also present the effects of dynamically significant mean fields on the ISM configuration and pressure distribution. We further add the cosmic ray component in the simulations and investigate the kinematic growth of mean fields with a dynamo perspective. N2 - Wir fuehren magnetohydrodynamische (MHD) Simulationen des turbulenten interstellaren Mediums (ISM) in lokalen Boxen durch und analysieren darin den Prozess der Verstaerkung und Saturation der mittleren Magnetfelder mit Methoden der Dynamotheorie mittlerer Felder. Es wird gezeigt, dass der Prozess der Saturation mittlerer Felder teilweise durch eine verlaengerte Diffusionzeit in Gegenwart dynamisch signifikanter Magnetfelder erklaert werden kann. Fuer hoehere Supernovae-Raten spielt auch der nach aussen treibende Wind eine essenzielle Rolle fuer die Saturation. Aus den Simulationen konnten algebraische Formeln fuer die Rueckwirkung des Magnetfeldes auf die turbulenten Transportkoeffizienten abgeleitet werden, die eine vollstaendige Beschreibung des nichtlinearen Dynamos erlauben. Wir praesentieren zudem den Einfluss signifikanter mittlerer Magnetfelder auf die ISM-Konfiguration und Druckverteilung. Wir fuegen der Simulation ausserdem kosmische Strahlung als Komponente hinzu und untersuchen das kinematische Wachstum mittlerer Felder aus einer Dynamo-Perspektive. KW - magnetohydrodynamics KW - ISM: Turbulence KW - spiral galaxies: magnetic fields KW - nonliear dynamo KW - cosmic ray dynamo KW - Magnetohydrodynamik KW - ISM: Turbulenz KW - Spiralgalaxien: Magnetfelder KW - nichtlineare Dynamo KW - kosmische Strahlung Dynamo Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407517 ER - TY - THES A1 - Entrich, Steve R. T1 - Shadow education and social inequalities in Japan T1 - Kommerzielle Nachhilfe und soziale Ungleichheiten in Japan BT - evolving patterns and conceptual implications BT - neue Strukturen und konzeptuelle Implikationen N2 - This book examines why Japan has one of the highest enrolment rates in cram schools and private tutoring worldwide. It sheds light on the causes of this high dependence on ‘shadow education’ and its implications for social inequalities. The book provides a deep and extensive understanding of the role of this kind of education in Japan. It shows new ways to theoretically and empirically address this issue, and offers a comprehensive perspective on the impact of shadow education on social inequality formation that is based on reliable and convincing empirical analyses. Contrary to earlier studies, the book shows that shadow education does not inevitably result in increasing or persisting inequalities, but also inherits the potential to let students overcome their status-specific disadvantages and contributes to more opportunities in education. Against the background of the continuous expansion and the convergence of shadow education systems across the globe, the findings of this book call for similar works in other national contexts, particularly Western societies without traditional large-scale shadow education markets. The book emphasizes the importance and urgency to deal with the modern excesses of educational expansion and education as an institution, in which the shadow education industry has made itself (seemingly) indispensable. This book: • Is the first comprehensive empirical work on the implications of shadow education for educational and social inequalities. • Draws on quantitative and qualitative data and uses mixed-methods. • Has major implications for sociological, international and comparative research on the topic. • Introduces a general theoretical frame to help future research in approaching this under-theorized field. N2 - Die vorliegende Arbeit untersucht die Ursachen für die in Japan im internationalen Vergleich enorm hohen Nutzungsquoten kommerzieller Nachhilfe verschiedenster Couleur (Schattenbildung). Insbesondere die Implikationen der Investitionen in diesen privaten Zusatzschulunterricht für soziale Ungleichheiten stehen im Fokus der Analysen. Das Buch bietet jedoch auch tiefe Einblicke in die Bildungswelt Japans und schafft ein umfassendes Verständnis für die Rolle dieser Art von Bildung. Es werden neue Wege aufgezeigt, dieses Thema theoretisch und empirisch anzugehen sowie eine umfassende Analyse der Wirkung von kommerzieller Nachhilfe auf die Bildung sozialer Ungleichheit basierend auf verlässlichen und überzeugenden empirischen Analysen. Im Gegensatz zu früheren Studien zeigt das Buch, dass Investitionen in kommerzielle Nachhilfe nicht zwangsläufig zu zunehmenden oder anhaltenden Ungleichheiten führt, sondern gleichfalls das Potenzial haben, Schüler ihre statusspezifischen Nachteile überwinden zu lassen und damit zu mehr Chancen in der Bildung beitragen kann. Vor dem Hintergrund des kontinuierlichen Ausbaus und der Konvergenz von Schattenbildungssystemen weltweit fordern die Ergebnisse dieses Buches ähnliche Arbeiten in anderen nationalen Kontexten, insbesondere in westlichen Gesellschaften ohne traditionell hoher Abhängigkeit von Schattenbildung, wie Deutschland. Das Buch betont die Dringlichkeit sich mit den modernen Auswüchsen der Bildungsexpansion und Bildung als einer Institution auseinanderzusetzen, in der sich die Schattenbildungsindustrie (scheinbar) unentbehrlich gemacht hat. Dieses Buch: • ist die erste umfassende empirische Arbeit zu den Implikationen von Schattenbildung für Bildungs- und soziale Ungleichheiten in Japan. • basiert auf quantitativen und qualitativen Daten und verwenden mixed methods. • hat große Auswirkungen auf die soziologische, internationale und vergleichende Forschung zu dem Thema. • führt einen allgemeinen theoretischen Rahmen ein, um die Annäherung an dieses Thema durch zukünftige Forschung zu unterstützen. KW - social inequality KW - educational inequality KW - shadow education KW - educational decision-making KW - educational competition KW - soziale Ungleichheit KW - Bildungsungleichheit KW - shadow education KW - Nachhilfe KW - Bildungsentscheidungen Y1 - 2016 SN - 978-3-319-69118-3 U6 - https://doi.org/10.1007/978-3-319-69119-0 PB - Springer CY - Cham ER - TY - THES A1 - Brauer, Dorothée T1 - Chemo-kinematic constraints on Milky Way models from the spectroscopic surveys SEGUE & RAVE T1 - Beschränkungen von Modellen der Milchstraße auf Basis der chemisch-kinematischen Analyse von Beobachtungsdaten der spektroskopischen Himmelsdurchmusterungen SEGUE und RAVE N2 - The Milky Way is only one out of billions of galaxies in the universe. However, it is a special galaxy because it allows to explore the main mechanisms involved in its evolution and formation history by unpicking the system star-by-star. Especially, the chemical fingerprints of its stars provide clues and evidence of past events in the Galaxy’s lifetime. These information help not only to decipher the current structure and building blocks of the Milky Way, but to learn more about the general formation process of galaxies. In the past decade a multitude of stellar spectroscopic Galactic surveys have scanned millions of stars far beyond the rim of the solar neighbourhood. The obtained spectroscopic information provide unprecedented insights to the chemo-dynamics of the Milky Way. In addition analytic models and numerical simulations of the Milky Way provide necessary descriptions and predictions suited for comparison with observations in order to decode the physical properties that underlie the complex system of the Galaxy. In the thesis various approaches are taken to connect modern theoretical modelling of galaxy formation and evolution with observations from Galactic stellar surveys. With its focus on the chemo-kinematics of the Galactic disk this work aims to determine new observational constraints on the formation of the Milky Way providing also proper comparisons with two different models. These are the population synthesis model TRILEGAL based on analytical distribution functions, which aims to simulate the number and distribution of stars in the Milky Way and its different components, and a hybrid model (MCM) that combines an N-body simulation of a Milky Way like galaxy in the cosmological framework with a semi-analytic chemical evolution model for the Milky Way. The major observational data sets in use come from two surveys, namely the “Radial Velocity Experiment” (RAVE) and the “Sloan Extension for Galactic Understanding and Exploration” (SEGUE). In the first approach the chemo-kinematic properties of the thin and thick disk of the Galaxy as traced by a selection of about 20000 SEGUE G-dwarf stars are directly compared to the predictions by the MCM model. As a necessary condition for this, SEGUE's selection function and its survey volume are evaluated in detail to correct the spectroscopic observations for their survey specific selection biases. Also, based on a Bayesian method spectro-photometric distances with uncertainties below 15% are computed for the selection of SEGUE G-dwarfs that are studied up to a distance of 3 kpc from the Sun. For the second approach two synthetic versions of the SEGUE survey are generated based on the above models. The obtained synthetic stellar catalogues are then used to create mock samples best resembling the compiled sample of observed SEGUE G-dwarfs. Generally, mock samples are not only ideal to compare predictions from various models. They also allow validation of the models' quality and improvement as with this work could be especially achieved for TRILEGAL. While TRILEGAL reproduces the statistical properties of the thin and thick disk as seen in the observations, the MCM model has shown to be more suitable in reproducing many chemo-kinematic correlations as revealed by the SEGUE stars. However, evidence has been found that the MCM model may be missing a stellar component with the properties of the thick disk that the observations clearly show. While the SEGUE stars do indicate a thin-thick dichotomy of the stellar Galactic disk in agreement with other spectroscopic stellar studies, no sign for a distinct metal-poor disk is seen in the MCM model. Usually stellar spectroscopic surveys are limited to a certain volume around the Sun covering different regions of the Galaxy’s disk. This often prevents to obtain a global view on the chemo-dynamics of the Galactic disk. Hence, a suitable combination of stellar samples from independent surveys is not only useful for the verification of results but it also helps to complete the picture of the Milky Way. Therefore, the thesis closes with a comparison of the SEGUE G-dwarfs and a sample of RAVE giants. The comparison reveals that the chemo-kinematic relations agree in disk regions where the samples of both surveys show a similar number of stars. For those parts of the survey volumes where one of the surveys lacks statistics they beautifully complement each other. This demonstrates that the comparison of theoretical models on the one side, and the combined observational data gathered by multiple surveys on the other side, are key ingredients to understand and disentangle the structure and formation history of the Milky Way. N2 - Die Milchstraße ist nur eine unter Milliarden von Galaxien im Universum, dennoch ist sie besonders. Sie bietet die einzigartige Möglichkeit anhand ihrer einzeln auflösbaren Sterne und deren im Detail beobachtbaren Eigenschaften die Mechanismen ihrer Evolutions- und Entstehungsgeschichte genau zu studieren und damit Rückschlüsse auf die Entwicklungsprozesse von Galaxien im Allgemeinen zu ziehen. Insbesondere der chemische Fingerabdruck ihrer Sterne liefert dabei Indizien und Beweise für Ereignisse im Leben der Galaxie. In den letzten 15 Jahren wurden daher in einer Vielzahl von Himmeldurchmusterungen Millionen von Sternen in der Milchstraße spektroskopisch beobachtet. Die so gewonnenen Informationen bieten detaillierte Einblicke in die Substrukturen unserer Galaxie und deren chemisch-kinematische Struktur. Ergänzend dazu liefern analytische Modelle und numerische Simulationen der Milchstraße wichtige Beschreibungen, die sich zum Vergleich mit Beobachtungen eignen, um die dem komplexen System der Galaxie zugrunde liegenden exakten physikalischen Eigenschaften entschlüsseln zu können. Die vorliegende Arbeit nutzt verschiedene Ansätze, um moderne theoretische Modelle der Galaxienentstehung und -evolution mit Daten aus stellaren Beobachtungskampagnen zu vergleichen. Die dazu analysierten Beobachtungsdatensätze stammen aus zwei großen Himmelsdurchmusterungen, dem „Radial Velocity Experiment“ (RAVE) und dem „Sloan Extension for Galactic Understanding and Exploration“ (SEGUE). Mit dem Fokus auf der chemisch-kinematischen Struktur der galaktischen Scheibe geht es im Wesentlichen darum, zwei Modelle der Milchstraße zu testen, nämlich ein Populationssynthesemodell (TRILEGAL) und ein Hybridmodell (MCM). Während TRILEGAL auf analytischen Verteilungsfunktionen basiert und zum Ziel hat, die Anzahl und Verteilung der Sterne innerhalb der Galaxie und ihrer unterschiedlichen Komponenten zu simulieren, verbindet das MCM Modell eine kosmologische N-Körper Simulation einer der Milchstraße ähnlichen Galaxie mit einem semi-analytischen Modell zur Beschreibung der chemischen Evolution der Milchstraße. Auf Grundlage einer Auswahl von etwa 20000 SEGUE G-Zwergsternen werden in einem ersten Ansatz die aus den Messdaten gewonnenen chemisch-kinematischen Eigenschaften der dünnen und dicken Scheibe der Milchstraße mit den direkten Vorhersagen des MCM Modells verglichen. Eine notwendige Bedingung dafür ist die Korrektur der Beobachtungsdaten für systematische Fehler bei der Objektauswahl der Beobachtungskampagne. Zudem werden mittels einer Bayesischen Methode spektro-photometrische Distanzen mit Fehlern kleiner als 15% für die Auswahl an SEGUE Sternen berechnet, die sich in einer Entfernung von bis zu 3 kpc von der Sonne befinden. Für den zweiten Ansatz werden basierend auf den oben genannten Modellen zwei synthetische Versionen der SEGUE Himmelsdurchmusterung generiert. Diese künstlichen stellaren Kataloge werden dann verwendet, um Vergleichspseudodatensätze für die verwendeten Zwergsterndaten anzufertigen. Solche synthetischen Testdatensätze eignen sich nicht nur, um die Vorhersagen verschiedener Modelle zu vergleichen, sie können auch zur Validierung der Qualität einzelner Modelle herangezogen werden. Während sich in der Analyse zeigt, dass TRILEGAL sich besonders gut eignet, statistische Eigenschaften der dünnen und dicken galaktischen Scheibe zu reproduzieren, spiegelt das MCM Modell viele der in der Milchstraße beobachtbaren chemisch-kinematischen Korrelationen gut wieder. Trotzdem finden sich Beweise dafür, dass dem MCM Modell eine stellare Komponente fehlt, deren Eigenschaften der in den Beobachtungen sichtbaren dicken Scheibe ähnlich sind. Meist sind spektroskopische Beobachtungskampagnen auf ein bestimmtes Volumen um die Sonne beschränkt. Oftmals verhindert dies die Möglichkeit einen globalen Blick auf die chemisch-kinematischen Eigenschaften der galaktischen Scheibe zu erlangen. Die Kombination von stellaren Daten unabhängiger Kampagnen ist daher nicht nur nützlich für die Verifikation von Ergebnissen, es hilft auch ein ganzheitlicheres Bild der Galaxie zu erlangen. Die vorliegende Arbeit schließt daher mit einem Vergleich der SEGUE G-Zwergsterne und einer Auswahl von RAVE Riesensternen. Es zeigt sich eine gute Übereinstimmung bzgl. der chemisch-kinematischen Struktur der galaktischen Scheibe besonders in denjenigen Regionen, die von einer Vielzahl von SEGUE und RAVE Objekten abgedeckt werden. Für Regionen des Beobachtungsvolumens, in dem die eine oder die andere der beiden Beobachtungskampagnen eine geringere Statistik von beobachteten Sternen aufweist, ergänzen sich RAVE und SEGUE gut. Dies zeigt, dass nicht nur der Vergleich von Beobachtungen und theoretischen Modellen, sondern auch die Kombination von Messdaten aus verschiedenen Himmelsdurchmusterungen wichtig ist, um die Struktur und die Entstehungsgeschichte der Milchstraße zu verstehen und zu entschlüsseln. KW - galaktische Astronomie KW - galactic astronomy KW - Entstehung der Milchstraße KW - Milky Way formation KW - Evolution der Milchstraße KW - Milky Way evolution KW - Milky Way chemo-kinematics KW - Chemokinematik der Milchstraße KW - SEGUE survey KW - SEGUE Beobachtungskampagne KW - RAVE survey KW - RAVE Beobachtungskampagne KW - mock data catalogues KW - Pseudodatensätze Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403968 ER - TY - THES A1 - Ata, Metin T1 - Phase-space reconstructions of cosmic velocities and the cosmic web T1 - Phasenraumrekonstruktionen kosmischer Geschwindigkeiten und des kosmischen Netzes BT - structure formation models - galaxy bias models - galaxy redshift surveys - inference analysis N2 - In the current paradigm of cosmology, the formation of large-scale structures is mainly driven by non-radiating dark matter, making up the dominant part of the matter budget of the Universe. Cosmological observations however, rely on the detection of luminous galaxies, which are biased tracers of the underlying dark matter. In this thesis I present cosmological reconstructions of both, the dark matter density field that forms the cosmic web, and cosmic velocities, for which both aspects of my work are delved into, the theoretical formalism and the results of its applications to cosmological simulations and also to a galaxy redshift survey.The foundation of our method is relying on a statistical approach, in which a given galaxy catalogue is interpreted as a biased realization of the underlying dark matter density field. The inference is computationally performed on a mesh grid by sampling from a probability density function, which describes the joint posterior distribution of matter density and the three dimensional velocity field. The statistical background of our method is described in Chapter ”Implementation of argo”, where the introduction in sampling methods is given, paying special attention to Markov Chain Monte-Carlo techniques. In Chapter ”Phase-Space Reconstructions with N-body Simulations”, I introduce and implement a novel biasing scheme to relate the galaxy number density to the underlying dark matter, which I decompose into a deterministic part, described by a non-linear and scale-dependent analytic expression, and a stochastic part, by presenting a negative binomial (NB) likelihood function that models deviations from Poissonity. Both bias components had already been studied theoretically, but were so far never tested in a reconstruction algorithm. I test these new contributions againstN-body simulations to quantify improvements and show that, compared to state-of-the-art methods, the stochastic bias is inevitable at wave numbers of k≥0.15h Mpc^−1 in the power spectrum in order to obtain unbiased results from the reconstructions. In the second part of Chapter ”Phase-Space Reconstructions with N-body Simulations” I describe and validate our approach to infer the three dimensional cosmic velocity field jointly with the dark matter density. I use linear perturbation theory for the large-scale bulk flows and a dispersion term to model virialized galaxy motions, showing that our method is accurately recovering the real-space positions of the redshift-space distorted galaxies. I analyze the results with the isotropic and also the two-dimensional power spectrum.Finally, in Chapter ”Phase-space Reconstructions with Galaxy Redshift Surveys”, I show how I combine all findings and results and apply the method to the CMASS (for Constant (stellar) Mass) galaxy catalogue of the Baryon Oscillation Spectroscopic Survey (BOSS). I describe how our method is accounting for the observational selection effects inside our reconstruction algorithm. Also, I demonstrate that the renormalization of the prior distribution function is mandatory to account for higher order contributions in the structure formation model, and finally a redshift-dependent bias factor is theoretically motivated and implemented into our method. The various refinements yield unbiased results of the dark matter until scales of k≤0.2 h Mpc^−1in the power spectrum and isotropize the galaxy catalogue down to distances of r∼20h^−1 Mpc in the correlation function. We further test the results of our cosmic velocity field reconstruction by comparing them to a synthetic mock galaxy catalogue, finding a strong correlation between the mock and the reconstructed velocities. The applications of both, the density field without redshift-space distortions, and the velocity reconstructions, are very broad and can be used for improved analyses of the baryonic acoustic oscillations, environmental studies of the cosmic web, the kinematic Sunyaev-Zel’dovic or integrated Sachs-Wolfe effect. N2 - In der gegenwärtigen Anschauung der Kosmologie wird die Bildung von großräumigen Strukturen vor allem durch nicht strahlende, Dunkle Materie beeinflusst, die den überwiegenden Teil des Materieanteils des Universums ausmacht. Kosmologische Beobachtungen beruhen jedoch auf dem Nachweis von leuchtenden Galaxien, die gebiaste Indikatoren (biased tracer) der darunterliegenden Dunklen Materie sind. In dieser Arbeit präsentiere ich Rekonstruktionen des kosmischen Netzes der Dunklen Materie und kosmischer Geschwindigkeitsfelder. Beide Aspekte meiner Arbeit, der theoretische Formalismus und die Ergebnisse der Anwendungen sowohl auf kosmologische Simulationen als auch auf Galaxie-Rotverschiebungssurveys, weden detaiiert aufgeführt. Die Grundlage dieser Methode beruht auf einem statistischen Ansatz, bei dem ein gegebener Galaxienkatalog als eine Realisierung des darunter liegenden Dunklen Materiedichtefeldes interpretiert wird. Unsere Rekonstruktionen werden rechnerisch auf einem Gitter durch das Sampling einer Wahrscheinlichkeitsdichtefunktion durchgeführt, die die gemeinsame a posteriori Wahrscheinlichkeit der Materiedichte und des dreidimensionalen Geschwindigkeitsfeldes beschreibt. Der statistische Hintergrund unserer Methode ist im Kapitel "Implantation of argo" beschrieben, wobei die Einführung in die Samplingmethoden unter besonderer Berücksichtigung der Markov-Kette-Monte-Carlo-Technik erfolgt. Im Kapitel "Phase-Space Reconstructions with N-body Simulations" stelle ich ein neuartiges Biasmodell vor, welches die Galaxienanzahldichte mit der darunter liegenden Dunklen Materiedichte verknüpft. Diesen zerlege ich in einen deterministischen, nicht linearen und skalenabhängigen analytischen Teil und einen stochastischen Teil. Das letztere beschreibe ich durch einen Negativ-Binomial-Likelihood Ausdruck, welches die Abweichungen von Poissonität modelliert. Beide Biaskomponenten wurden bereits theoretisch untersucht, aber bisher noch nie in einem Rekonstruktionsalgorithmus getestet. Ich evaluiere diese neuen Beiträge mit $N$-Körper-Simulationen, um die Verbesserungen zu beurteilen und um zu zeigen, dass der stochastische Bias im Leistungsspektrum bei Wellenzahlen von k < 0.15 h Mpc^- 1 unabdingbar ist. Im zweiten Teil des Kapitels "Phase-Space Reconstructions with N-body Simulations" beschreibe und validiere ich unseren Ansatz, das kosmische Geschwindigkeitsfeld gemeinsam mit der Dunklen Materiedichte zu rekonstruieren. Ich verwende lineare Störungstheorie für die großräumigen Potentialströme und einen Dispersionsterm, um virialisierte Galaxiebewegungen zu modellieren. Die Ergebnisse zeigen, dass unsere Methode die Rotverschiebungsverzerrungen der Positionen der Galaxien genau beschreibt. Ich analysiere die Ergebnisse sowohl mit dem anisotropen Leistungsspektrum, als auch mit dem zweidimensionalen Leistungsspektrum. Schließlich zeige ich im Kapitel "Phase-space Reconstructions with Galaxy Redshift Surveys", wie ich alle Ergebnisse kombiniere und die Methode auf den CMASS (für Constant (stellar) Mass) Galaxienkatalog anwende. Ich beschreibe, wie unsere Methode die Selektionseffekte der Beobachtungen innerhalb des Rekonstruktionsalgorithmus berücksichtigt. Weiterhin demonstriere ich, dass die Renormalisierung der a priori Verteilung zwingend erforderlich ist, um die Beiträge höherer Ordnung im Strukturbildungsmodell zu berücksichtigen. Außerdem wird ein rotverschiebungsabhängiger Bias-Faktor theoretisch motiviert und in unseren Algorithmus implementiert. Unsere Rekonstruktionen, welche diese verschiedenen Verfeinerungen beinhaten, führen zu robusten Ergebnissen hinsichtlich des Feldes der Dunklen Materie bis zu Skalen von k <0.2 Mpc^-1 im Leistungsspektrum. Außerdem werden Anisotropien in dem rekonstruierten Galaxienkatalog bis zu Abständen von r~20 h^-1 Mpc in der Korrelationsfunktion zu einem hohen Grad überwunden. Wir testen die Ergebnisse unserer kosmischen Geschwindigkeitsrekonstruktion, indem wir sie mit einem synthetischen Mock-Galaxienkatalog vergleichen und bestätigen eine starke Korrelation zwischen den Mock- und den rekonstruierten Geschwindigkeiten. Die Anwendungen sowohl des Dichtefeldes ohne Rotverschiebungsverzerrungen als auch der Geschwindigkeitsrekonstruktionen sind sehr vielfältig und können für verbesserte Analysen der baryonischen akustischen Oszillationen, Umgebungsstudien des kosmischen Netzes, des kinematischen Sunjajew-Seldowitsch-Effekts oder des integrierten Sachs-Wolfe-Effekts verwendet werden. KW - large-scale structure formation KW - großräumige Strukturen KW - Kosmologie KW - Theorie KW - cosmology KW - theory Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403565 ER - TY - THES A1 - Nicenboim, Bruno T1 - Dependency resolution as a retrieval process T1 - Dependenzauflösung als ein Gedächtnisabrufsprozess BT - experimental evidence and computational modeling BT - experimentelle Evidenz und komputationelle Modellierung N2 - My thesis focused on the predictions of the activation-based model of Lewis and Vasishth (2005) to investigate the evidence for the use of the memory system in the formation of non-local dependencies in sentence comprehension. The activation-based model, which follows the Adaptive Control of Thought-Rational framework (ACT-R; Anderson et al., 2004), has been used to explain locality effects and similarity-based interference by assuming that dependencies are resolved by a cue-based retrieval mechanism, and that the retrieval mechanism is affected by decay and interference. Both locality effects and (inhibitory) similarity-based interference cause increased difficulty (e.g., longer reading times) at the site of the dependency completion where a retrieval is assumed: (I) Locality effects are attributed to the increased difficulty in the retrieval of a dependent when the distance from its retrieval site is increased. (II) Similarity-based interference is attributed to the retrieval being affected by the presence of items which have similar features as the dependent that needs to be retrieved. In this dissertation, I investigated some findings problematic to the activation-based model, namely, facilitation where locality effects are expected (e.g., Levy, 2008), and the lack of similarity-based interference from the number feature in grammatical sentences (e.g., Wagers et al., 2009). In addition, I used individual differences in working memory capacity and reading fluency as a way to validate the theories investigated (Underwood, 1975), and computational modeling to achieve a more precise account of the phenomena. Regarding locality effects, by using self-paced reading and eye-tracking-while reading methods with Spanish and German data, this dissertation yielded two main findings: (I) Locality effects seem to be modulated by working memory capacity, with high-capacity participants showing expectation-driven facilitation. (II) Once expectations and other potential confounds are controlled using baselines, with increased distance, high-capacity readers can show a slow-down (i.e., locality effects) and low-capacity readers can show a speedup. While the locality effects are compatible with the activation-based model, simulations show that the speedup of low-capacity readers can only be accounted for by changing some of the assumptions of the activation-based model. Regarding similarity-based interference, two relatively high-powered self-paced reading experiments in German using grammatical sentences yielded a slowdown at the verb as predicted by the activation-based model. This provides evidence in favor of dependency creation via cue-based retrieval, and in contrast with the view that cue-based retrieval is a reanalysis mechanism (Wagers et al., 2009). Finally, the same experimental results that showed inhibitory interference from the number feature are used for a finer grain evaluation of the retrieval process. Besides Lewis and Vasishth’s (2005) activation-based model, also McElree’s (2000) direct-access model can account for inhibitory interference. These two models assume a cue-based retrieval mechanism to build dependencies, but they are based on different assumptions. I present a computational evaluation of the predictions of these two theories of retrieval. The models were compared by implementing them in a Bayesian hierarchical framework. The evaluation of the models reveals that some aspects of the data fit better under the direct access model than under the activation-based model. However, a simple extension of the activation-based model provides a comparable fit to the direct access model. This serves as a proof of concept showing potential ways to improve the original activation-based model. In conclusion, this thesis adds to the body of evidence that argues for the use of the general memory system in dependency resolution, and in particular for a cue-based retrieval mechanism. However, it also shows that some of the default assumptions inherited from ACT-R in the activation-based model need to be revised. N2 - Die vorliegende Dissertation befasst sich mit dem Aktivierungsmodell von Lewis und Vasishth (2005) um die Evidenz für die Verwendung des Arbeitsgedächtnisses bei der Bildung nicht-lokaler Dependenzen in der menschlichen Satzverarbeitung zu untersuchen. Das Aktivierungsmodell, welches auf der ‘Adaptive Control of Thought-Rational’ (ACT-R; Anderson et al., 2004) aufbaut, wird in der Literatur herangezogen, um Lokalitätseffekte und Interferenz durch Ähnlichkeit mit einem von Interferenz und Gedächtnisverfall betroffenen merkmalsbasierten Gedächtnisabrufmechanismus zu erklären. Sowohl Lokalitätseffekte als auch (inhibitorische) Interferenz durch Ähnlichkeit führen zu einer erhöhten Verarbeitungsschwierigkeit (z.B. längere Lesezeiten) an der Stelle, wo die Dependenz gebildet wird und daher ein Gedächtnisabruf anzunehmen ist: (I) Lokalitätseffekte werden durch die erhöhte Schwierigkeit erklärt, die mit dem Abruf des ersten Teils einer Dependenz einhergeht, wenn dessen Distanz zu der Stelle, die den Gedächtnisabruf auslöst (d.h. der zweite Teil der Dependenz), vergrößert wird. (II) Interferenz durch Ähnlichkeit wird dadurch erklärt, dass der Gedächtnisabruf von der Anwesenheit von Elementen mit denselben Merkmalen wie die des abzurufenden Teils der Dependenz beeinträchtigt wird. In dieser Dissertation untersuche ich einige Erkenntnisse, die das Aktivierungsmodell herausfordern, namentlich fazilitatorische Effekte an Stellen, wo Lokalitätseffekte zu erwarten wären (z.B. Levy, 2008), sowie die Abwesenheit von Interferenz durch Ähnlichkeit in Experimenten, die den Numerus manipulieren (z.B. Wagers et al., 2009). Des Weiteren verwende ich Messwerte der individuellen Unterschiede in der Arbeitsgedächtnisleistung und in der Leseflüssigkeit um die untersuchten Theorien zu validieren, und komputationale Modellierung um ein genaueres Bild der untersuchten Phänomene zu zeichnen zu können. Was die Lokalitätseffekte angeht, so werden in dieser Dissertation hauptsächlich zwei Erkenntnisse vorgestellt, die auf mit Selbst-gesteuertem-Lesen und Eyetracking erhobenen Daten zum Spanischen und Deutschen basieren. (I) Lokalitätseffekte scheinen von der Arbeitsgedächtniskapazität moduliert zu werden: Probanden mit hoher Arbeitsgedächtniskapazität zeigen erwartungsgesteuerte fazilitatorische Effekte. (II) Wenn Erwartungen und andere potentielle Störvariablen durch geeignete Baselines kontrolliert werden, können bei Probanden mit starkem Arbeitsgedächtnis verlangsamte Lesezeiten (d. h., Lokalitätseffekte) und bei Probanden mit schwachem Arbeitsgedächtnis verkürzte Lesezeiten beobachtet werden. Während Lokalitätseffekte mit dem Aktivierungsmodell vereinbar sind, zeigen Simulationen, dass die fazilitatorischen Effekte der Probanden mit schwächerem Arbeitsgedächtnis nur dann von dem Aktivierungsmodell erklärt werden können, wenn einige der Modellannahmen geändert werden. Was Interferenz durch Ähnlichkeit angeht, so werden in dieser Dissertation zwei Experimente mit Selbst-gesteuertem-Lesen zum Deutschen vorgestellt, die eine relativ hohe statistische Teststärke haben. Grammatische Sätze führen hier zu verlangsamten Lesezeiten am Verb, wie es das Aktivierungsmodell vorhersagt. Diese Ergebnisse sind Evidenz für die Bildung von Dependenzen mittels merkmalsbasiertem Gedächtnisabruf und können nicht durch einen wie von Wagers et al. (2009) vorgeschlagenen Reanalysemechanismus erklärt werden. Letztendlich werden dieselben empirischen Daten, die durch den Numerus ausgelöste inhibitorische Interferenz zeigen, für eine detailliertere, simulationsbasierte Betrachtung des Gedächtnisabrufprozesses verwendet. Neben dem Aktivierungsmodell von Lewis und Vasishth (2005) kann auch das Modell eines direkten Gedächtniszugriffs von McElree (2000) die inhibitorische Interferenz erklären. Beide Modelle nehmen für die Bildung von Dependenzen einen merkmalsbasierten Gedächtniszugriffsmechanismus an, aber sie fußen auf unterschiedlichen Annahmen. Ich stelle eine komputationale Evaluation der Vorhersagen dieser beiden Gedächtniszugriffsmodelle vor. Um die beiden Modelle zu vergleichen, werden sie als Bayessche hierarchische Modelle implementiert. Die Evaluation der Modelle zeigt, dass einige Aspekte der empirischen Daten besser von McElrees Modell als von Lewis’ und Vasishths Modell erklärt werden. Eine einfache Erweiterung des Aktivierungsmodells erklärt die Daten jedoch ähnlich gut wie McElrees Modell. Kurz, diese Dissertation liefert weitere Evidenz für die These, dass das allgemeine Gedächtnissystem — und ein merkmalsbasierter Abrufmechanismus im Besonderen — beim Bilden linguistischer Dependenzen Anwendung findet. Es wird jedoch auch gezeigt, dass einige der Standardannahmen, die das Aktivierungsmodell von der ACT-R-Architektur geerbt hat, überdacht und angepasst werden müssen. KW - linguistics KW - working memory KW - computational modeling KW - Sprachwissenschaft KW - Arbeitsgedächtniss KW - komputationale Modellierung Y1 - 2016 ER - TY - THES A1 - Janetschek, Hannah T1 - Water development programs in India T1 - Entwicklungszusammenarbeit im Wassersektor Indiens BT - governance processes and effectiveness BT - Governanceprozesse und Effektivität N2 - In the past decades, development cooperation (DC) led by conventional bi- and multilateral donors has been joined by a large number of small, private or public-private donors. This pluralism of actors raises questions as to whether or not these new donors are able to implement projects more or less effectively than their conventional counterparts. In contrast to their predecessors, the new donors have committed themselves to be more pragmatic, innovative and flexible in their development cooperation measures. However, they are also criticized for weakening the function of local civil society and have the reputation of being an intransparent and often controversial alternative to public services. With additional financial resources and their new approach to development, the new donors have been described in the literature as playing a controversial role in transforming development cooperation. This dissertation compares the effectiveness of initiatives by new and conventional donors with regard to the provision of public goods and services to the poor in the water and sanitation sector in India. India is an emerging country but it is experiencing high poverty rates and poor water supply in predominantly rural areas. It lends itself for analyzing this research theme as it is currently being confronted by a large number of actors and approaches that aim to find solutions for these challenges . In the theoretical framework of this dissertation, four governance configurations are derived from the interaction of varying actor types with regard to hierarchical and non-hierarchical steering of their interactions. These four governance configurations differ in decision-making responsibilities, accountability and delegation of tasks or direction of information flow. The assumption on actor relationships and steering is supplemented by possible alternative explanations in the empirical investigation, such as resource availability, the inheritance of structures and institutions from previous projects in a project context, gaining acceptance through beneficiaries (local legitimacy) as a door opener, and asymmetries of power in the project context. Case study evidence from seven projects reveals that the actors' relationship is important for successful project delivery. Additionally, the results show that there is a systematic difference between conventional and new donors. Projects led by conventional donors were consistently more successful, due to an actor relationship that placed the responsibility in the hands of the recipient actors and benefited from the trust and reputation of a long-term cooperation. The trust and reputation of conventional donors always went along with a back-up from federal level and trickled down as reputation also at local level implementation. Furthermore, charismatic leaders, as well as the acquired structures and institutions of predecessor projects, also proved to be a positive influencing factor for successful project implementation. Despite the mixed results of the seven case studies, central recommendations for action can be derived for the various actors involved in development cooperation. For example, new donors could fulfill a supplementary function with conventional donors by developing innovative project approaches through pilot studies and then implementing them as a supplement to the projects of conventional donors on the ground. In return, conventional donors would have to make room the new donors by integrating their approaches into already programs in order to promote donor harmonization. It is also important to identify and occupy niches for activities and to promote harmonization among donors on state and federal sides. The empirical results demonstrate the need for a harmonization strategy of different donor types in order to prevent duplication, over-experimentation and the failure of development programs. A transformation to successful and sustainable development cooperation can only be achieved through more coordination processes and national self-responsibility. N2 - In der Entwicklungszusammenarbeit (EZ) wurden in den vergangenen Jahrzehnten herkömmliche bi- und multilaterale EZ-Geber durch eine Vielzahl kleinerer, privater oder privat-öffentlicher Geber ergänzt. Es stellt sich nun die Frage nach der Effektivität dieser neuen Geber im Vergleich zu den bisherigen. Die neuen Geber setzen ebenfalls EZ-Maßnahmen um und haben sich einem Mehr an Pragmatismus, Innovation und Flexibilität verschrieben. Sie stehen jedoch auch in der Kritik, die Funktion der lokalen Zivilgesellschaft zu schwächen und in fragilen Kontexten eine intransparente und oft umstrittene Alternative zur staatlichen Daseinsvorsorge darzustellen. Das transformative Potential dieser neuen Geber durch zusätzliche EZ-Gelder und für bessere Entwicklung ist in der Literatur umstritten. In der vorliegenden Dissertation erfolgt ein Vergleich der neuen und herkömmlichen Geber hinsichtlich ihrer Effektivität in der Erbringung von öffentlichen Gütern und Dienstleistungen im Wasser- und Abwasserbereich in Indien. Indien bietet sich als Länderkontext für die Untersuchung dieser Forschungsfrage insbesondere an, da es sich als Schwellenland mit gegenwärtig immer noch sehr hoher Armut und schlechter Wasserversorgung in vorwiegend ländlichen Gebieten einer Vielzahl von Akteuren und Ansätzen zur Lösung dieser Herausforderungen gegenüber sieht. Im theoretischen Rahmen der Dissertation werden aus dem Zusammenspiel von Akteurstypen und hierarchischer und nicht-hierarchischer Steuerung, vier Governance-Typen entwickelt. Diese vier Steuerungsmodi unterscheiden sich hinsichtlich der Entscheidungsfindung, Rechenschaftslegung und Delegierung von Aufgaben bzw. Richtung des Informationsflusses. Diese Governance-Typen werden in der empirischen Untersuchung um mögliche alternative Erklärungen ergänzt wie Ressourcenverfügbarkeit, Bedeutung von vorhergehenden Projekten in einem Projektkontext, lokale Legitimität als Türöffner und Machtasymmetrien im Projektkontext. Die empirische Analyse von sieben Fällen macht deutlich, dass die Akteursbeziehung eine notwendige Bedingung für erfolgreiche und eigenständige Projektumsetzung in der EZ ist. Darüber hinaus belegen die Ergebnisse, dass es einen systematischen Unterschied zwischen herkömmlichen und neuen Gebern gibt. Die Projekte der herkömmlichen Geber waren durchweg erfolgreicher und wiesen alle eine Akteursinteraktion auf, die die Verantwortung in die Hände des EZ-Empfängers legte und darüber hinaus von Vertrauen und Reputation einer langjährigen Zusammenarbeit profitierten. Der Erfolg der herkömmlichen Geber basierte vorwiegend auf der Rückendeckung der lokalen Umsetzung durch die nationale Ebene. Neben charismatischen Führungsfiguren stellten sich auch übernommene Strukturen und Akteure von Vorgängerprojekten als positive Einflussfaktoren für eine erfolgreiche Projektumsetzung heraus. Aus den Erfolgen und Misserfolgen der sieben hier untersuchten Fälle lassen sich zentrale Handlungsempfehlungen für die unterschiedlichen Akteure der EZ-Umsetzung ableiten. So könnten neue Geber eine Ergänzungsfunktion zu herkömmlichen Gebern erfüllen, indem sie durch Pilotstudien innovative Projektansätze entwickeln und diese dann als Ergänzung zu den Projekten herkömmlicher Geber vor Ort umsetzen. Herkömmliche Geber müssten im Gegenzug in ihren Programmen Raum für die Integration der Ansätze von neuen Gebern schaffen, um so eine Geberharmonisierung zu fördern. Auf staatlicher und bundesstaatlicher Nehmerseite gilt es ebenfalls, Nischen für Aktivitäten zu identifizieren und zu besetzen und die Harmonisierung unter den Gebern zu fördern. Die empirischen Ergebnisse belegen die Notwendigkeit einer Harmonisierungsstrategie von unterschiedlichen Gebertypen, um vor Ort Duplikation, Experimente und Misserfolge von EZ-Programmen zu verhindern. Eine Transformation zu einer erfolgreichen und nachhaltigen EZ kann nur durch mehr Koordinationsprozesse und nationale Eigenverantwortung erreicht werden. KW - governance KW - aid effectiveness KW - water development aid KW - development aid India KW - donor harmonization KW - actor interplay KW - new donors KW - conventional donors KW - donor reputation KW - governance KW - Wirksamkeit der Entwicklungszusammenarbeit KW - Wasserentwicklungszusammenarbeit KW - Entwicklungszusammenarbeit mit Indien KW - Geberharmonisierung KW - Akteursinteraktion KW - neue Geber KW - herkömmliche Geber KW - Reputation der Geber Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401337 ER - TY - THES A1 - Engel, Tilman T1 - Motor control strategies in response to unexpected disturbances of dynamic postural control in people with and without low back pain T1 - Strategien der Bewegungskontrolle nach unerwarteten Störungen der dynamischen posturalen Kontrolle in Personen mit und ohne Rückenschmerzen N2 - Background: Low back pain (LBP) is one of the world wide leading causes of limited activity and disability. Impaired motor control has been found to be one of the possible factors related to the development or persistence of LBP. In particularly, motor control strategies seemed to be altered in situations requiring reactive responses of the trunk counteracting sudden external forces. However, muscular responses were mostly assessed in (quasi) static testing situations under simplified laboratory conditions. Comprehensive investigations in motor control strategies during dynamic everyday situations are lacking. The present research project aimed to investigate muscular compensation strategies following unexpected gait perturbations in people with and without LBP. A novel treadmill stumbling protocol was tested for its validity and reliability to provoke muscular reflex responses at the trunk and the lower extremities (study 1). Thereafter, motor control strategies in response to sudden perturbations were compared between people with LBP and asymptomatic controls (CTRL) (study 2). In accordance with more recent concepts of motor adaptation to pain, it was hypothesized that pain may have profound consequences on motor control strategies in LBP. Therefore, it was investigated whether differences in compensation strategies were either consisting of changes local to the painful area at the trunk, or also being present in remote areas such as at the lower extremities. Methods: All investigations were performed on a custom build split-belt treadmill simulating trip-like events by unexpected rapid deceleration impulses (amplitude: 2 m/s; duration: 100 ms; 200 ms after heel contact) at 1m/s baseline velocity. A total number of 5 (study 1) and 15 (study 2) right sided perturbations were applied during walking trials. Muscular activities were assessed by surface electromyography (EMG), recorded at 12 trunk muscles and 10 (study 1) respectively 5 (study 2) leg muscles. EMG latencies of muscle onset [ms] were retrieved by a semi-automatic detection method. EMG amplitudes (root mean square (RMS)) were assessed within 200 ms post perturbation, normalized to full strides prior to any perturbation [RMS%]. Latency and amplitude investigations were performed for each muscle individually, as well as for pooled data of muscles grouped by location. Characteristic pain intensity scores (CPIS; 0-100 points, von Korff) based on mean intensity ratings reported for current, worst and average pain over the last three months were used to allocate participants into LBP (≥30 points) or CTRL (≤10 points). Test-retest reproducibility between measurements was determined by a compilation of measures of reliability. Differences in muscular activities between LBP and CTRL were analysed descriptively for individual muscles; differences based on grouped muscles were statistically tested by using a multivariate analysis of variance (MANOVA, α =0.05). Results: Thirteen individuals were included into the analysis of study 1. EMG latencies revealed reflex muscle activities following the perturbation (mean: 89 ms). Respective EMG amplitudes were on average 5-fold of those assessed in unperturbed strides, though being characterized by a high inter-subject variability. Test-retest reliability of muscle latencies showed a high reproducibility, both for muscles at the trunk and legs. In contrast, reproducibility of amplitudes was only weak to moderate for individual muscles, but increased when being assessed as a location specific outcome summary of grouped muscles. Seventy-six individuals were eligible for data analysis in study 2. Group allocation according to CPIS resulted in n=25 for LBP and n=29 for CTRL. Descriptive analysis of activity onsets revealed longer delays for all muscles within LBP compared to CTRL (trunk muscles: mean 10 ms; leg muscles: mean 3 ms). Onset latencies of grouped muscles revealed statistically significant differences between LBP and CTRL for right (p=0.009) and left (p=0.007) abdominal muscle groups. EMG amplitude analysis showed a high variability in activation levels between individuals, independent of group assignment or location. Statistical testing of grouped muscles indicated no significant difference in amplitudes between LBP and CTRL. Discussion: The present research project could show that perturbed treadmill walking is suitable to provoke comprehensive reflex responses at the trunk and lower extremities, both in terms of sudden onsets and amplitudes of reflex activity. Moreover, it could demonstrate that sudden loadings under dynamic conditions provoke an altered reflex timing of muscles surrounding the trunk in people with LBP compared to CTRL. In line with previous investigations, compensation strategies seemed to be deployed in a task specific manner, with differences between LBP and CTRL being evident predominately at ventral sides. No muscular alterations exceeding the trunk could be found when being assessed under the automated task of locomotion. While rehabilitation programs tailored towards LBP are still under debate, it is tempting to urge the implementation of dynamic sudden loading incidents of the trunk to enhance motor control and thereby to improve spinal protection. Moreover, in respect to the consistently observed task specificity of muscular compensation strategies, such a rehabilitation program should be rich in variety. N2 - Hintergrund: Unterer Rückenschmerz (LBP) stellt eine der weltweit führenden Ursachen für eine eingeschränkte körperliche Funktion und Belastbarkeit dar. Defizite in der neuromuskulären Ansteuerung gelten als einer der möglichen Faktoren im Zusammenhang mit der Entstehung und Persistenz von LBP. Insbesondere in Situationen, die eine aktive Kompensation von plötzlich auftretenden Lasten am Rumpf beinhalten, konnten veränderte Strategien in der muskulären Antwort bei LBP aufgezeigt werden. Allerdings basierten solche Untersuchungen meistens auf (quasi) statischen Testsituationen unter vereinfachten Laborbedingungen. Ob die beobachteten muskulären Reaktionen isolierter Rumpfbelastungen repräsentativ sind für eine neuromuskuläre Ansteuerung unter dynamischen Alltagsbedingungen ist bisher nicht geklärt. Ziel der vorliegenden Arbeit war es, muskuläre Kompensationsstrategien in Folge unerwarteter Gangperturbationen bei Personen mit und ohne LBP zu untersuchen. Um muskuläre Reflexantworten am Rumpf und an den unteren Extremitäten zu provozieren wurde ein neu entwickeltes Laufband-Stolperprotokoll auf Validität und Reliabilität getestet (Studie 1). Aufbauend erfolgte der Vergleich neuromuskulärer Antworten in Reaktion auf plötzlich applizierte Gangperturbationen zwischen Personen mit LBP und asymptomatischen Kontrollpersonen (CTRL) (Studie 2). In Übereinstimmung mit aktuellen Modellen zur motorischen Anpassung bei Schmerzen wurde untersucht, ob Unterschiede in den beobachteten Kompensationsstrategien auf lokale Veränderungen am Rumpf reduziert sind, oder ebenfalls in rumpffernen Körperregionen auftreten. Methoden: Alle Untersuchungen wurden mit einem Spezial-Laufband durchgeführt, welches mittels unerwarteter schneller Abbremsimpulse (Amplitude: 2 m/s, Dauer: 100 ms, 200 ms nach Fersenkontakt) die Simulation von Stolperereignissen während der Gangbewegung (1 m/s) erlaubt. Eine Anzahl von 5 (Studie 1) bzw. 15 (Studie 2) rechtsseitigen Perturbationen wurde im Verlaufs des Stolperprotokolls appliziert. Muskuläre Aktivitäten wurden mittels Elektromyographie (EMG) von 12 Rumpf- sowie 10 (Studie 1) bzw. 5 (Studie 2) Beinmuskeln aufgezeichnet. EMG-Latenzen wurden mittels eines halb-automatischen Detektions-Verfahrens ermittelt. Die Berechnung der EMG Amplituden (RMS) erfolgte für den Zeitraum von 200 ms nach Perturbation, normiert auf den gesamten Schrittzyklus des unperturbierten Ganges [%]. Latenz- und Amplituden-Messgrößen wurden für jeden Muskel individuell und für gepoolte Daten (gruppiert nach Lokalisation) berechnet. Charakteristische Schmerzintensitätswerte (CPIS, 0-100 Punkte, von Korff), basierend auf gemittelten Angaben zu akuten, sowie höchsten und durchschnittlichen Schmerzen der letzten drei Monate wurden zur Einteilung in LBP (≥30 Punkte) und CTRL (≤ 10 Punkte) verwendet. Zur Beurteilung der Test-retest Reliabilität wurden verschiedene Reliabilitätsparameter herangezogen. Unterschiede in den Muskelaktivitäten zwischen LBP und CTRL wurden für individuelle Muskeln deskriptiv analysiert. Gepoolte Daten gruppierter Muskeln wurden mittels multivariater Varianzanalyse (MANOVA; α = 0,05) statistisch getestet. Ergebnisse: Ergebnisse von 13 Probanden wurden für die Analyse von Studie 1 herangezogen. EMG-Latenzen zeigten Muskelaktivitäten repräsentativ für Reflexantworten im Nachgang applizierter Gangperturbationen, sowohl an Rumpf- als auch an Beinmuskulatur (Mittelwert: 89 ms, Range: 75 bis 117 ms). EMG-Amplituden erreichten im Durchschnitt ein 5-fach erhöhtes Aktivitätsniveau innerhalb des 200 ms Zeitfensters nach Perturbation (Range: 106 bis 909 RMS%), jedoch gezeichnet von einer hohen interindividuellen Variabilität zwischen den Probanden. Eine hohe Reproduzierbarkeit für EMG-Latenzen konnte anhand der Reliabilitätsparameter aufgezeigt werden. EMG-Amplituden dagegen erwiesen sich als nur geringfügig reliabel bei der Betrachtung individueller Muskeln. Für die Datenanalyse in Studie 2 waren 76 Probanden geeignet. Die Gruppenzuteilung nach CPIS ergab n = 25 für LBP und n = 29 für CTRL. EMG-Latenzen zeigten eine erhöhte Aktivitätsverzögerung aller Muskeln für LBP im Vergleich zu CTRL (Rumpf: Mittelwert 10 ms; Bein: Mittelwert 3 ms). EMG-Latenzen gruppierter Muskeln zeigten statistisch signifikante Unterschiede zwischen LBP und CTRL für rechtsseitige (p=0,009) und linksseitige (p=0,007) abdominale Muskelgruppen. EMG-Amplituden waren geprägt von einer hohen interindividuellen Variabilität, unabhängig von Gruppenzuordnung oder Lokalisation. Diskussion: Das vorliegende Forschungsprojekt konnte belegen, dass Gangperturbationen dafür geeignet sind, umfassende Reflexantworten am Rumpf und den unteren Extremitäten zu provozieren. Darüber hinaus konnte gezeigt werden, dass unerwartete Gangperturbationen zu einer zeitlich verzögerten Reflexantwort der rumpfumgreifenden Muskulatur bei Personen mit LBP im Vergleich zur Kontrollgruppe führen. In Übereinstimmung mit den Ergebnissen vorheriger Untersuchungen erscheinen dabei die gewählten Kompensationsstrategien aufgabenspezifisch angepasst zu sein. Veränderte muskuläre Reaktionsmuster abseits des Rumpfes konnten trotz Einbezug weiterer Lokalisationen nicht gefunden werden. Gegenüber isolierten Rumpfbelastungen erlaubt der Einsatz indirekter Perturbationsbelastungen während des Ganges alltagsrelevante situationsspezifische Defizite neuromuskulärer Kontrolle gezielt zu untersuchen. Bei der Erstellung neuer Theapiekonzepte zur Steigerung der neuromuskulären Kontrolle sollte in diesem Zusammenhang die Einbindung alltagsähnlicher indirekter Belastungsformen des Rumpfes diskutiert werden. KW - low back pain KW - trunk KW - perturbation KW - EMG KW - reflex KW - stumbling KW - Rückenschmerz KW - Rumpf KW - Perturbationen KW - Gang KW - Stolpern KW - Reflexaktivität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-400742 ER - TY - THES A1 - Intziegianni, Konstantina T1 - Influence of age and pathology on Achilles tendon properties under functional tasks T1 - Einfluss von Alter und Pathologie auf Eigenschaften der Achillessehne während funktionaler Aufgaben N2 - Prevalence of Achilles tendinopathy increases with age, leading to a weaker tendon with predisposition to rupture. Previous studies, investigating Achilles tendon (AT) properties, are restricted to standardized isometric conditions. Knowledge regarding the influence of age and pa-thology on AT response under functional tasks remains limited. Therefore, the aim of the thesis was to investigate the influence of age and pathology on AT properties during a single-leg vertical jump. Healthy children, asymptomatic adults and patients with Achilles tendinopathy participated. Ultrasonography was used to assess AT-length, AT-cross-sectional area and AT-elongation. The reliability of the methodology used was evaluated both Intra- and inter-rater at rest and at maximal isometric plantar-flexion contraction and was further implemented to investigate tendon properties during functional task. During the functional task a single-leg vertical jump on a force plate was performed while simultaneously AT elongation and vertical ground reaction forces were recorded. AT compliance [mm/N] (elongation/force) and AT strain [%] (elongation/length) were calculated. Differences between groups were evaluated with respect to age (children vs. adults) and pathology (asymptomatic adults vs. patients). Good to excellent reliability with low levels of variability was achieved in the assessment of AT properties. During the jumps AT elongation was found to be statistical significant higher in children. However, no statistical significant difference was found for force among the groups. AT compliance and strain were found to be statistical significant higher only in children. No significant differences were found between asymptomatic adults and patients with tendinopathy. The methodology used to assess AT properties is reliable, allowing its implementation into further investigations. Higher AT-compliance in children might be considered as a protective factor against load-related injuries. During functional task, when higher forces are acting on the AT, tendinopathy does not result in a weaker tendon. N2 - Die Prävalenz der Achillessehenentendinopathie steigt mit zunehmendem Alter, was zu einer geschwächten Sehnenstruktur mit Prädisposition zur Ruptur führt. Frühere Studien, welche Achillesssehnen(AS)-Eigenschaften untersuchten, beschränkten sich auf standardisierte isometrische Bedingungen. Der Einfluss von Alter und Pathologie auf das AS-Verhalten während funktioneller Bewegungen ist unklar. Das die Ziel der vorliegenden Arbeit war es daher, den Einfluss des Alters und Pathologie auf AS-Eigenschaften während einen einbeinigen vertikalen Sprung zu untersuchen. Es wurden gesunde Kinder, asymptomatische Erwachsene und Patienten mit Achillessehnene-ndinopathie eingeschlossen. Sonographisch wurden AS-Länge, -Querschnittsfläche (cross-sectional area) und -Dehnung gemessen. Intra- und inter-rater Reliabilität der genutzten Methoden wurden sowohl in Ruhe als auch unter maximaler isometrischer Plantarflexion bestimmt und nachfolgend zur Untersuchung der funktionellen AS-Eigenschaften implementiert. Hierzu wurde ein einbeiniger vertikaler Sprung auf einer Kraftmessplatte absolviert und zeitgleich AS-Compliance sowie vertikale Bodenreaktionskräfte regsitriert. AS-Compliance [mm/N] (Dehnung/Kraft) und AS-Verformung [%] (Dehnung/Länge) wurden kalkuliert. Die Gruppenunterschiede wurden in Bezug auf Alter (Kinder vs. Erwachsene) und Pathologie (Erwachsene vs. Patienten) evaluiert. Bei der Bewertung der verwendeten Methode wurde eine gute bis sehr gute Reliabilität mit geringer Variabilität zur Beurteilung der AS-Eigenschaften erreicht. Während der einbeinigen Sprünge zeigte sich eine statistisch signifikant höhere AS-Dehnung bei Kindern verglichen zu Erwachsenen. Ein statistisch signifikanter Kraft-Unterschied bestand zwischen den Gruppen nicht. AS-Compliance und –Verformung waren ausschließlich statistisch signifikant höher bei den Kindern. Keine signifikanten Unterschiede zwischen Erwachsenen und Patienten wurden gefunden. Die Methodik zur Bestimmung der AS-Eigenschaften ist zuverlässig, was deren Implementierung in weitere funktionelle Untersuchungen ermöglicht. Die höhere funktionelle AS-Compliance bei Kindern kann als Schutz vor Überlastungsschäden diskutiert werden. Während funktioneller Aufgaben, bei denen höhere Kräfte auf die AS wirken, ging das Vorhandensein einer Tendinopathie nicht mit einer schwächeren Sehne einher. KW - Achilles tendon KW - tendinopathy KW - age KW - reliability KW - tendon mechanical properties KW - Achillessehne KW - Tendinopathie KW - Alter KW - Sehnen mechanische Eigenschaften Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398732 ER - TY - THES A1 - Haendler, Yair T1 - Effects of embedded pronouns on relative clause processing T1 - Effekte eingebauter Pronomen auf Relativsatzverarbeitung BT - cross-linguistic evidence from children and adults BT - Hinweise zwischensprachlischer Daten von Kindern und Erwachsenen N2 - Difficulties with object relative clauses (ORC), as compared to subject relative clauses (SR), are widely attested across different languages, both in adults and in children. This SR-ORC asymmetry is reduced, or even eliminated, when the embedded constituent in the ORC is a pronoun, rather than a lexical noun phrase. The studies included in this thesis were designed to explore under what circumstances the pronoun facilitation occurs; whether all pronouns have the same effect; whether SRs are also affected by embedded pronouns; whether children perform like adults on such structures; and whether performance is related to cognitive abilities such as memory or grammatical knowledge. Several theoretical approaches that explain the pronoun facilitation in relative clauses are evaluated. The experimental data have been collected in three languages–German, Italian and Hebrew–stemming from both children and adults. In the German study (Chapter 2), ORCs with embedded 1st- or 3rd-person pronouns are compared to ORCs with an embedded lexical noun phrase. Eye-movement data from 5-year-old children show that the 1st-person pronoun facilitates processing, but not the 3rd-person pronoun. Moreover, children’s performance is modulated by additive effects of their memory and grammatical skills. In the Italian study (Chapter 3), the 1st-person pronoun advantage over the 3rd-person pronoun is tested in ORCs and SRs that display a similar word order. Eye-movement data from 5-year-olds and adult controls and reading times data from adults are pitted against the outcome of a corpus analysis, showing that the 1st-/3rd-person pronoun asymmetry emerges in the two relative clause types to an equal extent. In the Hebrew study (Chapter 4), the goal is to test the effect of a special kind of pronoun–a non-referential arbitrary subject pronoun–on ORC comprehension, in the light of potential confounds in previous studies that used this pronoun. Data from a referent-identification task with 4- to 5-year-olds indicate that, when the experimental material is controlled, the non-referential pronoun does not necessarily facilitate ORC comprehension. Importantly, however, children have even more difficulties when the embedded constituent is a referential pronoun. The non-referentiality / referentiality asymmetry is emphasized by the relation between children’s performance on the experimental task and their memory skills. Together, the data presented in this thesis indicate that sentence processing is not only driven by structural (or syntactic) factors, but also by discourse-related ones, like pronouns’ referential properties or their discourse accessibility mechanism, which is defined as the level of ease or difficulty with which referents of pronouns are identified and retrieved from the discourse model. Although independent in essence, these structural and discourse factors can in some cases interact in a way that affects sentence processing. Moreover, both types of factors appear to be strongly related to memory. The data also support the idea that, from early on, children are sensitive to the same factors that affect adults’ sentence processing, and that the processing strategies of both populations are qualitatively similar. In sum, this thesis suggests that a comprehensive theory of human sentence processing needs to account for effects that are due to both structural and discourse-related factors, which operate as a function of memory capacity. N2 - Zahlreiche Studien haben gefunden, dass sowohl Erwachsene als auch Kinder über Sprachen hinweg größere Schwierigkeiten mit Objektrelativsätzen (ORS) als mit Subjektrelativsätzen (SRS) haben. Diese SRS-ORS-Asymmetrie wird reduziert oder sogar ausgelöscht, wenn das eingebaute Subjekt im ORS keine lexikalische Nominalphrase, sondern ein Pronomen ist. Die Experimente in dieser Dissertation erforschen unter welchen Umständen die Begünstigung des Pronomens geschieht; ob alle Pronomen denselben Effekt haben; ob SRS ebenso von eingebauten Pronomen beeinflusst werden; ob Erwachsene und Kinder in Bezug auf diese Strukturen eine ähnlich Leistung zeigen; und ob die Leistung von Versuchspersonen eine Verbindung mit kognitiven Fähigkeiten hat, wie zum Beispiel mit dem Arbeitsgedächtnis oder mit grammatikalischer Kenntnis. Verschiedene theoretische Rahmen, die die Pronomenvereinfachung in Relativsätzen erklären, werden evaluiert. Die Daten wurden in drei Sprachen–Deutsch, Italienisch und Hebräisch–mit Kindern und Erwachsenen erhoben. In der Studie auf Deutsch (Kapitel 2) werden ORS mit einem eingebauten Pronomen der ersten oder der dritten Person mit ORS verglichen, die eine eingebaute lexikalische Nominalphrase haben. Blickbewegungsdaten von 5-jährigen Kindern zeigen, dass das Pronomen der ersten Person die Satzverarbeitung vereinfacht, nicht jedoch das Pronomen der dritten Person. Die Performance von Kindern wird durch zusätzliche Effekte wie Gedächtnis und grammatikalische Fähigkeiten beeinflusst. In der Studie auf Italienisch (Kapitel 3) wird der Vereinfachungsvorteil des Pronomens der ersten Person, im Vergleich mit dem der dritten Person, in ORS und SRS, die eine ähnliche Wortstellung haben, untersucht. Blickbewegungsdaten von 5-jährigen Kindern und von einer Kontrollgruppe von Erwachsenen sowie Lesezeiten von Erwachsenen, werden mit dem Ergebnis einer Korpusanalyse verglichen. Sie zeigen denselben asymmetrischen Effekt der zwei Pronomen in beiden Relativsatztypen. In der Studie auf Hebräisch (Kapitel 4) war das Ziel, den Effekt eines besonderen Pronomens, nämlich eines nicht-referentiellen beliebigen Subjektspronomens, auf das Verständnis von ORS zu untersuchen, anhand methodischer Problematiken in vergangenen Studien, die dieses Pronomen verwendet haben. Daten von 4- und 5-jährigen Kindern, die eine Referentenerkennungsaufgabe gemacht haben, zeigen, dass mit kontrolliertem Versuchsmaterial das nicht-referentielle Pronomen nicht unbedingt das Verständnis von ORS erleichtert. Jedoch hatten die Kinder aber noch mehr Schwierigkeiten, wenn das eingebaute Pronomen ein referentielles Pronomen war. Die Asymmetrie zwischen nicht-referentiellen und referentiellen Pronomen wird durch die Verbindung zwischen der Performance in der experimentellen Aufgabe und den Gedächtnisfähigkeiten der Kinder hervorgehoben. In ihrer Gesamtheit zeigen die in dieser Arbeit präsentierten Daten, dass Sprachverarbeitung nicht nur durch strukturelle (oder syntaktische) Faktoren beeinträchtigt wird, sondern auch durch Diskurs-gebundene Faktoren, wie die referentiellen Eigenschaften von Pronomen oder den Mechanismus von Diskurszugänglichkeit (discourse accessibility). Diese wird definiert als das Leichtigkeits- oder Schwierigkeitslevel mit dem Referenten von Pronomen im Diskursmodell erkannt und abgerufen werden. Diese strukturellen und diskursgebundenen Faktoren, obwohl sie im Wesentlichen unabhängig voneinander sind, können in manchen Fällen aufeinander einwirken und zusammen die Sprachverarbeitung beeinträchtigen. Darüber hinaus scheinen beide Faktoren eine Verbindung mit dem Gedächtnis zu haben. Die Daten unterstützen auch die Idee, dass Kinder von früh an auf dieselben Faktoren empfindlich reagieren, die die Sprachverarbeitung von Erwachsenen bestimmen und dass die Sprachverarbeitungsstrategien von beiden Altersgruppen qualitativ ähnlich sind. Zusammengefasst weist diese Dissertation darauf hin, dass eine umfassende Theorie der menschlichen Sprachverarbeitung in der Lage sein sollte, Effekte zu erklären, die sowohl durch Satzstruktur als auch durch Diskurs bedingt werden und die in Abhängigkeit von Gedächtnisfähigkeit funktionieren. KW - relative clauses KW - pronouns KW - discourse KW - sentence processing KW - eye-tracking KW - language development KW - Relativsätze KW - Pronomen KW - Diskurs KW - Sprachverarbeitung KW - Blickbewegungen KW - Sprachentwicklung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396883 ER - TY - THES A1 - Bande, Alejandro T1 - The tectonic evolution of the western Tien Shan T1 - Die tektonische Entwicklung des westlichen Tien Shan N2 - Intracontinental deformation usually is a result of tectonic forces associated with distant plate collisions. In general, the evolution of mountain ranges and basins in this environment is strongly controlled by the distribution and geometries of preexisting structures. Thus, predictive models usually fail in forecasting the deformation evolution in these kinds of settings. Detailed information on each range and basin-fill is vital to comprehend the evolution of intracontinental mountain belts and basins. In this dissertation, I have investigated the complex Cenozoic tectonic evolution of the western Tien Shan in Central Asia, which is one of the most active intracontinental ranges in the world. The work presented here combines a broad array of datasets, including thermo- and geochronology, paleoenvironmental interpretations, sediment provenance and subsurface interpretations in order to track changes in tectonic deformation. Most of the identified changes are connected and can be related to regional-scale processes that governed the evolution of the western Tien Shan. The NW-SE trending Talas-Fergana fault (TFF) separates the western from the central Tien Shan and constitutes a world-class example of the influence of preexisting anisotropies on the subsequent structural development of a contractile orogen. While to the east most of ranges and basins have a sub-parallel E-W trend, the triangular-shaped Fergana basin forms a substantial feature in the western Tien Shan morphology with ranges on all three sides. In this thesis, I present 55 new thermochronologic ages (apatite fission track and zircon (U-Th)/He)) used to constrain exhumation histories of several mountain ranges in the western Tien Shan. At the same time, I analyzed the Fergana basin-fill looking for progressive changes in sedimentary paleoenvironments, source areas and stratal geometrical configurations in the subsurface and outcrops. The data presented in this thesis suggests that low cooling rates (<1°C Myr-1), calm depositional environments, and low depositional rates (<10 m Myr-1) were widely distributed across the western Tien Shan, describing a quiescent tectonic period throughout the Paleogene. Increased cooling rates in the late Cenozoic occurred diachronously and with variable magnitudes in different ranges. This rapid cooling stage is interpreted to represent increased erosion caused by active deformation and constrains the onset of Cenozoic deformation in the western Tien Shan. Time-temperature histories derived from the northwestern Tien Shan samples show an increase in cooling rates by ~25 Ma. This event is correlated with a synchronous pulse iv in the South Tien Shan. I suggest that strike-slip motion along the TFF commenced at the Oligo-Miocene boundary, facilitating CCW rotation of the Fergana basin and enabling exhumation of the linked horsetail splays. Higher depositional rates (~150 m Myr-1) in the Oligo-Miocene section (Massaget Fm.) of the Fergana basin suggest synchronous deformation in the surrounding ranges. The central Alai Range also experienced rapid cooling around this time, suggesting that the onset of intramontane basin fragmentation and isolation is coeval. These results point to deformation starting simultaneously in the late Oligocene – early Miocene in geographically distant mountain ranges. I suggest that these early uplifts are controlled by reactivated structures (like the TFF), which are probably the frictionally weakest and most-suitably oriented for accommodating and transferring N-S horizontal shortening along the western Tien Shan. Afterwards, in the late Miocene (~10 Ma), a period of renewed rapid cooling affected the Tien Shan and most mountain ranges and inherited structures started to actively deform. This episode is widely distributed and an increase in exhumation is interpreted in most of the sampled ranges. Moreover, the Pliocene section in the basin subsurface shows the higher depositional rates (>180 m Myr-1) and higher energy facies. The deformation and exhumation increase further contributed to intramontane basin partitioning. Overall, the interpretation is that the Tien Shan and much of Central Asia suffered a global increase in the rate of horizontal crustal shortening. Previously, stress transfer along the rigid Tarim block or Pamir indentation has been proposed to account for Himalayan hinterland deformation. However, the extent of the episode requires a different and broader geodynamic driver. N2 - Intra-kontinentale Deformation der Erdkruste ist in der Regel das Ergebnis weitreichender tektonischer Kräfte, die durch Interaktion der Erdplatten an entfernten Kontinentalrändern entstehen. Eine entscheidende Rolle bei der Entwicklungsgeschichte der so entstehenden Gebirge, spielt das Vorhandensein und die Orientierung präexistierender Strukturen in der Kruste. Diese Komplexität lässt bekannte Vorhersagemodelle zur Bestimmung der Deformationsgeschichte häufig scheitern. Um die Deformationsprozesse intra-kontinentaler Gebiete dennoch besser zu verstehen, sind detaillierte Informationen über die Entstehungsgeschichte einzelner Bergketten und benachbarter Becken von essentieller Bedeutung. Die vorliegende Arbeit beschäftigt sich mit der känozoischen Entwicklung tektonischer Prozesse in einer der aktivsten intra-kontinentalen Gebirgsketten der Welt, dem westlichen Tian Shan Gebirge in Zentralasien. Um räumliche und zeitliche Veränderungen der tektonischen Deformation besser nachvollziehen zu können, wird in dieser Arbeit ein breites Spektrum an Datensätzen, aus Thermo- und Geochronologie, Paläoumwelt-Interpretation, Sediment-Provenienz und der Interpretationen seismischer Profile, kombiniert. Die somit identifizierten Prozesse deuten auf einen engen Bezug und können mit regional übergreifenden Prozessen in Beziehung gesetzt werden, die für die Entwicklung des westlichen Tian Shan Gebirges verantwortlich sind. Ein Paradebeispiel des Einflusses präexistierender Krustenanomalien auf die strukturelle Entstehung eines intra-kontinentalen Gebirges wie dem Tian Shan ist die NW-SE streichende Talas-Fergana-Störung, die den westlichen vom zentralen Tian Shan trennt. Während der östlich gelegene Zentralbereich des Orogens durch subparallele, E-W streichende Gebirgszüge und Becken charakterisiert ist, ist das markant dreieckförmige Fergana-Becken im westlichen Tian Shan von allen Seiten durch hohe Gebirgsrücken flankiert. Kern dieser Arbeit sind 55 neue thermochronologische Altersdatierungen (aus Apatit-Spaltspuren-Analyse und U-Th/He an Zirkonen), mit deren Hilfe die Exhumationsgeschichte mehrerer Gebirgszüge im westlichen Tian Shan untersucht wurde. Des Weiteren wurde die sedimentäre Beckenfüllung des benachbarten Fergana-Beckens auf sukzessive Veränderungen der Paläoumweltbedingungen, der Sediment-Provenienz und der geometrischen Konfiguration der Sedimente, am Aufschluss und im Untergrund untersucht. Ergebnisse dieser Arbeit zeigen niedrige Abkühlungs- (<1°C Myr-1) und Sedimentationsraten (<10 m Myr-1) im Gebiet des westlichen Tian Shan im Paläogen und deuten auf eine tektonisch ruhige und relativ stabile Region. Demgegenüber stehen erhöhte Abkühlungsraten im späten Känozoikum, die in den verschiedenen Gebirgsketten diachron und mit unterschiedlicher Intensität einsetzen. Diese zweite Phase deutet auf erhöhte Erosionsprozesse, hervorgerufen durch aktive Deformation, und markiert den Beginn der känozoischen Deformation im westlichen Tian Shan Gebirge. Temperaturgeschichten im Gebiet des NW Tian Shan zeigen erhöhte Abkühlungsraten vor ~25 Ma und korrelieren zeitlich mit ähnlichen Ereignissen im südlichen Tian Shan. Ich vermute, dass Horizontalverschiebungen entlang der Talas-Fergana-Störung an der Oligozän-Miozän-Grenze zur Rotation des Fergana-Beckens gegen den Uhrzeigersinn, und darüber hinaus zur Exhumation entlang diverser Nebenstörungen führten. Erhöhte Sedimentationsraten (~150 m Myr-1) der Oligo-Miozänen Einheiten im Fergana Becken (Massaget Fm.) deuten ebenfalls auf eine synchrone Deformationsphase umliegender Gebieten zu dieser Zeit. Dies ist durch erhöhte Abkühlungsraten im zentralen Alai (südlich des Fergana Beckens) gut dokumentiert und impliziert, dass die intra-montane Fragmentierung und Isolierung, der ehemals zusammenhängenden Sedimentbecken, zur gleichen Zeit erfolgte. Diese Beobachtungen deuten auf eine Deformationsgeschichte hin, die zeitgleich ihren Ursprung in zwei voneinander entfernten Regionen hat. Diese frühen Hebungen scheinen durch reaktivierte Strukturen (wie der Talas-Fergana-Störung) gesteuert worden zu sein, deren Orientierung optimal für eine N-S Einengung im Bereich des westlichen Tian Shan geeignet ist. Eine erneute Phase schneller Abkühlung im späten Miozän (~10 Ma) führte zur Aktivierung der meisten heutigen Gebirgszüge und der Reaktivierung prä-existierender Strukturen. Diese Deformationsphase zeigt eine weite Verbreitung und einen Anstieg der Exhumationsraten in den meisten beprobten Bereichen. Darüberhinaus steigen die pliozänen Sedimentationsraten (>180 m Myr-1) im Fergana-Becken und die Faziesanalyse der Sedimente zeigt hoch-energetische Ablagerungsbedingungen. Fazit dieser Arbeit ist, dass der Tian Shan und ein Großteil Zentralasiens durch erhöhte Verkürzungsraten der Kruste stark beeinflusst wurden. Früher ging man davon aus, dass Stresstransfer entlang des stabilen Tarim-Blocks oder die Indentation des Pamir-Gebirges zur Deformation im Hinterland des Himalaya führten. Die beobachteten Deformationsmuster deuten jedoch auf einen anderen, viel weitreichenderen geodynamischen Prozess hin. KW - tectonics KW - Tien Shan KW - thermochronology KW - Tektonik KW - Tien Shan KW - Thermochronologie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398933 ER - TY - THES A1 - Brzezinka, Krzysztof T1 - Chromatin dynamics during heat stress memory in plants Y1 - 2016 ER - TY - THES A1 - Cheng, Yuan T1 - Recursive state estimation in dynamical systems Y1 - 2016 ER - TY - THES A1 - Marx, Robert T1 - A quantitative model of spatial correlations in parametric down conversion for investigating complementarity at a double slit Y1 - 2016 ER - TY - THES A1 - Mengin, Virginie T1 - Role of the clock in the regulation of growth and metabolism in stable and fluctuating environmental conditions Y1 - 2016 ER - TY - THES A1 - Käthner, Jana T1 - Interaction of spatial variability characterized by soil electrical conductivity and plant water status related to generative growth of fruit trees T1 - Interaktion der räumlichen Variabilität der scheinbaren elektrischen Leitfähigkeit des Bodens und des Pflanzenwasserzustandes auf das generative Wachstum von Obstbäumen N2 - Precision horticulture beschreibt ein neues Bewirtschaftungskonzept im Gartenbau, bei dem teilflächenspezifisch oder an den Einzelbaum angepasste Maßnahmen eine ressourcenschonende, intensitve Produktion ermöglichen. Die Datengrundlage wird aus räumlich aufgelösten Messungen aus der Produktionsanlage gewonnen, wobei sowohl kurzfristige Faktoren wie der effektive Pflanzenwasserzustand als auch langfristige Faktoren wie die Bodenvariabilität zur Informationsgewinnung genutzt werden können. Die vorliegende Arbeit umfasst eine Untersuchung der scheinbaren elektrischen Leitfähigkeit des Bodens (ECa), des Pflanzenwasserzustandes und der Fruchtqualität (zum Beispiel: Fruchtgröße) bei Prunus domestica L. (Pflaume) und Citrus x aurantium, Syn. Citrus paradisi (Grapefruit). Zielsetzungen der vorliegenden Arbeit waren (i) die Charakterisierung der 3D-Verteilung der scheinbaren elektrischen Leitfähigkeit des Bodens und Variabilität des Pflanzenwasserzustandes; (ii) die Untersuchung der Interaktion zwischen ECa, kumulativer Wassernutzungseffizienz (WUEc) und des crop water stress index (CWSI) bezogen auf die Fruchtqualität sowie (iii) eine Möglichkeit zur Einteilung von einzelnen Bäumen hinsichtlich der Bewässerung. Dazu fanden die Hauptuntersuchungen in der Pflaumenanlage statt. Diese Obstanlage befindet sich in Hanglage (3°) auf pleistozänen und postpleistozänen Substraten in semi-humiden Klima (Potsdam, Deutschland) und umfasst eine Fläche von 0,37 ha mit 156 Bäumen der Kultursorte ˈTophit Plusˈ auf der Unterlage Wavit. Die Anlage wurde 2009 mit ein und zwei-jährigen Bäumen in einem Pflanzabstand von 4 m entlang der Bewässerung und 5 m zwischen den Reihen angelegt. Dreimal pro Woche wurden die Bäume mit einer 50 cm über dem Boden installierten Tröpfchenbewässerung mit 1,6 l pro Baum bewässert. Mit Hilfe geoelektrischer Messungen wurde die scheinbare elektrische Leitfähigkeit des Oberbodens (0,25 m) mit einem Elektrodenabstand von 0,5 m (4-point light hp) an jedem Baum gemessen. Dadurch wurde die Anlage hinsichtlich ECa räumlich charakterisiert. Zusätzlich erfolgten Tomographiemessungen zur 3D-Charakterisierung der ECa und punktuell die Beprobung von Bohrlochprofilen bis 1 m Tiefe. Die vegetativen, generativen und Fruchtqualitätsdaten wurden an jedem Baum erhoben. Der momentane Pflanzenwasserzustand wurde mit der etablierten Scholander-Methode zur Wasserpotentialanalyse (Scholander Bombe) punktuell und mit Thermalaufnahmen flächendeckend bestimmt. Die Thermalaufnahmen erfolgten mit einer Infrarot-Kamera (ThermaCam SC 500), die auf einem Traktor in 3,3 m Höhe über dem Boden montiert war. Die Thermalaufnahmen (320 x 240 Pixel) der Kronenoberfläche wurden mit einem Öffnungswinkel von 45° und einer geometrischen Auflösung von 6,41 mm x 8,54 mm aufgenommen. Mit Hilfe der Kronentemperatur aus den Thermalbildern und den Temperaturen eines nassen und trockenen Referenzblattes wurde der CWSI berechnet. Es wurde die Anpassung des CWSI für die Messung in semi-humidem Klima erarbeitet, wobei die Erhebung der Referenztemperaturen automatisiert aus den Thermalbildern erfolgte. Die Boniturdaten wurden mit Hilfe eines Varianz-Stabilisierungsverfahrens in eine Normalverteilung transformiert. Die statistischen Analysen sowie die automatisierte Auswertungsroutine erfolgten mit eigenen Skripten in MATLAB® (R2010b sowie R2016a) und einem freien Programm (spatialtoolbox). Die Hot-spot Analysen dienten der Prüfung, ob ein beobachtetes Muster statistisch signifikant ist. Evaluiert wurde die Methode mit der etablierten k-mean Analyse. Zum Testen der Hot-spot Analyse wurden ECa, Stammumfang und Ertrag Daten aus einer Grapefruitanlage (Adana, Türkei) mit 179 Bäumen auf einem Boden vom Typ Xerofkuvent mit toniger und tonig-lehmiger Textur herangezogen. Die Überprüfung der Interaktion zwischen den kritischen Werten aus den Boden- und Pflanzenwasserzustandsinformationen zu den vegetativen und generativen Pflanzenwachtumsvariablen erfolgte durch die Anwendung der ANOVA und die Ermittlung des Korrelationskoeffizienten. In der Arbeit konnte gezeigt werden, dass die Variabilität der Boden- und Pflanzeninformationen in Obstanlagen auch kleinräumig hoch ist. Es konnte gezeigt werden, dass die räumlich gefundenen Muster in den ECa über die Jahre zwischen 2011-2012 (r = 0.88) beziehungsweise 2012-2013 (r = 0.71) stabil geblieben sind. Zum anderen wurde gezeigt, dass eine CWSI-Bestimmung auch im semi-humiden Klima möglich ist. Es wurde ein Zusammenhang (r = - 0.65, p < 0.0001) mit der etablierten Methode der Blattwasser-potentialanalyse ermittelt. Die Interaktion zwischen der ECa aus verschiedenen Tiefen und den Pflanzenvariablen ergab einen hoch signifikanten Zusammenhang mit dem Oberboden, in dem das Bewässerungswasser zu finden war. Es wurde eine Korrelation zwischen Ertrag und ECatopsoil von r = 0.52 ermittelt. Durch die Anwendung der Hot-spot Analyse konnten Extremwerte in den räumlichen Daten ermittelt werden. Diese Extrema dienten zur Einteilung der Zonen in cold-spot, random und hot-spot. Die random Zone weist die höchsten Korrelationen zu den Pflanzenvariablen auf. Ferner konnte gezeigt werden, dass bereits im semi-humiden Klima der Pflanzenwasserstatus entscheidend zur Fruchtqualität beiträgt. Zusammenfassend lässt sich sagen, dass die räumliche Variabilität der Fruchtqualität durch die Interaktion von Wassernutzungseffizienz und CWSI sowie in geringerem Maße durch den ECa des Bodens. In der Pflaumenanlage im semi-humiden Klima war die Bewässerung ausschlaggebend für die Produktion von qualitativ hochwertigen Früchten. N2 - Precision horticulture encompasses site- or tree-specific management in fruit plantations. Of decisive importance is spatially resolved data (this means data from each tree) from the production site, since it may enable customized and, therefore, resource-efficient production measures. The present thesis involves an examination of the apparent electrical conductivity of the soil (ECa), the plant water status spatially measured by means of the crop water stress index (CWSI), and the fruit quality (e.g. fruit size) for Prunus domestica L. (plums) and Citrus x aurantium, Syn. Citrus paradisi (grapefruit). The goals of the present work were i) characterization of the 3D distribution of the apparent electrical conductivity of the soil and variability of the plant’s water status; ii) investigation of the interaction between ECa, CWSI, and fruit quality; and iii) an approach for delineating management zones with respect to managing trees individually. To that end, the main investigations took place in the plum orchard. This plantation got a slope of 3° grade on Pleistocene and post-Pleistocene substrates in a semi-humid climate (Potsdam, Germany) and encloses an area of 0.37 ha with 156 trees of the cultivar ˈTophit Plusˈ on a Wavit rootstock. The plantation was laid in 2009 with annual and biannual trees spaced 4 m distance along the irrigation system and 5 m between the rows. The trees were watered three times a week with a drip irrigation system positioned 50 cm above ground level providing 1.6 l per tree per event. With the help of geoelectric measurements, the apparent electrical conductivity of the upper soil (0.25 m) was measured for each tree with an electrode spacing of 0.5 m (4-point light hp). In this manner, the plantation was spatially charted with respect to the soil’s ECa. Additionally, tomography measurements were performed for 3D mapping of the soil ECa and spot checks of drilled cores with a profile of up to 1 m. The vegetative, generative, and fruit quality data were collected for each tree. The instantaneous plant water status was comprehensively determined in spot checks with the established Scholander method for water potential analysis (Scholander pressure bomb) as well as thermal imaging. An infrared camera was used for the thermal imaging (ThermaCam SC 500), mounted on a tractor 3.3 m above ground level. The thermal images (320 x 240 px) of the canopy surface were taken with an aperture of 45° and a geometric resolution of 8.54 x 6.41 mm. With the aid of the canopy temperature readings from the thermal images, cross-checked with manual temperature measurements of a dry and a wet reference leaf, the crop water stress index (CWSI) was calculated. Adjustments in CWSI for measurements in a semi-humid climate were developed, whereas the collection of reference temperatures was automatically collected from thermal images. The bonitur data were transformed with the help of a variance stabilization process into a normal distribution. The statistical analyses as well as the automatic evaluation routine were performed with several scripts in MATLAB® (R2010b and R2016a) and a free program (spatialtoolbox). The hot spot analysis served to check whether an observed pattern is statistically significant. The method was evaluated with an established k-mean analysis. To test the hot-spot analysis by comparison, data from a grapefruit plantation (Adana, Turkey) was collected, including soil ECa, trunk circumference, and yield data. The plantation had 179 trees on a soil of type Xerofkuvent with clay and clay-loamy texture. The examination of the interaction between the critical values from the soil and plant water status information and the vegetative and generative plant growth variables was performed with the application from ANOVA. The study indicates that the variability of the soil and plant information in fruit production is high, even considering small orchards. It was further indicated that the spatial patterns found in the soil ECa stayed constant through the years (r = 0.88 in 2011-2012 and r = 0.71 in 2012-2013). It was also demonstrated that CWSI determination may also be possible in semi-humid climate. A correlation (r = - 0.65, p < 0.0001) with the established method of leaf water potential analysis was found. The interaction between the ECa from various depths and the plant variables produced a highly significant connection with the topsoil in which the irrigation system was to be found. A correlation between yield and ECatopsoil of r = 0.52 was determined. By using the hot-spot analysis, extreme values in the spatial data could be determined. These extremes served to divide the zones (cold-spot, random, hot-spot). The random zone showed the highest correlation to the plant variables. In summary it may be said that the cumulative water use efficiency (WUEc) was enhanced with high crop load. While the CWSI had no effect on fruit quality, the interaction of CWSI and WUEc even outweighed the impact of soil ECa on fruit quality in the production system with irrigation. In the plum orchard, irrigation was relevant for obtaining high quality produce even in the semi-humid climate. KW - precision horticulture KW - plum KW - tree water status KW - spatial variability KW - Präzision Gartenbau KW - Pflaume KW - Pflanzenwasserzustand KW - räumliche Variabilität Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397666 ER - TY - THES A1 - Wang, Cheng T1 - Deep Learning of Multimodal Representations Y1 - 2016 ER - TY - THES A1 - Xu, Ke T1 - Functional characterization of two MYB transcription factors, MYB95 and MYB47, in Arabidopsis thaliana Y1 - 2016 ER - TY - THES A1 - Krohmer, Anton T1 - Structures & algorithms in hyperbolic random graphs T1 - Strukturen & Algorithmen in Hyperbolischen Zufallsgraphen N2 - Complex networks are ubiquitous in nature and society. They appear in vastly different domains, for instance as social networks, biological interactions or communication networks. Yet in spite of their different origins, these networks share many structural characteristics. For instance, their degree distribution typically follows a power law. This means that the fraction of vertices of degree k is proportional to k^(−β) for some constant β; making these networks highly inhomogeneous. Furthermore, they also typically have high clustering, meaning that links between two nodes are more likely to appear if they have a neighbor in common. To mathematically study the behavior of such networks, they are often modeled as random graphs. Many of the popular models like inhomogeneous random graphs or Preferential Attachment excel at producing a power law degree distribution. Clustering, on the other hand, is in these models either not present or artificially enforced. Hyperbolic random graphs bridge this gap by assuming an underlying geometry to the graph: Each vertex is assigned coordinates in the hyperbolic plane, and two vertices are connected if they are nearby. Clustering then emerges as a natural consequence: Two nodes joined by an edge are close by and therefore have many neighbors in common. On the other hand, the exponential expansion of space in the hyperbolic plane naturally produces a power law degree sequence. Due to the hyperbolic geometry, however, rigorous mathematical treatment of this model can quickly become mathematically challenging. In this thesis, we improve upon the understanding of hyperbolic random graphs by studying its structural and algorithmical properties. Our main contribution is threefold. First, we analyze the emergence of cliques in this model. We find that whenever the power law exponent β is 2 < β < 3, there exists a clique of polynomial size in n. On the other hand, for β >= 3, the size of the largest clique is logarithmic; which severely contrasts previous models with a constant size clique in this case. We also provide efficient algorithms for finding cliques if the hyperbolic node coordinates are known. Second, we analyze the diameter, i. e., the longest shortest path in the graph. We find that it is of order O(polylog(n)) if 2 < β < 3 and O(logn) if β > 3. To complement these findings, we also show that the diameter is of order at least Ω(logn). Third, we provide an algorithm for embedding a real-world graph into the hyperbolic plane using only its graph structure. To ensure good quality of the embedding, we perform extensive computational experiments on generated hyperbolic random graphs. Further, as a proof of concept, we embed the Amazon product recommendation network and observe that products from the same category are mapped close together. N2 - Komplexe Netzwerke sind in Natur und Gesellschaft allgegenwärtig. Sie tauchen in unterschiedlichsten Domänen auf, wie zum Beispiel als soziale Netzwerke, biologische Interaktionen oder Kommunikationsnetzwerke. Trotz ihrer verschiedenen Ursprünge haben diese Netzwerke jedoch viele strukturelle Gemeinsamkeiten. So sind die Grade der Knoten typischerweise Pareto-verteilt. Das heißt, der Anteil an Knoten mit k Nachbarn ist proportional zu k-ß , wobei ß eine beliebige Konstante ist. Weiterhin haben solche Netzwerke einen hohen Clusterkoezienten, was bedeutet, dass zwei benachbarte Knoten viele gemeinsame Nachbarn haben. Um das Verhalten solcher Netzwerke mathematisch zu studieren, werden sie häug als Zufallsgraphen modelliert. Klassische Modelle wie inhomogene Zufallsgraphen oder das Preferential-Attachment-Modell erzeugen Graphen mit Pareto-verteilten Knotengraden. Cluster sind darin jedoch häug nicht vorhanden, oder werden durch das Hinzufügen unnatürlicher Strukturen künstlich erzeugt. Hyperbolische Zufallsgraphen lösen dieses Problem, indem sie dem Graphen eine Geometrie zugrunde legen. Jeder Knoten erhält hyperbolische Koordinaten, und zwei Knoten sind verbunden, wenn ihre hyperbolische Distanz klein ist. Cluster entstehen dann natürlich, da benachbarte Knoten samt ihrer Nachbarschaften in der Geometrie nah beieinander liegen, und die Pareto-Verteilung der Knotengrade folgt aus der expo- nentiellen Expansion des hyperbolischen Raumes. Durch die hyperbolische Geometrie wird jedoch auch die mathematische Analyse des Modells schnell kompliziert. In dieser Arbeit studieren wir die strukturellen und algorithmischen Eigenschaften von hyperbolischen Zufallsgraphen. Wir beginnen mit der Analyse von Cliquen. Wir beobachten, dass wenn der Pareto-Exponent ß zwischen 2 und 3 liegt, es Cliquen von polynomieller Größe in n gibt. Mit ß > 3 ist die größte Clique noch logarithmisch groß, was früheren Modellen mit konstanter Cliquengröße stark widerspricht. Wir geben auch einen ezienten Algorithmus zur Cliquenndung an, wenn die Koordinaten der Knoten bekannt sind. Als Zweites analysieren wir den Durchmesser, also den längsten kürzesten Pfad in hyperbolischen Zufallsgraphen. Wir beweisen, dass er O (log 3-ß n) lang ist, wenn 2 < ß < 3, und O (log n) falls ß > 3. Komplementär dazu zeigen wir, dass der Durchmesser mindestens Q(log n) beträgt. Als Drittes entwickeln wir einen Algorithmus, der reale Netzwerke in die hyperbolische Ebene einbettet. Um eine gute Qualität zu gewährleisten, evaluieren wir den Algorithmus auf über 6000 zufällig generierten hyperbolischen Graphen. Weiterhin betten wir exemplarisch den Produktempfehlungsgraphen von Amazon ein und beobachten, dass Produkte aus gleichen Kategorien in der Einbettung nah beieinander liegen. KW - random graphs KW - power law KW - massive networks KW - hyperbolic random graphs KW - Zufallsgraphen KW - Pareto-Verteilung KW - gigantische Netzwerke KW - hyperbolische Zufallsgraphen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395974 ER - TY - THES A1 - Armarego-Marriott, Tegan T1 - From dark to light BT - an overexpression and systems biology approach to investigate the development of functional thylakoid membranes Y1 - 2016 ER - TY - THES A1 - Heinle, Karolin T1 - Identifizierung von Kohlenhydratbindungsstellen in β-Helix-Proteinen Y1 - 2016 ER - TY - THES A1 - Molkenthin, Christian T1 - Sensitivity analysis in seismic Hazard assessment using algorithmic differentiation Y1 - 2016 ER - TY - THES A1 - Sviben, Sanja T1 - Calcite biomineralization in coccolithophores BT - new insights from ultrastructural and proteomic studies of Emiliania huxleyi Y1 - 2016 ER - TY - THES A1 - Martínez Valdés, Eduardo Andrés T1 - Neuromuscular adaptations of either endurance or high-intensity interval training T1 - Neuromuskuläre Anpassung bei Ausdauer oder Hochintensiv-Intervalltraining BT - are there any differential adaptations in the motor unit population? BT - gibt es Adaptationsunterschiede in den Aktionspotenzialen motorischer Einheiten? N2 - During the last decade, high intensity interval training (HIIT) has been used as an alternative to endurance (END) exercise, since it requires less time to produce similar physiological adaptations. Previous literature has focused on HIIT changes in aerobic metabolism and cardiorespiratory fitness, however, there are currently no studies focusing on its neuromuscular adaptations. Therefore, this thesis aimed to compare the neuromuscular adaptations of both HIIT and END after a two-week training intervention, by using a novel technology called high-density surface electromyography (HDEMG) motor unit decomposition. This project consisted in two experiments, where healthy young men were recruited (aged between 18 to 35 years). In experiment one, the reliability of HDEMG motor unit variables (mean discharge rate, peak-to-peak amplitude, conduction velocity and discharge rate variability) was tested (Study 1), a new method to track the same motor units longitudinally was proposed (Study 2), and the level of low (<5Hz) and high (>5Hz) frequency motor unit coherence between vastus medialis (VM) and lateralis (VL) knee extensor muscles was measured (Study 4). In experiment two, a two-week HIIT and END intervention was conducted where cardiorespiratory fitness parameters (e.g. peak oxygen uptake) and motor unit variables from the VM and VL muscles were assessed pre and post intervention (Study 3). The results showed that HDEMG is reliable to monitor changes in motor unit activity and also allows the tracking of the same motor units across different testing sessions. As expected, both HIIT and END improved cardiorespiratory fitness parameters similarly. However, the neuromuscular adaptations of both types of training differed after the intervention, with HIIT showing a significant increase in knee extensor muscle strength that was accompanied by increased VM and VL motor unit discharge rates and HDEMG amplitude at the highest force levels [(50 and 70% of the maximum voluntary contraction force (MVC)], while END training induced a marked increase in time to task failure at lower force levels (30% MVC), without any influence on HDEMG amplitude and discharge rates. Additionally, the results showed that VM and VL muscles share most of their synaptic input since they present a large amount of low and high frequency motor unit coherence, which can explain the findings of the training intervention where both muscles showed similar changes in HDEMG amplitude and discharge rates. Taken together, the findings of the current thesis show that despite similar improvements in cardiopulmonary fitness, HIIT and END induced opposite adjustments in motor unit behavior. These results suggest that HIIT and END show specific neuromuscular adaptations, possibly related to their differences in exercise load intensity and training volume. N2 - Als Alternative zu Ausdauertraining (END) wurde während des letzten Jahrzehnts hochintensives Intervalltraining (HIIT) eingesetzt, da es weniger Zeit in Anspruch nimmt um ähnliche physiologische Anpassungen herbeizuführen. Die Literatur hat sich bislang auf Veränderungen des aeroben Stoffwechsels und der kardiorespiratorischen Fitness durch HIIT konzentriert, es fehlt jedoch an Studien, die sich mit der neuromuskulären Anpassung auseinandersetzen. Deswegen war das Ziel dieser Thesis die neuromuskulären Anpassungserscheinungen durch HIIT und END nach einer 2-wöchigen Trainingsintervention zu vergleichen. Dafür wurde eine neuartige Technik, die sogenannte High-Density Oberflächen Elektromyographie Motoreinheiten Zersetzung (HDEMG) genutzt. Dieses Projekt bestand aus zwei Experimenten, für die junge gesunde Männer zwischen 18 und 35 Jahren rekrutiert wurden. Im Rahmen des ersten Experiments wurde die Reliabilität der HDEMG Variablen (Entladungsrate, Amplitude, Weiterleitungsgeschwindigkeit und die Variabilität der Entladungsrate) untersucht (Studie 1), eine neue Methode zur longitudinalen Verfolgung der Motoreinheiten entwickelt (Studie 2) und die Kohärenz niedriger- (<5Hz) und hoher Frequenzen (>5Hz) der Knieextensoren vastus medialis (VM) und vastus lateralis (VL) gemessen (Studie 4). Das zweite Experiment beinhaltete eine zweiwöchige HIIT und END Intervention, bei der Parameter der kardiorespiratorischen Fitness (beispielsweise die maximale Sauerstoffaufnahme) und Parameter der Motoreinheiten des VM und VL vor- und nach der Intervention erfasst wurden (Studie 3). Die Ergebnisse bestätigen, dass HDEMG eine zuverlässige Methode zur Erkennung von Veränderungen der Motoreinheit-Aktivitäten ist, sowie zur Verfolgung der selben Motoreinheiten in verschiedenen Messungen. Wie erwartet haben HIIT und END die kardiorespiratorische Fitness gleichermaßen verbessert. Trotzdem unterscheiden sich die neuromuskulären Anpassungserscheinungen beider Trainingsinterventionen insofern, als dass durch HIIT ein signifikanter Kraftzuwachs der Knieextensoren hervorgerufen wurde, der durch eine erhöhte Entladungsrate der VM und VL Motoreinheiten und eine erhöhte HDEMG Amplitude bei größter Kraft [50 und 70% der Maximalkraft (MVC)] begleitet wurde. END hingegen bewirkte einen deutlichen Anstieg der „time to task failure“ bei niedrigeren Kraftintensitäten (30% MVC), ohne dabei die HDEMG Amplitude oder Entladungsrate zu beeinflussen. Außerdem konnten die Ergebnisse belegen, dass VM und VL einen Großteil des synaptischen Inputs teilen, da beide Muskeln eine hohe Kohärenz bei niedrigen- (<5Hz) und höheren Frequenzen (>5Hz) zeigen. Dies könnte eine mögliche Erklärung für die Ergebnisse der Trainingsintervention sein, bei der beide Muskeln ähnliche Veränderungen in der HDEMG Amplitude und der Entladungsrate vorwiesen. Zusammenfassend zeigen die Ergebnisse dieser Thesis, dass HIIT und END trotz ähnlicher Verbesserungen der kardiorespiratorischen Fitness unterschiedliche Anpassungen des Verhaltens der Motoreinheiten hervorrufen. Die Ergebnisse unterstreichen, dass HIIT und END spezifische Adaptionen auslösen, die möglicherweise auf den Unterschieden von Trainingsintensität und -volumen basieren. KW - high-density surface electromyography KW - motor unit decomposition KW - motor unit tracking KW - motor unit discharge rate KW - motor unit adaptation KW - neuromuscular adaptation KW - high-intensity interval training KW - endurance training KW - Mehrkanal-Oberflächen-Elektromyographie KW - motorischer Einheiten Zersetzung KW - motorischer Einheiten Verfolgung KW - motorischer Einheiten Entladungsrate KW - motorischer Einheiten Anpassung KW - neuromuskuläre Anpassung KW - hochintensives Intervalltraining KW - Ausdauertraining Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396383 ER - TY - THES A1 - Breitling, Frank T1 - Propagation of energetic electrons in the solar corona observed with LOFAR T1 - Ausbreitung energiereicher Elektronen in der Sonnenkorona beobachtet mit LOFAR N2 - This work reports about new high-resolution imaging and spectroscopic observations of solar type III radio bursts at low radio frequencies in the range from 30 to 80 MHz. Solar type III radio bursts are understood as result of the beam-plasma interaction of electron beams in the corona. The Sun provides a unique opportunity to study these plasma processes of an active star. Its activity appears in eruptive events like flares, coronal mass ejections and radio bursts which are all accompanied by enhanced radio emission. Therefore solar radio emission carries important information about plasma processes associated with the Sun’s activity. Moreover, the Sun’s atmosphere is a unique plasma laboratory with plasma processes under conditions not found in terrestrial laboratories. Because of the Sun’s proximity to Earth, it can be studied in greater detail than any other star but new knowledge about the Sun can be transfer to them. This “solar stellar connection” is important for the understanding of processes on other stars. The novel radio interferometer LOFAR provides imaging and spectroscopic capabilities to study these processes at low frequencies. Here it was used for solar observations. LOFAR, the characteristics of its solar data and the processing and analysis of the latter with the Solar Imaging Pipeline and Solar Data Center are described. The Solar Imaging Pipeline is the central software that allows using LOFAR for solar observations. So its development was necessary for the analysis of solar LOFAR data and realized here. Moreover a new density model with heat conduction and Alfvén waves was developed that provides the distance of radio bursts to the Sun from dynamic radio spectra. Its application to the dynamic spectrum of a type III burst observed on March 16, 2016 by LOFAR shows a nonuniform radial propagation velocity of the radio emission. The analysis of an imaging observation of type III bursts on June 23, 2012 resolves a burst as bright, compact region localized in the corona propagating in radial direction along magnetic field lines with an average velocity of 0.23c. A nonuniform propagation velocity is revealed. A new beam model is presented that explains the nonuniform motion of the radio source as a propagation effect of an electron ensemble with a spread velocity distribution and rules out a monoenergetic electron distribution. The coronal electron number density is derived in the region from 1.5 to 2.5 R☉ and fitted with the newly developed density model. It determines the plasma density for the interplanetary space between Sun and Earth. The values correspond to a 1.25- and 5-fold Newkirk model for harmonic and fundamental emission, respectively. In comparison to data from other radio instruments the LOFAR data shows a high sensitivity and resolution in space, time and frequency. The new results from LOFAR’s high resolution imaging spectroscopy are consistent with current theories of solar type III radio bursts and demonstrate its capability to track fast moving radio sources in the corona. LOFAR solar data is found to be a valuable source for solar radio physics and opens a new window for studying plasma processes associated with highly energetic electrons in the solar corona. N2 - Diese Arbeit befasst sich mit neuen hochaufgelösten abbildenden und spektroskopischen Beobachtungen von solaren Typ III Radiobursts bei niedrigen Frequenzen im Bereich von 30 bis 80 MHz. Solare Typ III Radiobursts werden auf die Beam-Plasmawechselwirkung von Elektronenstrahlen in der Korona zurückgeführt. Die Sonne stellt eine einzigartige Möglichkeit dar, diese Plasmaprozesse eines aktiven Sterns zu untersuchen. Die Aktivität zeigt sich in eruptiven Ereignissen wie Flares, koronalen Massenauswürfen und Radiobursts, die jeweils von erhöhter Radiostrahlung begleitet werden. Daher trägt solare Radioemission wichtige Informationen über Plasmaprozesse, die mit Sonnenaktivität in Verbindung stehen. Darüber hinaus ist die Sonne auch ein einzigartiges Plasmalabor mit Plasmaprozessen unter Bedingungen die man nicht in irdischen Laboren findet. Aufgrund ihres vergleichsweise geringen Abstands kann man die Sonne wesentlich genauer beobachten als andere Sterne, aber neue Erkenntnisse von ihr auf andere Sterne übertragen. Diese “Solare-Stellare Verbindung” ist wichtig um Prozesse auf anderen Sternen zu verstehen. Das neue Radiointerferometer LOFAR bietet abbildende und spektroskopische Möglichkeiten, um diese Prozesse bei niedrigen Frequenzen zu untersuchen und wurde hier für Sonnenbeobachtungen genutzt. LOFAR, die Besonderheiten seiner Sonnendaten sowie das Verarbeiten und Analysieren dieser Daten mit der Solar Imaging Pipeline und dem Solar Data Center werden beschrieben. Die Solar Imaging Pipeline ist die zentrale Software, die die Nutzung von LOFAR für Sonnenbeobachtungen ermöglicht. Daher war deren Entwicklung für die Analyse von Sonnendaten notwendig und ist im Rahmen dieser Arbeit erfolgt. Außerdem wurde ein neues Dichtemodell mit Wärmeleitung und Alfvén-Wellen entwickelt, welches die Bestimmung der Entfernung von Radiobursts zur Sonne mittels dynamischer Spektren ermöglicht. Die Anwendung auf dynamische Spektren eines LOFAR Typ III Bursts am 16. März 2016 zeigt eine radiale, ungleichförmige Ausbreitungsgeschwindigkeit der Radioemission. Die Analyse einer abbildenden Beobachtung von Typ III Bursts am 23. Juni 2012 zeigt den Burst als helle, kompakte Region in der Korona die sich in radiale Richtung entlang magnetischer Feldlinien mit einer durchschnittlichen Geschwindigkeit von 0.23c (c, Lichtgeschwindigkeit) bewegt. Die Geschwindigkeit ist nicht gleichförmig. Ein neues Beammodell wird vorgestellt, dass diese ungleichförmige Geschwindigkeit als Ausbreitungseffekt eines Elektronenensemble mit einer ausgedehnten Geschwindigkeitsverteilung erklärt und eine monoenergetische Elektronenverteilung ausschließt. Die koronale Elektronenzahldichte wird in der Region von 1.5 bis 2.5 R☉ ermittelt und ein Fit mit dem neuen Dichtemodell durchgeführt. Dadurch ist die Plasmadichte im ganzen interplanetaren Raum zwischen Sonne und Erde bestimmt. Die Werte entsprechen jeweils einem 1.25- und 5-fachen Newkirk Modell im Fall von fundamentaler und harmonischer Emission. Im Vergleich zu Daten von anderen Radioinstrumenten haben LOFAR-Daten eine hohe Empfindlichkeit und Auflösung in Raum, Zeit und Frequenz. Die neuen Ergebnisse von LOFARs hochauflösender, abbildender Spektroskopie stimmen mit derzeitigen Theorien von solaren Typ III Radiobursts überein und zeigen die Möglichkeit, schnell bewegliche Radioquellen in der Korona zu verfolgen. LOFAR Sonnendaten wurden als wertvolle Quelle für solare Radiophysik erkannt und öffnen eine neues Fenster zur Untersuchung von Plasmaprozessen hochenergetischer Elektronen in der Korona. KW - sun KW - type III KW - radio burst KW - LOFAR KW - plasma physics KW - Sonne KW - Typ III KW - Radioburst KW - Plasmaphysik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396893 ER - TY - THES A1 - Vacogne, Charlotte D. T1 - New synthetic routes towards well-defined polypeptides, morphologies and hydrogels T1 - Neue Syntheserouten zu wohldefinierten Polypeptiden, Morphologien und Hydrogelen N2 - Proteins are natural polypeptides produced by cells; they can be found in both animals and plants, and possess a variety of functions. One of these functions is to provide structural support to the surrounding cells and tissues. For example, collagen (which is found in skin, cartilage, tendons and bones) and keratin (which is found in hair and nails) are structural proteins. When a tissue is damaged, however, the supporting matrix formed by structural proteins cannot always spontaneously regenerate. Tailor-made synthetic polypeptides can be used to help heal and restore tissue formation. Synthetic polypeptides are typically synthesized by the so-called ring opening polymerization (ROP) of α-amino acid N-carboxyanhydrides (NCA). Such synthetic polypeptides are generally non-sequence-controlled and thus less complex than proteins. As such, synthetic polypeptides are rarely as efficient as proteins in their ability to self-assemble and form hierarchical or structural supramolecular assemblies in water, and thus, often require rational designing. In this doctoral work, two types of amino acids, γ-benzyl-L/D-glutamate (BLG / BDG) and allylglycine (AG), were selected to synthesize a series of (co)polypeptides of different compositions and molar masses. A new and versatile synthetic route to prepare polypeptides was developed, and its mechanism and kinetics were investigated. The polypeptide properties were thoroughly studied and new materials were developed from them. In particular, these polypeptides were able to aggregate (or self-assemble) in solution into microscopic fibres, very similar to those formed by collagen. By doing so, they formed robust physical networks and organogels which could be processed into high water-content, pH-responsive hydrogels. Particles with highly regular and chiral spiral morphologies were also obtained by emulsifying these polypeptides. Such polypeptides and the materials derived from them are, therefore, promising candidates for biomedical applications. N2 - Proteine, auch Polypeptide genannt, sind große Biomoleküle, die aus kleineren Aminosäuren bestehen. Diese sind zu langen Ketten miteinander verbunden, wie die Perlen auf einer Perlenkette. Sie werden in Zellen produziert, können in Tieren und Pflanzen gefunden werden und haben vielfältige Funktionen. Eine dieser Funktionen ist es, die umgebenen Zellen und Gewebe wie ein Gerüst zu stützen. Kollagen (welches in Haut, Knorpel, Sehnen und Knochen zu finden ist) und Keratin (welches in Haaren und Nägeln vorkommt) gehören zu diesen Strukturproteinen. Jedoch wenn ein Gewebe beschädigt ist, beispielsweise als Folge eines Unfalls, kann sich das Grundgerüst aus diesen Strukturproteinen manchmal nicht mehr selbst regenerieren. Maßgefertigte synthetische Polypeptide, können dafür verwendet werden, die Heilung und Wiederherstellung des Gewebes zu Unterstützen. Diese Polypeptide werden mit einer Reihe an chemischen Reaktionen synthetisiert, welche hauptsächlich darauf abzielen Aminosäuren miteinander zu verknüpfen. Synthetische Polypeptide sind weniger Komplex als die von Zellen hergestellten, natürlichen Polypeptide (Proteine). Während in den natürlichen Polypeptiden die Aminosäuren in einer von der DNA definierten Reihenfolge, welche als Sequenz bezeichnet wird, angeordnet sind, sind sie in synthetischen Polypeptiden zumeist zufällig verteilt. Die Konsequenz daraus ist, dass synthetische Polypeptide nicht immer so Leistungsfähig sind wie natürliche Proteine und ein durchdachtes Design benötigen. Zwei Aminosäuren wurden in dieser Dissertation sorgfältig ausgewählt und verwendet um eine Serie an Polypeptiden mit unterschiedlicher Zusammensetzung und Länge zu synthetisieren. Ein neuer und vielseitiger Syntheseweg wurde ebenfalls entwickelt und der zugrundeliegende Mechanismus untersucht. Die Polypeptide wurden gründlich analysiert und neue Materialien wurden aus ihnen entwickelt. In Lösung gebracht formten diese Fasern, ähnlich denen von Kollagen, welche sich wiederum zu robusten Netzwerken anordneten. Aus diesen Netzwerken ließen sich Hydrogele herstellen, welche in der Lage waren große Mengen an Wasser aufzunehmen. Diese Hydrogele wiederum stellen vielversprechende Kandidaten für biomedizinische Anwendungen dar. KW - polymer KW - chemistry KW - biomaterial KW - polymerization KW - kinetics KW - polypeptide KW - colloid KW - gelation KW - hydrogel KW - organogel KW - secondary structure KW - physical KW - NCA KW - N-carboxyanhydride KW - Polymer KW - Chemie KW - Biomaterial KW - Polymerisation KW - Kinetik KW - Polypeptid KW - Kolloid KW - Gelieren KW - Hydrogel KW - Organogel KW - Sekundärstruktur KW - physikalisch KW - NCA KW - N-carboxyanhydrid Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396366 ER - TY - THES A1 - Castino, Fabiana T1 - Climate variability and extreme hydro-meteorological events in the Southern Central Andes, NW Argentina T1 - Klimavariabilität und extreme hydro-meteorologische Ereignisse in den südlichen Zentralanden, NW Argentinien N2 - Extreme hydro-meteorological events, such as severe droughts or heavy rainstorms, constitute primary manifestations of climate variability and exert a critical impact on the natural environment and human society. This is particularly true for high-mountain areas, such as the eastern flank of the southern Central Andes of NW Argentina, a region impacted by deep convection processes that form the basis of extreme events, often resulting in floods, a variety of mass movements, and hillslope processes. This region is characterized by pronounced E-W gradients in topography, precipitation, and vegetation cover, spanning low to medium-elevation, humid and densely vegetated areas to high-elevation, arid and sparsely vegetated environments. This strong E-W gradient is mirrored by differences in the efficiency of surface processes, which mobilize and transport large amounts of sediment through the fluvial system, from the steep hillslopes to the intermontane basins and further to the foreland. In a highly sensitive high-mountain environment like this, even small changes in the spatiotemporal distribution, magnitude and rates of extreme events may strongly impact environmental conditions, anthropogenic activity, and the well-being of mountain communities and beyond. However, although the NW Argentine Andes comprise the catchments for the La Plata river that traverses one of the most populated and economically relevant areas of South America, there are only few detailed investigations of climate variability and extreme hydro-meteorological events. In this thesis, I focus on deciphering the spatiotemporal variability of rainfall and river discharge, with particular emphasis on extreme hydro-meteorological events in the subtropical southern Central Andes of NW Argentina during the past seven decades. I employ various methods to assess and quantify statistically significant trend patterns of rainfall and river discharge, integrating high-quality daily time series from gauging stations (40 rainfall and 8 river discharge stations) with gridded datasets (CPC-uni and TRMM 3B42 V7), for the period between 1940 and 2015. Evidence for a general intensification of the hydrological cycle at intermediate elevations (~ 0.5 – 3 km asl) at the eastern flank of the southern Central Andes is found both from rainfall and river-discharge time-series analysis during the period from 1940 to 2015. This intensification is associated with the increase of the annual total amount of rainfall and the mean annual discharge. However, most pronounced trends are found at high percentiles, i.e. extreme hydro-meteorological events, particularly during the wet season from December to February.An important outcome of my studies is the recognition of a rapid increase in the amount of river discharge during the period between 1971 and 1977, most likely linked to the 1976-77 global climate shift, which is associated with the North Pacific Ocean sea surface temperature variability. Interestingly, after this rapid increase, both rainfall and river discharge decreased at low and intermediate elevations along the eastern flank of the Andes. In contrast, during the same time interval, at high elevations, extensive areas on the arid Puna de Atacama plateau have recorded increasing annual rainfall totals. This has been associated with more intense extreme hydro-meteorological events from 1979 to 2014. This part of the study reveals that low-, intermediate, and high-elevation sectors in the Andes of NW Argentina respond differently to changing climate conditions. Possible forcing mechanisms of the pronounced hydro-meteorological variability observed in the study area are also investigated. For the period between 1940 and 2015, I analyzed modes of oscillation of river discharge from small to medium drainage basins (102 to 104 km2), located on the eastern flank of the orogen. First, I decomposed the relevant monthly time series using the Hilbert-Huang Transform, which is particularly appropriate for non-stationary time series that result from non-linear natural processes. I observed that in the study region discharge variability can be described by five quasi-periodic oscillatory modes on timescales varying from 1 to ~20 years. Secondly, I tested the link between river-discharge variations and large-scale climate modes of variability, using different climate indices, such as the BEST ENSO (Bivariate El Niño-Southern Oscillation Time-series) index. This analysis reveals that, although most of the variance on the annual timescale is associated with the South American Monsoon System, a relatively large part of river-discharge variability is linked to Pacific Ocean variability (PDO phases) at multi-decadal timescales (~20 years). To a lesser degree, river discharge variability is also linked to the Tropical South Atlantic (TSA) sea surface temperature anomaly at multi-annual timescales (~2-5 years). Taken together, these findings exemplify the high degree of sensitivity of high-mountain environments with respect to climatic variability and change. This is particularly true for the topographic transitions between the humid, low-moderate elevations and the semi-arid to arid highlands of the southern Central Andes. Even subtle changes in the hydro-meteorological regime of these areas of the mountain belt react with major impacts on erosional hillslope processes and generate mass movements that fundamentally impact the transport capacity of mountain streams. Despite more severe storms in these areas, the fluvial system is characterized by pronounced variability of the stream power on different timescales, leading to cycles of sediment aggradation, the loss of agriculturally used land and severe impacts on infrastructure. N2 - Extreme hydro-meteorologische Ereignisse, wie langanhaltende Dürren oder Starkregen, gelten als Haupterscheinungsform der Klimavariabilität und haben einen entscheidenden Einfluss auf Umwelt und Gesellschaft. Dies gilt im Besonderen für die großen Gebirgsregionen dieser Erde. In einer extrem sensiblen Hochgebirgsregion wie den NW argentinischen Anden haben selbst geringe Veränderungen in der Intensität solcher Extremereignisse, sowie deren Häufigkeit und räumliche Verteilung, nicht nur einen großen Einfluss auf die Landschaftsentwicklung; flussabwärtsliegende Gemeinden sind zudem wirtschaftlich als auch humanitär einem hohen Risiko ausgesetzt. Die vorliegende Arbeit befasst sich im Wesentlichen mit der räumlich-zeitlichen Verteilung von Niederschlags- und Abflussmengen über den Zeitraum der letzten sieben Jahrzente, mit besonderem Fokus auf extreme hydro-meteorologische Ereignisse der subtropischen Zentralanden NW-Argentiniens. Um räumliche und zeitliche statistisch signifikante Trends der Niederschlags- und Abflussmengen bestimmen und quantifizieren zu können, finden in dieser Arbeit verschiedene Methoden Anwendung, in denen hochaufgelöste Zeitreihen von Niederschlags- und Abflussmengenstationen mit diversen Rasterdatensätzen von 1940 bis 2015 kombiniert werden. Über den betrachteten Zeitraum hinweg lässt sich eine allgemeine Intensivierung des hydrologischen Kreislaufes auf mittleren Höhen (500 - 3.000 m ü. NN) belegen. Diese Intensivierung steht einerseits im Zusammenhang mit dem Ansteigen von Extremwetterereignissen, besonders während der Regenzeit von Dezember bis Februar. Der beobachtete Anstieg in der Intensität dieser Wetterlagen deutet auf einen Zusammenhang der schweren Regenstürme und der Verlandung der Abflussbecken in der untersuchten, intermontanen Region hin. Ein rapider Anstieg in der Abflussmenge in Flüssen um bis zu 40% ist für den Zeitraum zwischen 1971 und 1977 dokumentiert. Dieser steht höchstwahrscheinlich mit der globalen Klimaverschiebung von 1976-77 in Zusammenhang, welche wiederum durch die Variabilität der Oberflächentemperatur des Pazifischen Ozeans beeinflusst wird. Nach diesem starken Anstieg können jedoch abnehmende Trends in Niederschlags- wie auch Abflussmengen auf niedrigen und mittleren Höhen der Ostflanken der Anden beobachtet werden. Im Gegensatz dazu belegen ein Anstieg der jährlichen Gesamtniederschlagsmenge sowie der Magnitude von extremen hydro-meterologischen Ereignissen in hohen Höhenlagen der trockenen Puna de Atacama Plateaus, dass niedrige, mittlere und hohe Sektoren der NW argentinischen Anden unterschiedlich auf Änderungen des Klimas reagieren. Schlussendlich kann die in der Region beobachtete, stark ausgeprägte Variabilität in der Hydro-meteorologie über jährliche Zeiträume zum größten Teil mit dem Südamerikanischen Monsunsystem erklärt werden. Jedoch sind große Anteile in der Variabilität der Abflussmenge auch stark an die Pazifische Dekaden-Oszillation (PDO) in Zeiträumen über mehrereJahrzehnte (~20 Jahre) gekoppelt und zu einem geringeren Anteil auch an die Meeresoberflächentemperatur-Anomalie des tropischen Südatlantiks (TSA) über mehrjährige Zeiträume hinweg (~2-5 Jahre). Interessanterweise wurden nur weniger stark ausgeprägte Zusammenhänge zwischen der Abflussvariabilität und El Niño-Southern Oscillation in unserem Untersuchungsgebiet gefunden. KW - climate variability KW - extreme hydrometeorological events KW - Central Andes KW - Klimavariabilität KW - extreme hydro-meteorologische Ereignisse KW - Zentralanden Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396815 ER - TY - THES A1 - Fournier, Yori T1 - Dynamics of the rise of magnetic flux tubes in stellar interiors BT - a numerical study of compressible non-axisymmetric flux tubes N2 - In sonnenähnlichen Sternen erhält ein Dynamo-Mechanismus die Magnetfelder. Der Babcock-Leighton-Dynamo beruht auf einem solchen Mechanismus und erfordert insbesondere die Existenz von magnetischen Flussröhren. Man nimmt an, dass magnetische Flussröhren am Boden der Konvetionszone entstehen und durch Auftrieb bis zur Oberfläche steigen. Es wird ein spezielles Dynamomodell vorgeschlagen, in dem der Verzögerungseffekt durch das Aufsteigen der Flussröhren berücksichtigt wird. Die vorliegende Dissertation beschäftigt sich mit der Anwendbarkeit des Babcock-Leighton-Dynamos auf andere Sterne. Zu diesem Zweck versuchen wir, die Aufstiegszeiten von magnetischen Flussröhren mit Hilfe von kompressiblen MHD-Simulationen in spärischen Kugelschalen mit Dichteschichtung zu bestimmen und einzugrenzen. Derartige Simulationen sind allerdings nur in einem unrealistischen Parameterbereich möglich. Deshalb ist eine Skalierungsrelation nötig, die die Ergebnisse auf realistische physikalische Regimes überträgt. Wir erweitern frühere Arbeiten zu Skalierungsrelationen in 2D und leiten ein allgemeines Skalierungsgesetz ab, das für 2D- und 3D-Flussröhren gültig ist. In einem umfangreichen Satz von numerischen Simulationen zeigen wir, dass die abgeleitete Skalierungsrelation auch im vollständig nichtlinearen Fall gilt. Wir haben damit ein Gesetz für die Aufstiegszeit von magnetischen Flussröhren gefunden, dass in jedem sonnenähnlichen Stern Gültigkeit hat. Schließlich implementieren wir dieses Gesetz in einem Dynamomodell mit Verzögerungsterm. Die Simulationen eines solchen verzögerten Flussröhren/Babcock-Leighton-Dynamos auf der Basis der Meanfield-Formulierung führten auf ein neues Dynamo-Regime, das nur bei Anwesenheit der Verzögerung existiert. Die erforderlichen Verzögerungen sind von der Gröÿenordnung der Zykluslänge, die resultierenden Magnetfelder sind schwächer als die Äquipartitions-Feldstärke. Dieses neue Regime zeigt, dass auch bei sehr langen Aufstiegszeiten der Flussröhren/Babcock-Leighton-Dynamo noch nichtzerfallende Lösungen liefern und daher auf ein breites Spektrum von Sternen anwendbar sein kann. N2 - Solar-like stars maintain their magnetic fields thanks to a dynamo mechanism. The Babcock-Leighton dynamo is one possible dynamo that has the particularity to require magnetic flux tubes. Magnetic flux tubes are assumed to form at the bottom of the convective zone and rise buoyantly to the surface. A delayed dynamo model has been suggested, where the delay accounts for the rise time of the magnetic flux tubes; a time, that has been ignored by former studies. The present thesis aims to study the applicability of the flux tube/Babcock-Leighton dynamo to other stars. To do so, we attempt to constrain the rise time of magnetic flux tubes thanks to the first fully compressible MHD simulations of rising magnetic flux tubes in stratified rotating spherical shells. Such simulations are limited to an unrealistic parameter space, therefore, a scaling relation is required to scale the results to realistic physical regimes. We extended earlier works on 2D scaling relations and derived a general scaling law valid for both 2D and 3D. We then carried out two large series of numerical experiments and verified that the scaling law we have derived indeed applies to the fully non-linear case. It allowed us to extract a constraint for the rise time of magnetic flux tubes that is valid for any solar-like star. We finally introduced this constraint to a delayed dynamo model. By carrying out simulations of a mean-field, delayed, flux tube/Babcock-Leighton dynamo, we were able to identify a new dynamo regime resulting from the delay. This regime requires delays about an entire cycle and exhibits subequipartition magnetic activity. Revealing this new regime shows that even for long delays the flux tube/Babcock-Leighton dynamo can still deliver non-decaying solutions and remains a good candidate for a wide range of solar-like stars. KW - astrophysics KW - stellar physics KW - magnetohydrodynamics (MHD) KW - numerical experiments KW - magnetic flux tubes KW - dynamo theory Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394533 ER - TY - THES A1 - Samaras, Stefanos T1 - Microphysical retrieval of non-spherical aerosol particles using regularized inversion of multi-wavelength lidar data T1 - Retrieval der Mikrophysik von nichtkugelförmigen Aerosolpartikeln durch regularisierte Inversion von Mehrwellenlängen-Lidardaten N2 - Numerous reports of relatively rapid climate changes over the past century make a clear case of the impact of aerosols and clouds, identified as sources of largest uncertainty in climate projections. Earth’s radiation balance is altered by aerosols depending on their size, morphology and chemical composition. Competing effects in the atmosphere can be further studied by investigating the evolution of aerosol microphysical properties, which are the focus of the present work. The aerosol size distribution, the refractive index, and the single scattering albedo are commonly used such properties linked to aerosol type, and radiative forcing. Highly advanced lidars (light detection and ranging) have reduced aerosol monitoring and optical profiling into a routine process. Lidar data have been widely used to retrieve the size distribution through the inversion of the so-called Lorenz-Mie model (LMM). This model offers a reasonable treatment for spherically approximated particles, it no longer provides, though, a viable description for other naturally occurring arbitrarily shaped particles, such as dust particles. On the other hand, non-spherical geometries as simple as spheroids reproduce certain optical properties with enhanced accuracy. Motivated by this, we adapt the LMM to accommodate the spheroid-particle approximation introducing the notion of a two-dimensional (2D) shape-size distribution. Inverting only a few optical data points to retrieve the shape-size distribution is classified as a non-linear ill-posed problem. A brief mathematical analysis is presented which reveals the inherent tendency towards highly oscillatory solutions, explores the available options for a generalized solution through regularization methods and quantifies the ill-posedness. The latter will improve our understanding on the main cause fomenting instability in the produced solution spaces. The new approach facilitates the exploitation of additional lidar data points from depolarization measurements, associated with particle non-sphericity. However, the generalization of LMM vastly increases the complexity of the problem. The underlying theory for the calculation of the involved optical cross sections (T-matrix theory) is computationally so costly, that would limit a retrieval analysis to an unpractical point. Moreover the discretization of the model equation by a 2D collocation method, proposed in this work, involves double integrations which are further time consuming. We overcome these difficulties by using precalculated databases and a sophisticated retrieval software (SphInX: Spheroidal Inversion eXperiments) especially developed for our purposes, capable of performing multiple-dataset inversions and producing a wide range of microphysical retrieval outputs. Hybrid regularization in conjunction with minimization processes is used as a basis for our algorithms. Synthetic data retrievals are performed simulating various atmospheric scenarios in order to test the efficiency of different regularization methods. The gap in contemporary literature in providing full sets of uncertainties in a wide variety of numerical instances is of major concern here. For this, the most appropriate methods are identified through a thorough analysis on an overall-behavior basis regarding accuracy and stability. The general trend of the initial size distributions is captured in our numerical experiments and the reconstruction quality depends on data error level. Moreover, the need for more or less depolarization points is explored for the first time from the point of view of the microphysical retrieval. Finally, our approach is tested in various measurement cases giving further insight for future algorithm improvements. N2 - Zahlreiche Berichte von relativ schnellen Klimaveränderungen im vergangenen Jahrhundert liefern überzeugende Argumente über die Auswirkungen von Aerosolen und Wolken auf Wetter und Klima. Aerosole und Wolken wurden als Quellen größter Unsicherheit in Klimaprognosen identifiziert. Die Strahlungsbilanz der Erde wird verändert durch die Partikelgröße, ihre Morphologie und ihre chemische Zusammensetzung. Konkurrierende Effekte in der Atmosphäre können durch die Bestimmung von mikrophysikalischen Partikeleigenschaften weiter untersucht werden, was der Fokus der vorliegenden Arbeit ist. Die Aerosolgrößenverteilung, der Brechungsindex der Partikeln und die Einzel-Streu-Albedo sind solche häufig verwendeten Parameter, die mit dem Aerosoltyp und dem Strahlungsantrieb verbunden sind. Hoch entwickelte Lidare (Light Detection and Ranging) haben die Aerosolüberwachung und die optische Profilierung zu einem Routineprozess gemacht. Lidar-Daten wurden verwendet um die Größenverteilung zu bestimmen, was durch die Inversion des sogenannten Lorenz-Mie-Modells (LMM) gelingt. Dieses Modell bietet eine angemessene Behandlung für sphärisch angenäherte Partikeln, es stellt aber keine brauchbare Beschreibung für andere natürlich auftretende beliebig geformte Partikeln -wie z.B. Staubpartikeln- bereit. Andererseits stellt die Einbeziehung einer nicht kugelförmigen Geometrie –wie z.B. einfache Sphäroide- bestimmte optische Eigenschaften mit verbesserter Genauigkeit dar. Angesichts dieser Tatsache erweitern wir das LMM durch die Approximation von Sphäroid-Partikeln. Dazu ist es notwendig den Begriff einer zweidimensionalen Größenverteilung einzuführen. Die Inversion einer sehr geringen Anzahl optischer Datenpunkte zur Bestimmung der Form der Größenverteilung ist als ein nichtlineares schlecht gestelltes Problem bekannt. Eine kurze mathematische Analyse wird vorgestellt, die die inhärente Tendenz zu stark oszillierenden Lösungen zeigt. Weiterhin werden Optionen für eine verallgemeinerte Lösung durch Regularisierungsmethoden untersucht und der Grad der Schlechtgestelltheit quantifiziert. Letzteres wird unser Verständnis für die Hauptursache der Instabilität bei den berechneten Lösungsräumen verbessern. Der neue Ansatz ermöglicht es uns, zusätzliche Lidar-Datenpunkte aus Depolarisationsmessungen zu nutzen, die sich aus der Nicht-sphärizität der Partikeln assoziieren. Die Verallgemeinerung des LMMs erhöht erheblich die Komplexität des Problems. Die zugrundeliegende Theorie für die Berechnung der beteiligten optischen Querschnitte (T-Matrix-Ansatz) ist rechnerisch so aufwendig, dass eine Neuberechnung dieser nicht sinnvoll erscheint. Darüber hinaus wird ein zweidimensionales Kollokationsverfahren für die Diskretisierung der Modellgleichung vorgeschlagen. Dieses Verfahren beinhaltet Doppelintegrationen, die wiederum zeitaufwendig sind. Wir überwinden diese Schwierigkeiten durch Verwendung vorgerechneter Datenbanken sowie einer hochentwickelten Retrieval-Software (SphInX: Spheroidal Inversion eXperiments). Diese Software wurde speziell für unseren Zweck entwickelt und ist in der Lage mehrere Datensatzinversionen gleichzeitig durchzuführen und eine große Auswahl von mikrophysikalischen Retrieval-Ausgaben bereitzustellen. Eine hybride Regularisierung in Verbindung mit einem Minimierungsverfahren wird als Grundlage für unsere Algorithmen verwendet. Synthetische Daten-Inversionen werden mit verschiedenen atmosphärischen Szenarien durchgeführt, um die Effizienz verschiedener Regularisierungsmethoden zu untersuchen. Die Lücke in der gegenwärtigen wissenschaftlichen Literatur gewisse Unsicherheiten durch breitgefächerte numerische Fälle bereitzustellen, ist ein Hauptanliegen dieser Arbeit. Motiviert davon werden die am besten geeigneten Verfahren einer gründlichen Analyse in Bezug auf ihr Gesamtverhalten, d.h. Genauigkeit und Stabilität, unterzogen. Der allgemeine Trend der Anfangsgrößenverteilung wird in unseren numerischen Experimenten erfasst. Zusätzlich hängt die Rekonstruktionsqualität vom Datenfehler ab. Darüber hinaus wird die Anzahl der notwendigen Depolarisationspunkte zum ersten Mal aus der Sicht des mikrophysikalischen Parameter-Retrievals erforscht. Abschließend verwenden wir unsere Software für verschiedene Messfälle, was weitere Einblicke für künftige Verbesserungen des Algorithmus gibt. KW - microphysics KW - retrieval KW - lidar KW - aerosols KW - regularization KW - ill-posed KW - inversion KW - Mikrophysik KW - Retrieval KW - Lidar KW - Aerosole KW - Regularisierung KW - schlecht gestellt KW - Inversion Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396528 ER - TY - THES A1 - Reeg, Sandra T1 - Degradation of oxidized proteins by the proteasome - Involvement of chaperones and the ubiquitin-system Y1 - 2016 ER - TY - THES A1 - Rieckh, Helene T1 - Hydropedological analysis of erosion-affected soils in a hummocky ground-moraine landscape - interactions of water flow, dissolved carbon and particle transport, grop growth, and pedogenesis Y1 - 2016 ER - TY - THES A1 - Reinke, Julia T1 - The Role of Kallistatin in Energy Metabolism and Glucose Homeostasis in Mice Y1 - 2016 ER - TY - THES A1 - Tamasi, Katalin T1 - Measuring children’s sensitivity to phonological detail using eye tracking and pupillometry T1 - Untersuchung der Sensitivität von Kleinkindern für phonologische Details mit Hilfe von Eye-Tracking und Pupillometrie N2 - Infants' lexical processing is modulated by featural manipulations made to words, suggesting that early lexical representations are sufficiently specified to establish a match with the corresponding label. However, the precise degree of detail in early words requires further investigation due to equivocal findings. We studied this question by assessing children’s sensitivity to the degree of featural manipulation (Chapters 2 and 3), and sensitivity to the featural makeup of homorganic and heterorganic consonant clusters (Chapter 4). Gradient sensitivity on the one hand and sensitivity to homorganicity on the other hand would suggest that lexical processing makes use of sub-phonemic information, which in turn would indicate that early words contain sub-phonemic detail. The studies presented in this thesis assess children’s sensitivity to sub-phonemic detail using minimally demanding online paradigms suitable for infants: single-picture pupillometry and intermodal preferential looking. Such paradigms have the potential to uncover lexical knowledge that may be masked otherwise due to cognitive limitations. The study reported in Chapter 2 obtained a differential response in pupil dilation to the degree of featural manipulation, a result consistent with gradient sensitivity. The study reported in Chapter 3 obtained a differential response in proportion of looking time and pupil dilation to the degree of featural manipulation, a result again consistent with gradient sensitivity. The study reported in Chapter 4 obtained a differential response to the manipulation of homorganic and heterorganic consonant clusters, a result consistent with sensitivity to homorganicity. These results suggest that infants' lexical representations are not only specific, but also detailed to the extent that they contain sub-phonemic information. N2 - Die lexikalische Verarbeitung bei Kleinkindern kann durch die Manipulation von phonologischen Merkmalen moduliert werden. Dies deutet darauf hin, dass frühe lexikalische Repräsentationen hinreichend spezifiziert sind, um einen Abgleich mit einem gehörten Wort herzustellen. Aufgrund von nicht einheitlichen Befunden ist jedoch weitere Forschung notwendig, um zu bestimmen, wie detailliert erste Wörter repräsentiert werden. Dieser Frage wurde nachgegangen, indem die Sensitivität der Kinder gegenüber dem Grad der Merkmalmanipulation (Kapitel 2 und 3) und gegenüber homorganischen und heterorganischen Konsonantenclustern (Kapitel 4) untersucht wurde. Eine gradiente Sensitivität gegenüber der Manipulation phonologischer Merkmale und eine Sensitivität gegenüber der Homorganizität deuten darauf hin, dass Gradientenempfindlichkeit auf der einen Seite und die Empfindlichkeit gegenüber der für die lexikalische Verarbeitung subphonemische Informationen relevant sind, was wiederum darauf schließen lässt, dass lexikalische Repräsentationen subphonemische Details enthalten. Die Studien, die in dieser Arbeit vorgestellt werden, untersuchen die Sensitivität von 30 Monate alten Kindern für subphonemische Details mit Online-Paradigmen, die für Kleinkinder geeignet sind: Einzelbild-Pupillometrie und "intermodal preferential looking". Diese Paradigmen haben das Potenzial, lexikalisches Wissen aufzudecken, das sonst aufgrund kognitiver Beanspruchungen verdeckt bleibt. Die in Kapitel 2 berichtete Studie zeigt eine differenzielle Reaktion in der Pupillendilatation in Verbindung mit dem Grad der Merkmalsmanipulation, ein Ergebnis, das die Sensitivität gegenüber der Gradienz der phonologischen Distanz nahelegt. Die Studie in Kapitel 3 zeigt eine differenzielle Reaktion sowohl in der Pupillendilatation auch in den Blickzeiten in Abhängigkeit vom Grad der phonologischen Merkmalmanipulation, ein Ergebnis das das der Studie 2 unterstützt. Die in Kapitel 4 berichtete Studie zeigt Unterschiede in der Pupillendilation nur in Reaktion auf eine phonologische Manipulation der homorganischen nicht aber der heterorganischen Konsonantencluster. Dieses Ergebnis stützt die Annahme, einer frühen Sensitivität gegenüber Homorganizität. Diese Ergebnisse deuten darauf hin, dass die lexikalischen Repräsentationen von Kleinkindern nicht nur spezifisch, sondern auch detailliert sind, da sie subphonemische Informationen enthalten. KW - phonological development KW - consonant clusters KW - mispronunciation detection KW - pupillometry KW - eye tracking KW - phonologische Entwicklung KW - Konsonantencluster KW - mispronunciation detection KW - Pupillometrie KW - Eye-Tracking Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395954 ER - TY - THES A1 - Barahimipour, Rouhollah T1 - Optimization of transgene expression in the nuclear genome of Chlamydomonas reinhardtii and characterization of Chlamydomonas expression strains Y1 - 2016 ER - TY - THES A1 - Wolter, Juliane T1 - Mid- to Late Holocene environmental dynamics on the Yukon Coastal Plain and Herschel Island (Canada) - envidence from polygonal peatlands and lake sediment Y1 - 2016 ER - TY - THES A1 - Cajar, Anke T1 - Eye-movement control during scene viewing T1 - Blicksteuerung bei der Betrachtung natürlicher Szenen BT - the roles of central and peripheral vision BT - die Rollen des zentralen und peripheren Sehens N2 - Eye movements serve as a window into ongoing visual-cognitive processes and can thus be used to investigate how people perceive real-world scenes. A key issue for understanding eye-movement control during scene viewing is the roles of central and peripheral vision, which process information differently and are therefore specialized for different tasks (object identification and peripheral target selection respectively). Yet, rather little is known about the contributions of central and peripheral processing to gaze control and how they are coordinated within a fixation during scene viewing. Additionally, the factors determining fixation durations have long been neglected, as scene perception research has mainly been focused on the factors determining fixation locations. The present thesis aimed at increasing the knowledge on how central and peripheral vision contribute to spatial and, in particular, to temporal aspects of eye-movement control during scene viewing. In a series of five experiments, we varied processing difficulty in the central or the peripheral visual field by attenuating selective parts of the spatial-frequency spectrum within these regions. Furthermore, we developed a computational model on how foveal and peripheral processing might be coordinated for the control of fixation duration. The thesis provides three main findings. First, the experiments indicate that increasing processing demands in central or peripheral vision do not necessarily prolong fixation durations; instead, stimulus-independent timing is adapted when processing becomes too difficult. Second, peripheral vision seems to play a prominent role in the control of fixation durations, a notion also implemented in the computational model. The model assumes that foveal and peripheral processing proceed largely in parallel and independently during fixation, but can interact to modulate fixation duration. Thus, we propose that the variation in fixation durations can in part be accounted for by the interaction between central and peripheral processing. Third, the experiments indicate that saccadic behavior largely adapts to processing demands, with a bias of avoiding spatial-frequency filtered scene regions as saccade targets. We demonstrate that the observed saccade amplitude patterns reflect corresponding modulations of visual attention. The present work highlights the individual contributions and the interplay of central and peripheral vision for gaze control during scene viewing, particularly for the control of fixation duration. Our results entail new implications for computational models and for experimental research on scene perception. N2 - Blickbewegungen stellen ein Fenster in aktuelle visuell-kognitive Prozesse dar und können genutzt werden um zu untersuchen wie Menschen natürliche Szenen wahrnehmen. Eine zentrale Frage ist, welche Rollen zentrales und peripheres Sehen für die Blicksteuerung in Szenen spielen, da sie Information unterschiedlich verarbeiten und auf verschiedene Aufgaben spezialisiert sind (Objektidentifikation bzw. periphere Zielauswahl). Jedoch ist kaum bekannt, welche Beiträge zentrale und periphere Verarbeitung für die Blicksteuerung in Szenen leisten und wie sie während der Fixation koordiniert werden. Des Weiteren wurden Einflussfaktoren auf Fixationsdauern bisher vernachlässigt, da die Forschung zur Szenenwahrnehmung hauptsächlich auf Einflussfaktoren auf Fixationsorte fokussiert war. Die vorliegende Arbeit hatte zum Ziel, das Wissen über die Beiträge des zentralen und peripheren Sehens zu räumlichen, aber vor allem zu zeitlichen Aspekten der Blicksteuerung in Szenen zu erweitern. In einer Serie von fünf Experimenten haben wir die Verarbeitungsschwierigkeit im zentralen oder peripheren visuellen Feld durch die Abschwächung selektiver Raumfrequenzanteile innerhalb dieser Regionen variiert. Des Weiteren haben wir ein computationales Modell zur Koordination von fovealer und peripherer Verarbeitung für die Kontrolle von Fixationsdauern entwickelt. Die Arbeit liefert drei Hauptbefunde. Erstens zeigen die Experimente, dass erhöhte Verarbeitungsanforderungen im zentralen oder peripheren visuellen Feld nicht zwangsläufig zu längeren Fixationsdauern führen; stattdessen werden Fixationsdauern stimulus-unabhängig gesteuert, wenn die Verarbeitung zu schwierig wird. Zweitens scheint peripheres Sehen eine entscheidene Rolle für die Kontrolle von Fixationsdauern zu spielen, eine Idee, die auch im computationalen Modell umgesetzt wurde. Das Modell nimmt an, dass foveale und periphere Verarbeitung während der Fixation weitgehend parallel und unabhängig ablaufen, aber interagieren können um Fixationsdauern zu modulieren. Wir schlagen somit vor, dass Änderungen in Fixationsdauern zum Teil auf die Interaktion von zentraler und peripherer Verarbeitung zurückgeführt werden können. Drittens zeigen die Experimente, dass räumliches Blickverhalten sich weitgehend an Verarbeitungsanforderungen anpasst und Betrachter Szenenregionen mit Raumfrequenzfilterung als Sakkadenziele vermeiden. Wir zeigen, dass diese Sakkadenamplitudeneffekte entsprechende Modulationen der visuellen Aufmerksamkeit reflektieren. Die vorliegende Arbeit hebt die einzelnen Beiträge und das Zusammenspiel zentralen und peripheren Sehens für die Blicksteuerung in der Szenenwahrnehmung hervor, besonders für die Kontrolle von Fixationsdauern. Unsere Ergebnisse geben neue Implikationen für computationale Modelle und experimentelle Forschung zur Szenenwahrnehmung. KW - psychology KW - eye movements KW - scene perception KW - Psychologie KW - Blickbewegungen KW - Szenenwahrnehmung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395536 ER - TY - THES A1 - Schrön, Martin T1 - Cosmic-ray neutron sensing and its applications to soil and land surface hydrology T1 - Neutronen aus kosmischer Strahlung und deren Anwendung für Boden- und Landoberflächen-Hydrologie BT - on neutron physics, method development, and soil moisture estimation across scales N2 - Water scarcity, adaption on climate change, and risk assessment of droughts and floods are critical topics for science and society these days. Monitoring and modeling of the hydrological cycle are a prerequisite to understand and predict the consequences for weather and agriculture. As soil water storage plays a key role for partitioning of water fluxes between the atmosphere, biosphere, and lithosphere, measurement techniques are required to estimate soil moisture states from small to large scales. The method of cosmic-ray neutron sensing (CRNS) promises to close the gap between point-scale and remote-sensing observations, as its footprint was reported to be 30 ha. However, the methodology is rather young and requires highly interdisciplinary research to understand and interpret the response of neutrons to soil moisture. In this work, the signal of nine detectors has been systematically compared, and correction approaches have been revised to account for meteorological and geomagnetic variations. Neutron transport simulations have been consulted to precisely characterize the sensitive footprint area, which turned out to be 6--18 ha, highly local, and temporally dynamic. These results have been experimentally confirmed by the significant influence of water bodies and dry roads. Furthermore, mobile measurements on agricultural fields and across different land use types were able to accurately capture the various soil moisture states. It has been further demonstrated that the corresponding spatial and temporal neutron data can be beneficial for mesoscale hydrological modeling. Finally, first tests with a gyrocopter have proven the concept of airborne neutron sensing, where increased footprints are able to overcome local effects. This dissertation not only bridges the gap between scales of soil moisture measurements. It also establishes a close connection between the two worlds of observers and modelers, and further aims to combine the disciplines of particle physics, geophysics, and soil hydrology to thoroughly explore the potential and limits of the CRNS method. N2 - Wasserknappheit, Anpassung an Klimaveränderungen, und Gefahrenabschätzungen von Dürren und Fluten sind heutzutage dringende Themen für Forschung und Gesellschaft. Vorallem um die Auswirkungen auf Wetter und Landwirtschaft zu verstehen und vorherzusagen, ist es wichtig, den Wasserkreislauf der Erde zu beobachten und zu simulieren. In diesem System spielt Bodenfeuchte eine Schlüsselrolle, welche den Wasseraustausch zwischen Boden, Luft, und Pflanzen bestimmt. Daher sind ausgeklügelte Messtechnologien erforderlich, welche Bodenfeuchte von kleinen Ackerschlägen bis hin zu großen Gebieten erfassen können. Die neuartige Methode, Neutronen aus kosmischer Strahlung zu messen (CRNS), ist eine vielversprechende Technologie um die Lücke zwischen Punktmessungen und Fernerkundungen zu schließen, da der Einflussbereich des Sensors bei ca. 30 ha liegen soll. Allerdings ist intensive interdisziplinäre Forschung nötig, um die Beziehung zwischen Neutronen und Bodefeuchte zu verstehen. In dieser Arbeit wurden erstmals verschiedene Sensoren systematisch miteinander verglichen, und die bisherigen Korrekturen für meteorologische und geomagnetische Einflüsse näher untersucht. Darüber hinaus wurden Simulationen der Neutronenphysik herangezogen, um den Einflussbereich des Sensors genauestens zu charakterisieren. Demnach ist der Sensor je nach Umgebungsfeuchte hauptsächlich in der Fläche von ca. 6--18 ha, sowie besonders im Nahbereich, sensitiv. Diese Resultate konnten durch Experimente nahe Gewässern und Straßen bestätigt werden. Dennoch ist die Methode nachwievor sehr gut in der Lage, die Bodenfeuchte in Ackerflächen, Grasland und auch Wäldern zu erfassen. Zudem wurde gezeigt, dass sich die räumlichen und zeitlichen Neutronen-Daten gut für die hydrologische Modellierung eignen. Abschließend wurde eine neue Möglichkeit untersucht, um Neutronen aus der Luft mit einem Traghubschrauber in noch größeren Gebieten zu messen. Diese Dissertation untersucht die CRNS-Methode auf verschiedenen Skalen, und verknüpft dabei Beobachtung mit Modellierung. Außerdem verbindet diese Arbeit die verschiedenen Disziplinen der Teilchenphysik, Geophysik, und Bodenhydrologie, um das Potential und die Grenzen der Methode ganzheitlich zu beurteilen. KW - soil moisture KW - hydrology KW - cosmic rays KW - neutrons KW - water monitoring KW - Bodenfeuchte KW - Hydrologie KW - kosmische Strahlung KW - Neutronen KW - Wasser-Monitoring Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395433 SN - 978-3-8439-3139-7 PB - Verlag Dr. Hut GmbH CY - München ER - TY - THES A1 - Soriano, Manuel Flores T1 - Short-term evolution and coexistence of photospheric and chromospheric activity on LQ Hydrae Y1 - 2016 ER - TY - THES A1 - Rottstock, Tanja T1 - Effects of plant community diversity and composition on fungal pathogens in experimental grasslands Y1 - 2016 ER - TY - THES A1 - Niemeyer, Bastian T1 - Vegetation reconstruction and assessment of plant diversity at the treeline ecotone in northern Siberia Y1 - 2016 ER - TY - THES A1 - Brzezinka, Magdalena T1 - Investigation of novel proteins and polysaccharides associated with coccoliths of Emiliania huxleyi Y1 - 2016 ER - TY - THES A1 - Markova, Mariya T1 - Metabolic and molecular effects of two different isocaloric high protein diets in subjects with type 2 diabetes T1 - Metabolische und molekulare Effekte zweier isokalorischer Hochproteindiäten unterschiedlicher Herkunft bei Probanden mit Typ-2-Diabetes N2 - Ernährung stellt ein wichtiger Faktor in der Prävention und Therapie von Typ-2-Diabetes dar. Frühere Studien haben gezeigt, dass Hochproteindiäten sowohl positive als auch negative Effekte auf den Metabolismus hervorrufen. Jedoch ist unklar, ob die Herkunft des Proteins dabei eine Rolle spielt. In der LeguAN-Studie wurden die Effekte von zwei unterschiedlichen Hochproteindiäten, entweder tierischer oder pflanzlicher Herkunft, bei Typ-2-Diabetes Patienten untersucht. Beide Diäten enthielten 30 EN% Proteine, 40 EN% Kohlenhydrate und 30 EN% Fette. Der Anteil an Ballaststoffen, der glykämischer Index und die Fettkomposition waren in beiden Diäten ähnlich. Die Proteinaufnahme war höher, während die Fettaufnahme niedriger im Vergleich zu den früheren Ernährungsgewohnheiten der Probanden war. Insgesamt führten beide Diätinterventionen zu einer Verbesserung der glykämischen Kontrolle, der Insulinsensitivität, des Leberfettgehalts und kardiovaskulärer Risikomarkern ohne wesentliche Unterschiede zwischen den Proteintypen. In beiden Interventionsgruppen wurden die nüchternen Glukosewerte zusammen mit Indizes von Insulinresistenz in einem unterschiedlichen Ausmaß, jedoch ohne signifikante Unterschiede zwischen beiden Diäten verbessert. Die Reduktion von HbA1c war ausgeprägter in der pflanzlichen Gruppe, während sich die Insulinsensitivität mehr in der tierischen Gruppe erhöhte. Die Hochproteindiäten hatten nur einen geringfügigen Einfluss auf den postprandialen Metabolismus. Dies zeigte sich durch eine leichte Verbesserung der Indizes für Insulinsekretion, -sensitivität und –degradation sowie der Werte der freien Fettsäuren. Mit Ausnahme des Einflusses auf die GIP-Sekretion riefen die tierische und die pflanzliche Testmahlzeit ähnliche metabolische und hormonelle Antworten, trotz unterschiedlicher Aminosäurenzusammensetzung. Die tierische Hochproteindiät führte zu einer selektiven Zunahme der fettfreien Masse und Abnahme der Fettmasse, was nicht signifikant unterschiedlich von der pflanzlichen Gruppe war. Darüber hinaus reduzierten die Hochproteindiäten den Leberfettgehalt um durchschnittlich 42%. Die Reduktion des Leberfettgehaltes ging mit einer Verminderung der Lipogenese, der Lipolyse und des freien Fettsäure Flux einher. Beide Interventionen induzierten einen moderaten Abfall von Leberenzymen im Blut. Die Reduktion des Leberfetts war mit einer verbesserten Glukosehomöostase und Insulinsensitivität assoziiert. Blutlipide sanken in allen Probanden, was eventuell auf die niedrigere Fettaufnahme zurückzuführen war. Weiterhin waren die Spiegel an Harnsäure und Inflammationsmarkern erniedrigt unabhängig von der Proteinquelle. Die Werte des systolischen und diastolischen Blutdrucks sanken nur in der pflanzlichen Gruppe, was auf eine potentielle Rolle von Arginin hinweist. Es wurden keine Hinweise auf eine beeinträchtigte Nierenfunktion durch die 6-wöchige Hochproteindiäten beobachtet unabhängig von der Herkunft der Proteine. Serumkreatinin war nur in der pflanzlichen Gruppe signifikant reduziert, was eventuell an dem geringen Kreatingehalt der pflanzlichen Nahrungsmittel liegen könnte. Jedoch sind längere Studien nötig, um die Sicherheit von Hochproteindiäten vollkommen aufklären zu können. Des Weiteren verursachte keine der Diäten eine Induktion des mTOR Signalwegs weder im Fettgewebe noch in Blutzellen. Die Verbesserung der Ganzkörper-Insulinsensitivität deutete auch auf keine Aktivierung von mTOR und keine Verschlechterung der Insulinsensitivität im Skeletmuskel hin. Ein nennenswerter Befund war die erhebliche Reduktion von FGF21, einem wichtigen Regulator metabolischer Prozesse, um ungefähr 50% bei beiden Proteinarten. Ob hepatischer ER-Stress, Ammoniumniveau oder die Makronährstoffpräferenz hinter dem paradoxen Ergebnis stehen, sollte weiter im Detail untersucht werden. Entgegen der anfänglichen Erwartung und der bisherigen Studienlage zeigte die pflanzlich-betonte Hochproteindiät keine klaren Vorteile gegenüber der tierischen Diät. Der ausgeprägte günstige Effekt des tierischen Proteins auf Insulinhomöostase trotz des hohen BCAA-Gehaltes war sicherlich unerwartet und deutet darauf hin, dass bei dem längeren Verzehr andere komplexe metabolische Adaptationen stattfinden. Einen weiteren Aspekt stellt der niedrigere Fettverzehr dar, der eventuell auch zu den Verbesserungen in beiden Gruppen beigetragen hat. Zusammenfassend lässt sich sagen, dass eine 6-wöchige Diät mit 30 EN% Proteinen (entweder pflanzlich oder tierisch), 40 EN% Kohlenhydraten und 30 EN% Fetten mit weniger gesättigten Fetten zu metabolischen Verbesserungen bei Typ-2-Diabetes Patienten unabhängig von Proteinherkunft führt. N2 - Dietary approaches contribute to the prevention and treatment of type 2 diabetes. High protein diets were shown to exert beneficial as well as adverse effects on metabolism. However, it is unclear whether the protein origin plays a role in these effects. The LeguAN study investigated in detail the effects of two high protein diets, either from plant or animal origin, in type 2 diabetic patients. Both diets contained 30 EN% protein, 40 EN% carbohydrates, and 30 EN% fat. Fiber content, glycemic index, and composition of dietary fats were similar in both diets. In comparison to previous dietary habits, the fat content was exchanged for protein, while the carbohydrate intake was not modified. Overall, both high protein diets led to improvements of glycemic control, insulin sensitivity, liver fat, and cardiovascular risk markers without remarkable differences between the protein types. Fasting glucose together with indices of insulin resistance were ameliorated by both interventions to varying extents but without significant differences between protein types. The decline of HbA1c was more pronounced in the plant protein group, whereby the improvement of insulin sensitivity in the animal protein group. The high protein intake had only slight influence on postprandial metabolism seen for free fatty acids and indices of insulin secretion, sensitivity and degradation. Except for GIP release, ingestion of animal and plant meals did not provoke differential metabolic and hormonal responses despite diverse circulating amino acid levels. The animal protein diets led to a selective increase of fat-free mass and decrease of total fat mass, which was not significantly different from the plant protein diet. Moreover, the high protein diets potently decreased liver fat content by 42% on average which was linked to significantly diminished lipogenesis, free fatty acids flux and lipolysis in adipose tissue. Moderate decline of circulating liver enzymes was induced by both interventions. The liver fat reduction was associated with improved glucose homeostasis and insulin sensitivity which underlines the protective effect of the diets. Blood lipid profile improved in all subjects and was probably related to the lower fat intake. Reductions in uric acid and markers of inflammation further argued for metabolic benefits of both high protein diets. Systolic and diastolic blood pressure declined only in the PP group pointing a possible role of arginine. Kidney function was not altered by high protein consumption over 6 weeks. The rapid decrease of serum creatinine in the PP group was noteworthy and should be further investigated. Protein type did not seem to play a role but long-term studies are warranted to fully elucidate safety of high protein regimen. Varying the source of dietary proteins did not affect the mTOR pathway in adipose tissue and blood cells under neither acute nor chronic settings. Enhancement of whole-body insulin sensitivity suggested also no alteration of mTOR and no impairment of insulin sensitivity in skeletal muscle. A remarkable outcome was the extensive reduction of FGF21, critical regulator of metabolic processes, by approximately 50% independently of protein type. Whether hepatic ER-stress, ammonia flux or rather macronutrient preferences is behind this paradoxical finding remains to be investigated in detail. Unlike initial expectations and previous reports plant protein based diet had no clear advantage over animal proteins. The pronounced beneficial effect of animal protein on insulin homeostasis despite high BCAA and methionine intake was certainly unexpected assuming more complex metabolic adaptations occurring upon prolonged consumption. In addition, the reduced fat intake may have also contributed to the overall improvements in both groups. Taking into account the above observed study results, a short-term diet containing 30 EN% protein (either from plant or animal origin), 40 EN% carbohydrates, and 30 EN% fat with lower SFA amount leads to metabolic improvements in diabetic patients, regardless of protein source. KW - type 2 diabetes KW - nutrition KW - protein KW - Typ-2-Diabetes KW - Ernährung KW - high protein diet Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394310 ER - TY - THES A1 - Georgieva, Viktoria T1 - Neotectonics & Cooling History of the Southern Patagonian Andes T1 - Neotektonik und Abkühlgeschichte der Südpatagonschen Anden BT - assessing the Role of Ridge Collision and Slab Window Formation inboard of the Chile Triple Junction (46-47°S) BT - die Rolle von ozeanischer Rückenkollision und der Bilding eines “slab window” am Chile-Triplepunkt (47°S) N2 - The collision of bathymetric anomalies, such as oceanic spreading centers, at convergent plate margins can profoundly affect subduction dynamics, magmatism, and the structural and geomorphic evolution of the overriding plate. The Southern Patagonian Andes of South America are a prime example for sustained oceanic ridge collision and the successive formation and widening of an extensive asthenospheric slab window since the Middle Miocene. Several of the predicted upper-plate geologic manifestations of such deep-seated geodynamic processes have been studied in this region, but many topics remain highly debated. One of the main controversial topics is the interpretation of the regional low-temperature thermochronology exhumational record and its relationship with tectonic and/or climate-driven processes, ultimately manifested and recorded in the landscape evolution of the Patagonian Andes. The prominent along-strike variance in the topographic characteristics of the Andes, combined with coupled trends in low-temperature thermochronometer cooling ages have been interpreted in very contrasting ways, considering either purely climatic (i.e. glacial erosion) or geodynamic (slab-window related) controlling factors. This thesis focuses on two main aspects of these controversial topics. First, based on field observations and bedrock low-temperature thermochronology data, the thesis addresses an existing research gap with respect to the neotectonic activity of the upper plate in response to ridge collision - a mechanism that has been shown to affect the upper plate topography and exhumational patterns in similar tectonic settings. Secondly, the qualitative interpretation of my new and existing thermochronological data from this region is extended by inverse thermal modelling to define thermal histories recorded in the data and evaluate the relative importance of surface vs. geodynamic factors and their possible relationship with the regional cooling record. My research is centered on the Northern Patagonian Icefield (NPI) region of the Southern Patagonian Andes. This site is located inboard of the present-day location of the Chile Triple Junction - the juncture between the colliding Chile Rise spreading center and the Nazca and Antarctic Plates along the South American convergent margin. As such this study area represents the region of most recent oceanic-ridge collision and associated slab window formation. Importantly, this location also coincides with the abrupt rise in summit elevations and relief characteristics in the Southern Patagonian Andes. Field observations, based on geological, structural and geomorphic mapping, are combined with bedrock apatite (U-Th)/He and apatite fission track (AHe and AFT) cooling ages sampled along elevation transects across the orogen. This new data reveals the existence of hitherto unrecognized neotectonic deformation along the flanks of the range capped by the NPI. This deformation is associated with the closely spaced oblique collision of successive oceanic-ridge segments in this region over the past 6 Ma. I interpret that this has caused a crustal-scale partitioning of deformation and the decoupling, margin-parallel migration, and localized uplift of a large crustal sliver (the NPI block) along the subduction margin. The location of this uplift coincides with a major increase of summit elevations and relief at the northern edge of the NPI massif. This mechanism is compatible with possible extensional processes along the topographically subdued trailing edge of the NPI block as documented by very recent and possibly still active normal faulting. Taken together, these findings suggest a major structural control on short-wavelength variations in topography in the Southern Patagonian Andes - the region affected by ridge collision and slab window formation. The second research topic addressed here focuses on using my new and existing bedrock low-temperature cooling ages in forward and inverse thermal modeling. The data was implemented in the HeFTy and QTQt modeling platforms to constrain the late Cenozoic thermal history of the Southern Patagonian Andes in the region of the most recent upper-plate sectors of ridge collision. The data set combines AHe and AFT data from three elevation transects in the region of the Northern Patagonian Icefield. Previous similar studies claimed far-reaching thermal effects of the approaching ridge collision and slab window to affect patterns of Late Miocene reheating in the modelled thermal histories. In contrast, my results show that the currently available data can be explained with a simpler thermal history than previously proposed. Accordingly, a reheating event is not needed to reproduce the observations. Instead, the analyzed ensemble of modelled thermal histories defines a Late Miocene protracted cooling and Pliocene-to-recent stepwise exhumation. These findings agree with the geological record of this region. Specifically, this record indicates an Early Miocene phase of active mountain building associated with surface uplift and an active fold-and-thrust belt, followed by a period of stagnating deformation, peneplanation, and lack of synorogenic deposition in the Patagonian foreland. The subsequent period of stepwise exhumation likely resulted from a combination of pulsed glacial erosion and coeval neotectonic activity. The differences between the present and previously published interpretation of the cooling record can be reconciled with important inconsistencies of previously used model setup. These include mainly the insufficient convergence of the models and improper assumptions regarding the geothermal conditions in the region. This analysis puts a methodological emphasis on the prime importance of the model setup and the need for its thorough examination to evaluate the robustness of the final outcome. N2 - Die Kollision ozeanischer Rückensysteme entlang aktiver Subduktionszonen kann eine nachhaltige Wirkung auf die geodynamische, magmatische, strukturelle und geomorphologische Entwicklung der Oberplatte ausüben. Die Südpatagonischen Anden repräsentieren ein außergewöhnliches Beispiel für eine aktive ozeanische Rückenkollision mit einem Kontinentalrand, die über mehrere Millionen Jahre hinweg aufrechterhalten wurde. Dieser Prozess wurde begleitet von großräumigen Mantelprozessen mit der gleichzeitigen Bildung eines asthenosphärischen Fensters unter Südpatagonien – eine weiträumige Öffnung zwischen den divergierenden ozeanischen Platten unter der Oberplatte, die den Kontakt des asthenosphärischen Mantels mit der kontinentalen Lithosphäre ermöglicht hat. Auch wenn die daraus resultierenden geologischen Erscheinungsformen der Oberplatte bereits in unterschiedlichen Regionen studiert wurden, bleiben viele Fragen hinsichtlich der assoziierten Exhumations- Abkühlungs- und Deformationsprozesse noch offen. Eine kontroverse Frage in diesem Zusammenhang bezieht sich auf die Interpretation von Niedrigtemperatur-Thermochronologiedaten, welche die jüngste Abkühlungs- und Deformationsgeschichte der Erdkruste und die Landschaftsentwicklung in Südpatagonien dokumentieren. Diese Abkühlgeschichte kann theoretisch zeitliche und/oder räumliche Variationen im Erosionspotential von Oberflächenprozessen und der daraus resultierenden jüngsten Exhumation beleuchten oder auch den Einfluss überlagerter thermischer Effekte des hochliegenden Mantels widerspiegeln. Die ausgeprägten topographischen Änderungen entlang des Streichens der Patagonischen Anden, die offenbar auch an Trends in den thermochronometrischen Daten gekoppelt sind, wurden in der Vergangenheit bereits äußerst kontrovers interpretiert. Endglieder dieser Diskussion sind entweder klimatisch gesteuerte Prozessmodelle und eine damit verbundene räumliche Variabilität in der Exhumation (glaziale Erosion) oder geodynamischen Prozesse, die insbesondere eine regional begrenzte Deformation und Hebung mit der Kollision des ozeanischen Chile-Rückens in Verbindung bringen. Diese Dissertation ist daher auf zwei wesentliche Aspekte dieser Problematik fokussiert. Sie befasst sich einerseits mit der soweit kaum erforschten Existenz junger (neotektonischer) Deformationsphänomene, die unmittelbar mit der Rückenkollision in Verbindung steht und das Potenzial hat, die Topographie und die thermochronometrisch dokumentierte Abkühlgeschichte des Patagonischen Gebirgszuges mitbeeinflusst zu haben. Ein weiterer Forschungsfokus liegt auf der erweiterten Interpretation eines Teils der im Rahmen dieser Arbeit erstellten sowie von vorhandenen thermochronometrischen Datensätzen durch inverse numerische Modellierungen. Diese Modellierungen hatten das Ziel, die thermische Geschichte der Proben, die am besten die beobachteten Daten reproduzieren kann, zu definieren und die relative Bedeutung geodynamischer und oberflächennaher Prozesse abzuschätzen. Das Untersuchungsgebiet liegt in dem Gebirgsmassiv des Nordpatagonischen Eisfeldes von Südostpatagonien. Dieser Teil der Südpatagonischen Anden liegt in der Region, wo die derzeitig aktive Kollision des Chile-Rückens seit 6 Millionen Jahren im Gange ist. Der Nordrand des Gebirgsmassivs fällt zusammen mit der abrupten Zunahme der Topographie am Übergang von den Nord- in den Südpatagonischen Anden - das Gebiet, das von ozeanischer Rückenkollision betroffen wurde und durch die Bildung des asthenosphärischen Fensters gekennzeichnet ist. Diverse Feldbeobachtungen, kombiniert mit neuen thermochronometrischen Daten ((U-Th)/He- und Spaltspurendatierungen an Apatiten von Festgesteinsproben, AHe und AFT), dokumentieren die bisher unbekannte Existenz junger tektonischer Bewegungen entlang der Flanken dieses erhöhten Gebirgszuges, welche die topographischen, geomorphologischen und thermochronometrischen Charakteristika der Region deutlich beeinflusst haben. Diese Deformation wurde ausgelöst durch die schräge Kollision von Segmenten des Chile- Rückens, die eine Partitionierung in der Krustendeformation in Komponenten die jeweils parallel und orthogonal zum konvergenten Plattenrand orientiert sind, nach sich zog. Dieser hierbei entstandene Krustenblock des Nordpatagonischen Eisfeldes wurde entlang der Plattengrenze entkoppelt und nordwärts bewegt. Diese Kinematik führte zur lokalen Hebung und Extension (Absenkung) jeweils entsprechend am Nord- und Südrand des Krustenblocks. Die resultierende differentielle Hebung und Extension dieses Krustenblocks korreliert sehr gut mit Muster der räumlichen Verteilung der Topographie und den regionalen thermochronometrischen Daten und legt somit eine direkte Beziehung zwischen geodynamischen Randbedingungen, tektonischer Deformation, Exhumation und Landschaftsentwicklung nahe. Der zweite Forschungsfokus liegt auf der Implementierung meiner neuen sowie bereits publizierter thermochronometrischer Daten in Vorwärts- und inversen numerischen Modellierungen. Es wurden die frei verfügbaren Modellierungsplattformen HeFTy und QTQt benutzt, um die Abkühlungsgeschichte der Südpatagonischen Anden im Gebiet der jüngsten ozeanischen Rückenkollision zu definieren. Der Datensatz kombiniert AHe und AFT Abkühlalter aus drei Höhenprofilen in der Region des Nordpatagonischen Eisfeldes. Kürzlich publizierte Studien, die auf identischen Datierungsmethoden und numerischen Ansätzen beruhen, postulieren, dass ein signifikanter und räumlich weitreichender thermischer Effekt, , sich bereits während des Obermiozäns in den thermochronometrischen Daten manifestiert und auf die Bildung des asthenosphärischen Fensters zurückzuführen ist. Im Unterschied dazu zeigen meine Ergebnisse, dass die verfügbaren thermochronometrischen Daten mit einem einfacheren thermischen Szenario erklärt werden können und ein thermischer Puls nicht notwendig ist, um die Abkühlalter in der vorliegenden Form zu reproduzieren. Das kumulative Ergebnis der Modellierungen dokumentiert eine alternative Möglichkeit mit einer langsamen und/oder stagnierenden Abkühlung im Obermiozän, auf die dann im Pliozän eine schnelle und ausgeprägte schrittweise Abkühlung stattfand. Diese Ergebnisse sind kompatibel mit der geologischen Geschichte der Region. So wurde in diesem Gebiet eine Phase aktiver Einengung, Hebung und Exhumation im Unteren Miozän nachgewiesen. Dieser Episode folgte eine Phase der Ruhe in der Deformation, eine großräumige Einebnung der Deformationsfront durch fluviatile Prozesse und eine drastische Abnahme synorogener Ablagerungen. Die darauffolgende Phase schrittweiser Abkühlung resultierte aus einer Kombination von einerseits rekurrenten weiträumigen Vergletscherungen und damit einhergehender glazialer Erosion und andererseits von gleichzeitigen lokalen tektonischen Vertikalbewegungen durch Störungen, die im plattentektonischen Kontext aktiver ozeanischer Rückenkollision entstanden. Die signifikanten Unterschiede zwischen bereits publizierten und den hier präsentierten Ergebnissen beruhen auf der Erkenntnis wichtiger Nachteile der früher benutzten Modellannahmen. Diese beinhalten z.B. die unzureichende Konvergenz (unzureichende Anzahl an Iterationen) und Vorgaben bezüglich der regionalen geothermischen Bedingungen. Diese kritische Betrachtung zeigt, dass methodische Schwerpunkte und Annahmen dieser Modellierungen gründlich geprüft werden müssen, um eine objektive Abschätzung der Ergebnisse zu erzielen. Zusammenfassend kann festgestellt werden, dass der Impakt bisher unbekannter neotektonischer Strukturen entlang des konvergenten Plattenrandes von Südpatagonien sehr weitreichende Folgen hat. Diese Strukturen stehen räumlich und zeitlich in direkter Beziehung zur seit dem Obermiozän andauernden Subduktion verschiedener Segmente des Chile-Spreizungszentrums; sie unterstreichen die fundamentale Bedeutung der Subduktion bathymetrischer Anomalien für die tektonische und geomorphologische Entwicklung der Oberplatte, besonders in Regionen mit ausgeprägten Erosionsprozessen. Die hier dokumentierten Ergebnisse aus der inversen numerischen Modellierung thermochronometrischer Daten stellen bereits publizierte Befunde aus Studien infrage, die auf ähnlichen Ansätzen beruhen und welche den regionalen thermischen Effekt des asthenosphärischen Fensters in Südpatagonien hervorheben. Meine Ergebnisse dokumentieren stattdessen eine Abkühlungsgeschichte, die durch eine synergistische, klimatisch und tektonisch bedingte schrittweise Exhumation definiert ist. Eine abschließende synoptische Betrachtung der gesamten thermochronometrischen Daten in Südpatagonien belegt das Fehlen von Mustern in der regionalen Verteilung von Abkühlaltern entlang des Streichens des Orogens. Die Existenz eines solchen Trends wurde früher postuliert und im Rahmen eines transienten Pulses dynamischer Topographie und Exhumation interpretiert, der mit der Bildung und Migration des asthenosphärischen Fensters assoziiert wurde. Meine neue Zusammenstellung und Interpretation der Thermochronometrie zeigt stattdessen, dass die regionale Verteilung von Abkühlaltern in Südpatagonien vor allem durch die langfristig wirksame räumliche Verteilung glazialer Erosionsprozesse bestimmt wird, die u.a. zu einer tieferen Exhumation im Zentrum des Orogens geführt hat. Dieses regionale Exhumationsmuster wird allerdings lokal durch differentielle Hebung von Krustenblöcken modifiziert, die mit den neotektonischen Bewegungen im Rahmen der Kollision des Kontinentalrandes mit dem ozeanischen Chile-Rücken und der Partitionierung der Deformation in Zusammenhang stehen. KW - neotectonics KW - ridge-collision KW - asthenospheric slab-window KW - thermochronology KW - Patagonia KW - Apatite (U-Th)/He, apatite fission track dating KW - thermal modeling KW - Apatit-(U-Th)/He Datierung KW - Apatit-Spaltspurendatierung KW - Patagonia KW - asthenospherisches "slab-window" KW - Neotektonik KW - Rückenkollision KW - thermische Modellierung KW - Thermochronologie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104185 ER - TY - THES A1 - Jäger, Susanne T1 - Genetic variants and metabolic pathways of type 2 diabetes within the EPIC-Potsdam study Y1 - 2016 ER - TY - THES A1 - Hallahan, Nicole T1 - Identification and characterization of a T2D QTL arising from an NZO.DBA mouse cross Y1 - 2016 ER - TY - THES A1 - Synodinos, Alexios D. T1 - Savanna dynamics under extreme conditions T1 - Savannendynamik unter extremen Bedingungen BT - insights from a mathematical model N2 - Savannas cover a broad geographical range across continents and are a biome best described by a mix of herbaceous and woody plants. The former create a more or less continuous layer while the latter should be sparse enough to leave an open canopy. What has long intrigued ecologists is how these two competing plant life forms of vegetation coexist. Initially attributed to resource competition, coexistence was considered the stable outcome of a root niche differentiation between trees and grasses. The importance of environmental factors became evident later, when data from moister environments demonstrated that tree cover was often lower than what the rainfall conditions would allow for. Our current understanding relies on the interaction of competition and disturbances in space and time. Hence, the influence of grazing and fire and the corresponding feedbacks they generate have been keenly investigated. Grazing removes grass cover, initiating a self-reinforcing process propagating tree cover expansion. This is known as the encroachment phenomenon. Fire, on the other hand, imposes a bottleneck on the tree population by halting the recruitment of young trees into adulthood. Since grasses fuel fires, a feedback linking grazing, grass cover, fire, and tree cover is created. In African savannas, which are the focus of this dissertation, these feedbacks play a major role in the dynamics. The importance of these feedbacks came into sharp focus when the notion of alternative states began to be applied to savannas. Alternative states in ecology arise when different states of an ecosystem can occur under the same conditions. According to this an open savanna and a tree-dominated savanna can be classified as alternative states, since they can both occur under the same climatic conditions. The aforementioned feedbacks are critical in the creation of alternative states. The grass-fire feedback can preserve an open canopy as long as fire intensity and frequency remain above a certain threshold. Conversely, crossing a grazing threshold can force an open savanna to shift to a tree-dominated state. Critically, transitions between such alternative states can produce hysteresis, where a return to pre-transition conditions will not suffice to restore the ecosystem to its original state. In the chapters that follow, I will cover aspects relating to the coexistence mechanisms and the role of feedbacks in tree-grass interactions. Coming back to the coexistence question, due to the overwhelming focus on competition and disturbance another important ecological process was neglected: facilitation. Therefore, in the first study within this dissertation I examine how facilitation can expand the tree-grass coexistence range into drier conditions. For the second study I focus on another aspect of savanna dynamics which remains underrepresented in the literature: the impacts of inter-annual rainfall variability upon savanna trees and the resilience of the savanna state. In the third and final study within this dissertation I approach the well-researched encroachment phenomenon from a new perspective: I search for an early warning indicator of the process to be used as a prevention tool for savanna conservation. In order to perform all this work I developed a mathematical ecohydrological model of Ordinary Differential Equations (ODEs) with three variables: soil moisture content, grass cover and tree cover. Facilitation: Results showed that the removal of grass cover through grazing was detrimental to trees under arid conditions, contrary to expectation based on resource competition. The reason was that grasses preserved moisture in the soil through infiltration and shading, thus ameliorating the harsh conditions for trees in accordance with the Stress Gradient Hypothesis. The exclusion of grasses from the model further demonstrated this: tree cover was lower in the absence of grasses, indicating that the benefits of grass facilitation outweighed the costs of grass competition for trees. Thus, facilitation expanded the climatic range where savannas persisted into drier conditions. Rainfall variability: By adjusting the model to current rainfall patterns in East Africa, I simulated conditions of increasing inter-annual rainfall variability for two distinct mean rainfall scenarios: semi-arid and mesic. Alternative states of tree-less grassland and tree-dominated savanna emerged in both cases. Increasing variability reduced semi-arid savanna tree cover to the point that at high variability the savanna state was eliminated, because variability intensified resource competition and strengthened the fire disturbance during high rainfall years. Mesic savannas, on the other hand, became more resilient along the variability gradient: increasing rainfall variability created more opportunities for the rapid growth of trees to overcome the fire disturbance, boosting the chances of savannas persisting and thus increasing mesic savanna resilience. Preventing encroachment: The breakdown in the grass-fire feedback caused by heavy grazing promoted the expansion of woody cover. This could be irreversible due to the presence of alternative states of encroached and open savanna, which I found along a simulated grazing gradient. When I simulated different short term heavy grazing treatments followed by a reduction to the original grazing conditions, certain cases converged to the encroached state. Utilising woody cover changes only during the heavy grazing treatment, I developed an early warning indicator which identified these cases with a high risk of such hysteresis and successfully distinguished them from those with a low risk. Furthermore, after validating the indicator on encroachment data, I demonstrated that it appeared early enough for encroachment to be prevented through realistic grazing-reduction treatments. Though this dissertation is rooted in the theory of savanna dynamics, its results can have significant applications in savanna conservation. Facilitation has only recently become a topic of interest within savanna literature. Given the threat of increasing droughts and a general anticipation of drier conditions in parts of Africa, insights stemming from this research may provide clues for preserving arid savannas. The impacts of rainfall variability on savannas have not yet been thoroughly studied, either. Conflicting results appear as a result of the lack of a robust theoretical understanding of plant interactions under variable conditions. . My work and other recent studies argue that such conditions may increase the importance of fast resource acquisition creating a ‘temporal niche’. Woody encroachment has been extensively studied as phenomenon, though not from the perspective of its early identification and prevention. The development of an encroachment forecasting tool, as the one presented in this work, could protect both the savanna biome and societies dependent upon it for (economic) survival. All studies which follow are bound by the attempt to broaden the horizons of savanna-related research in order to deal with extreme conditions and phenomena; be it through the enhancement of the coexistence debate or the study of an imminent external threat or the development of a management-oriented tool for the conservation of savannas. N2 - Savannen sind gekennzeichnet durch die Koexistenz von Gräsern und Bäumen. Sie bedecken circa 20% der globalen Landfläche und Millionen Menschen hängen von ihrer Intaktheit ab. Allerdings bedrohen sowohl der Klimawandel als auch Landnutzung dieses Biom. In dieser Studie werden die Existenz von Savannen unter sehr trockenen Bedingungen, ihre Reaktionen auf steigende Fluktuationen des Niederschlags und die Quantifizierung ihrer Resilienz untersucht. Die Ergebnisse zeigen, dass unter extrem trockenen Bedingungen der positive Einfluss von Gräsern auf Bäume eine wichtige Rolle für das Überleben der Bäume spielt. Kommt es hingegen zu einer Erhöhung der Niederschlagsvariabilität, wird dadurch eine starke Konkurrenz zwischen den beiden Lebensformen verursacht. Die Resilienz der Savannen und ihre Veränderungen lassen sich quantifizieren und mit dem im letzten Teil dieser Dissertation präsentierten Werkzeug erkennen. Meine Arbeit demonstriert, dass sich der Fokus der aktuellen Savannenforschung weiten muss, um die Reaktionen von Savannen auf sich ändernde Umweltbedingungen vorherzusagen. Um Savannen langfristig zu erhalten, müssen jedoch die bereits vorhandenen Grundlagen in einem soliden Framework zusammen gebracht werden. KW - Savanna ecology KW - mathematical modelling KW - coexistence mechanisms KW - Savanna resilience KW - woody encroachment KW - early warning signals KW - mathematische Modelierung KW - Koexistenz Mechanismen KW - Savannen Resilienz KW - Verbuschung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395000 ER - TY - THES A1 - Hannemann, Katrin T1 - Seismological investigation of the oceanic crust und upper mantle using an ocean bottom station array in the vicinity of the Gloria fault (easter mid Atlantic) Y1 - 2016 ER -