TY - THES A1 - Halecker, Bastian T1 - New perspective and insights on business model innovation using systems thinking and action case studies T1 - Neue Perspektive und Einblicke in die Geschäftsmodellinnovation durch die Anwendung von System Denken und Aktionsfallstudien N2 - In recent years, entire industries and their participants have been affected by disruptive technologies, resulting in dramatic market changes and challenges to firm’s business logic and thus their business models (BMs). Firms from mature industries are increasingly realizing that BMs that worked successfully for years have become insufficient to stay on track in today’s “move fast and break things” economy. Firms must scrutinize the core logic that informs how they do business, which means exploring novel ways to engage customers and get them to pay. This can lead to a complete renewal of existing BMs or innovating completely new BMs. BMs have emerged as a popular object of research within the last decade. Despite the popularity of the BM, the theoretical and empirical foundation underlying the concept is still weak. In particular, the innovation process for BMs has been developed and implemented in firms, but understanding of the mechanisms behind it is still lacking. Business model innovation (BMI) is a complex and challenging management task that requires more than just novel ideas. Systematic studies to generate a better understanding of BMI and support incumbents with appropriate concepts to improve BMI development are in short supply. Further, there is a lack of knowledge about appropriate research practices for studying BMI and generating valid data sets in order to meet expectations in both practice and academia. This paper-based dissertation aims to contribute to research practice in the field of BM and BMI and foster better understanding of the BM concept and BMI processes in incumbent firms from mature industries. The overall dissertation presents three main results. The first result is a new perspective, or the systems thinking view, on the BM and BMI. With the systems thinking view, the fuzzy BM concept is clearly structured and a BMI framework is proposed. The second result is a new research strategy for studying BMI. After analyzing current research practice in the areas of BMs and BMI, it is obvious that there is a need for better research on BMs and BMI in terms of accuracy, transparency, and practical orientation. Thus, the action case study approach combined with abductive methodology is proposed and proven in the research setting of this thesis. The third result stems from three action case studies in incumbent firms from mature industries employed to study how BMI occurs in practice. The new insights and knowledge gained from the action case studies help to explain BMI in such industries and increase understanding of the core of these processes. By studying these issues, the articles complied in this thesis contribute conceptually and empirically to the recently consolidated but still increasing literature on the BM and BMI. The conclusions and implications made are intended to foster further research and improve managerial practices for achieving BMI in a dramatically changing business environment. N2 - In den letzten Jahren sind ganze Branchen und ihre Teilnehmer durch neue disruptive Technologien stark beeinflusst worden, was zu dramatischen Marktveränderungen und Herausforderungen für die Art und Weise wie das Geschäft des Unternehmens funktioniert, geführt hat. Firmen aus reifen Industrien erkennen zunehmend, dass die bestehenden Geschäftsmodelle, die jahrelang erfolgreich funktionierten, dem neuen Veränderungsdruck der dynamischen Wirtschaft nicht mehr genügen. Die Unternehmen müssen ihre Geschäftslogik radikal hinterfragen. Diese beschreibt, wie sie Geschäfte machen, wie sie mit dem Kunden interagieren und wie sie letztlich Geld verdienen. Dies kann zu einer kompletten Erneuerung der bestehenden Geschäftsmodelle führen oder völlig neue innovative Geschäftsmodelle hervorbringen. Geschäftsmodelle haben sich als ein beliebtes Forschungsobjekt in den letzten zehn Jahren etabliert. Trotz der Popularität des Geschäftsmodell Konzeptes sind die theoretischen und empirischen Grundlagen dahinter nach wie vor eher schwach ausgeprägt. Insbesondere besteht für den Geschäftsmodellinnovationsprozess, wie er in Unternehmen implementiert und angewendet wird, nur ein unzureichendes Verständnis. Geschäftsmodellinnovation ist eine komplexe und anspruchsvolle Managementaufgabe, die mehr als nur neue Ideen erfordert. Systematische Untersuchungen, die zu einem besseren Verständnis von Geschäftsmodellinnovation führen und damit etablierten Unternehmen mit entsprechenden Konzepte unterstützt, gibt es zu wenige. Des Weiteren gibt es ein Defizit bei geeigneten Forschungspraktiken, um Geschäftsmodellinnovationen zu untersuchen, welche sowohl den praktischen als auch wissenschaftlichen Anforderungen gerecht werden. Die vorliegende kumulative Dissertation zielt darauf ab, die Forschungspraxis im Bereich der Geschäftsmodelle und der Geschäftsmodellinnovation zu fördern und ein besseres Verständnis zum Geschäftsmodell Konzept als auch zur Geschäftsmodellinnovation in etablierten Unternehmen in reifen Industrien zu schaffen. Die Dissertation liefert dabei drei wesentliche Ergebnisse. Das erste Ergebnis ist eine neue Perspektive auf das Geschäftsmodell Konzept und die Geschäftsmodellinnovation mit Hilfe des System Denkens (Systemtheorie). Mit einer systemischen Sicht wird das bis dahin unscharfe Konzept klar strukturiert und es wird ein Rahmenwerk für Geschäftsmodellinnovation vorgeschlagen. Das zweite Ergebnis ist eine neue Forschungsstrategie für die Untersuchung von Geschäftsmodellinnovation. Nach der Analyse der gängigen Praxis der aktuellen Forschung in den Bereichen Geschäftsmodell und Geschäftsmodellinnovation, wird klar, dass die aktuelle Forschung Schwächen in Bezug auf Genauigkeit, Transparenz und Praxisorientierung aufweist. Somit wird die Aktionsfallstudie in Kombination mit der Abduktion als modernes Forschungsdesign vorgeschlagen und in dieser Arbeit angewendet. Das dritte Ergebnis ergibt sich aus drei durchgeführten Aktionsfallstudien in etablierten Unternehmen aus reifen Industrien, um das Phänomen Geschäftsmodellinnovation in der Praxis zu untersuchen. Die neuen Einsichten und Erkenntnisse, die aus den Aktionsfallstudien gewonnen wurden, helfen dabei Geschäftsmodellinnovation zu erklären und das Verständnis für den Gesamtprozess zu erhöhen. Die Arbeit liefert damit sowohl einen konkreten konzeptionellen als auch empirischen Beitrag zu der sich weiter konsolidierenden aber nach wie vor unscharfen Literatur der Geschäftsmodelle und Geschäftsmodellinnovation. Die Schlussfolgerungen und Handlungsempfehlungen zeigen einen klaren Weg für zukünftige Forschungen auf und liefern konkrete praktische Implikationen für das Management im Umgang mit den anstehenden radikalen Geschäftsmodellveränderungen. KW - business model KW - business model innovation KW - action case study KW - systems thinking KW - mature industry KW - Geschäftsmodell KW - Geschäftsmodellinnovation KW - System Denken KW - Systemtheorie KW - Aktionsfallstudie KW - Abduktion Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90404 ER - TY - THES A1 - Herenz, Edmund Christian T1 - Detecting and understanding extragalactic Lyman α emission using 3D spectroscopy T1 - Detektion und Interpretation extragalaktischer Lyman Alpha Emission mittels 3D Spektroskopie N2 - In this thesis we use integral-field spectroscopy to detect and understand of Lyman α (Lyα) emission from high-redshift galaxies. Intrinsically the Lyα emission at λ = 1216 Å is the strongest recombination line from galaxies. It arises from the 2p → 1s transition in hydrogen. In star-forming galaxies the line is powered by ionisation of the interstellar gas by hot O- and B- stars. Galaxies with star-formation rates of 1 - 10 Msol/year are expected to have Lyα luminosities of 42 dex - 43 dex (erg/s), corresponding to fluxes ~ -17 dex - -18 dex (erg/s/cm²) at redshifts z~3, where Lyα is easily accessible with ground-based telescopes. However, star-forming galaxies do not show these expected Lyα fluxes. Primarily this is a consequence of the high-absorption cross-section of neutral hydrogen for Lyα photons σ ~ -14 dex (cm²). Therefore, in typical interstellar environments Lyα photons have to undergo a complex radiative transfer. The exact conditions under which Lyα photons can escape a galaxy are poorly understood. Here we present results from three observational projects. In Chapter 2, we show integral field spectroscopic observations of 14 nearby star-forming galaxies in Balmer α radiation (Hα, λ = 6562.8 Å). These observations were obtained with the Potsdam Multi Aperture Spectrophotometer at the Calar-Alto 3.5m Telescope}. Hα directly traces the intrinsic Lyα radiation field. We present Hα velocity fields and velocity dispersion maps spatially registered onto Hubble Space Telescope Lyα and Hα images. From our observations, we conjecture a causal connection between spatially resolved Hα kinematics and Lyα photometry for individual galaxies. Statistically, we find that dispersion-dominated galaxies are more likely to emit Lyα photons than galaxies where ordered gas-motions dominate. This result indicates that turbulence in actively star-forming systems favours an escape of Lyα radiation. Not only massive stars can power Lyα radiation, but also non-thermal emission from an accreting super-massive black hole in the galaxy centre. If a galaxy harbours such an active galactic nucleus, the rate of hydrogen-ionising photons can be more than 1000 times higher than that of a typical star-forming galaxy. This radiation can potentially ionise large regions well outside the main stellar body of galaxies. Therefore, it is expected that the neutral hydrogen from these circum-galactic regions shines fluorescently in Lyα. Circum-galactic gas plays a crucial role in galaxy formation. It may act as a reservoir for fuelling star formation, and it is also subject to feedback processes that expel galactic material. If Lyα emission from this circum-galactic medium (CGM) was detected, these important processes could be studied in-situ around high-z galaxies. In Chapter 3, we show observations of five radio-quiet quasars with PMAS to search for possible extended CGM emission in the Lyα line. However, in four of the five objects, we find no significant traces of this emission. In the fifth object, there is evidence for a weak and spatially quite compact Lyα excess at several kpc outside the nucleus. The faintness of these structures is consistent with the idea that radio-quiet quasars typically reside in dark matter haloes of modest masses. While we were not able to detect Lyα CGM emission, our upper limits provide constraints for the new generation of IFS instruments at 8--10m class telescopes. The Multi Unit Spectroscopic Explorer (MUSE) at ESOs Very Large Telescopeis such an unique instrument. One of the main motivating drivers in its construction was the use as a survey instrument for Lyα emitting galaxies at high-z. Currently, we are conducting such a survey that will cover a total area of ~100 square arcminutes with 1 hour exposures for each 1 square arcminute MUSE pointing. As a first result from this survey we present in Chapter 5 a catalogue of 831 emission-line selected galaxies from a 22.2 square arcminute region in the Chandra Deep Field South. In order to construct the catalogue, we developed and implemented a novel source detection algorithm -- LSDCat -- based on matched filtering for line emission in 3D spectroscopic datasets (Chapter 4). Our catalogue contains 237 Lyα emitting galaxies in the redshift range 3 ≲ z ≲ 6. Only four of those previously had spectroscopic redshifts in the literature. We conclude this thesis with an outlook on the construction of a Lyα luminosity function based on this unique sample (Chapter 6). N2 - In der vorliegenden Doktorarbeit präsentieren wir Resultate aus drei integralfeldspektroskopischen Beobachtungskampagnen die mit der Intention Lyman α (Lyα) Strahlung von hoch-rotverschobenen Galaxien zu detektieren und zu verstehen durchgeführt wurden. Die Lyα Emissionslinie im ultravioletten Teil des elektromagnetischen Spektrums (λ = 1216 Å) ist intrinsisch die stärkste Rekombinationslinie im Linienspektrum sternbildender Galaxien. Die Linie ist eine Folge der Ionisation des interstellaren Gases durch heiße O- und B- Sterne. Man erwartet von Galaxien mit Sternentstehungsraten 1 - 10 Msol/Jahr intrinsische Lyα Leuchtkräfte von 42 dex - 43 dex (erg/s), was bei Rotverschiebungen von z~3, bei denen Lyα mit bodengebundenen Teleskopen zu beobachten ist, einem Strahlungsstrom von ~ -17 dex - -18 dex (erg/s/cm²) entspricht. Allerdings werden nicht von allen sternbildenen Galaxien derartige Lyα Strahlungsströme gemessen. Dies ist in erster Linie eine direkte Konsequenz des hohen Absorptionsquerschnitts von neutralem Wasserstoff für Lyα Photonen. Deshalb erfahren Lyα Photonen einen komplexen Strahlungstransportprozess in typischen interstellaren Umgebungen. Die exakten Bedingungen bei denen Lyα Strahlung eine Galaxie verlassen sind noch nicht hinreichend gut verstanden. Diesbezüglich werden in Kapitel 2 dieser Arbeit integralfeldspektroskopische Beobachtungsergebnisse der Balmer α Strahlung (Hα, λ = 6562.8 Å) von 14 nahen sternbildenden Galaxien gezeigt. Die Beobachtungsdaten wurden mit dem Potsdam Multi Aperture Spectrophotometer (PMAS) am Calar Alto 3.5m Teleskop gewonnen. Hα Strahlung ist eine direkte Kopie des intrinischen Lyα Strahlungsfeldes der Galaxien. Wir zeigen unsere Hα Geschwindigkeitsfelder und Geschwindigkeitsdispersionsfelder räumlich überlagert zu Hubble-Weltraumteleskop-Bildaufnahmen der Lyα und Hα Strahlungsströme. Aus diesen Beobachtungen können wir schlussfolgern, dass in einigen Galaxien kausale Zusammenhänge zwischen der Hα-Kinematik und der Lyα-Photometrie bestehen. Statistisch signifikant finden wir, dass Galaxien, bei denen chaotische Dispersionsbewegungen dominieren, wahrscheinlicher Lyα Strahlung abgeben als Galaxien bei denen die Gasbewegungen durch geordnete Bewegungen dominiert sind. Dieses Resultat ist ein Indiz dafür, dass Turbulenz im interstellaren Medium aktiv sternbildender Galaxien schafft, welche ein Austreten der Lyα-Strahlung begünstigen. Neben massereichen Sternen kann nicht-thermische Strahlung eines akretierenden supermassereichen schwarzen Loches eine weitere Energiequelle zur Erzeugung von Lyα Strahlung sein. Wenn eine Galaxie einen solchen aktiven Galaxienkern enthält, kann die Rate der ionisierenden Photonen 1000-mal höher sein als bei einer normalen sternbildenden Galaxie. Diese Strahlung hat das Potential große Bereiche weit ausserhalb der Sternansammlungen der Galaxien zu ionisieren. Deshalb ist zu erwarten, dass der neutrale Wasserstoff in diesen zirkum-galaktischen Gebieten in Lyα-Strahlung fluoresziert. Dieses zirkum-galaktische Gas spielt eine wesentliche Rolle bei der Entwicklung von Galaxien. Zum Einen ist es das Reservoir aus denen Sternentstehungsprozesse ihr Gas beziehen, zum Anderen ist es Wechselwirkungsprozessen ausgesetzt, bei denen Gas aus der Galaxie hinausgeschleudert wird. Wenn Lyα-Strahlung dieses zirkum-galaktischen Mediums detektiert werden könnte, ließen sich diese fundamentalen Prozesse der Galaxienentwicklung detaillierter studieren. In Kapitel 3 dieser Arbeit zeigen wir PMAS Beobachtungsdaten von 5 radio-leisen Quasaren in denen wir nach dieser ausgedehnten Lyα-Strahlung gesucht haben. Jedoch haben wir für 4 unserer Quasare keine signifikanten Spuren dieser ausgedehnten Strahlung entdecken können. Im fünften Objekt finden wir in Entfernung von einigen Kiloparsec zum Kern Anzeichen für eine schwache und räumlich eher kompakte Quelle. Deartig schwache Flüsse von solchen Strukturen erscheinen konsistent mit der Annahme, dass radio-leise Quasare sich in Halos aus dunkler Materie mit eher moderaten Massen befinden. Obwohl wir nicht direkt Lyα-Strahlung vom zirkum-galaktischen Medium detektieren konnten, sind unsere Detektionsgrenzen von Nutzem bei der Planung von diesbezüglichen Beobachtungen mit der neuen Generation von Integralfeldspektrographen an 8--10m Teleskopen. Ein derartiges Instrument ist der Multi Unit Spectroscopic Explorer (MUSE) am ESO Very Large Telescope. Einer der Hauptbeweggründe für dessen Konstruktion war die Verwendung als Durchmusterungsinstrument für Lyα emittierende Galaxien bei hohen Rotverschiebungen. Aktuell führen wir eine derartige Durchmusterungskampagne durch. Nach deren Abschluss, werden wir eine Fläche von 100 Quadratbogenminuten durchmustert haben. In Kapitel 5 dieser Arbeit präsentieren wir als erstes Resultat einen Katalog von 831 Emissionslinienselektierten Galaxien in einer 22.2 Quadratbogenminuten großen Region im Chandra Deep Field South. Um diesen Katalog zu erzeugen, haben wir eine neuartige Quellendetektionsmethode für integralfeldspektroskopische Datensätze entwickelt und implementiert (Kapitel 4). Unser Katalog enthält 237 Lyα emittierende Galaxien bei Rotverschiebungen 3 ≲ z ≲ 6. Aufgrund ihrer geringen Kontinuumsflussdichten existierten zuvor nur von 4 dieser Galaxien spektroskopische Rotverschiebungen. Als Abschluss dieser Arbeit präsentieren wir einen Ausbick bezüglich der Konstruktion einer Leuchtkraftfunktion dieser einzigartigen Lyα Galaxienstichprobe (Kapitel 6). KW - astrophysics KW - galaxies KW - high redshift galaxies KW - integral field spectroscopy KW - quasars KW - Astrophysik KW - Galaxien KW - Galaxien bei hoher Rotverschiebung KW - Integralfeldspektroskopie KW - Quasare Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102341 ER - TY - THES A1 - Sauermann, Antje T1 - Impact of the type of referring expression on the acquisition of word order variation T1 - Einfluss der Wahl des referierenden Ausdrucks auf den Erwerb von Wortstellungsvariation N2 - This dissertation examines the impact of the type of referring expression on the acquisition of word order variation in German-speaking preschoolers. A puzzle in the area of language acquisition concerns the production-comprehension asymmetry for non-canonical sentences like "Den Affen fängt die Kuh." (“The monkey, the cow chases.”), that is, preschoolers usually have difficulties in accurately understanding non-canonical sentences approximately until age six (e.g., Dittmar et al., 2008) although they produce non-canonical sentences already around age three (e.g., Poeppel & Wexler, 1993; Weissenborn, 1990). This dissertation investigated the production and comprehension of non-canonical sentences to address this issue. Three corpus analyses were conducted to investigate the impact of givenness, topic status and the type of referring expression on word order in the spontaneous speech of two- to four-year-olds and the child-directed speech produced by their mothers. The positioning of the direct object in ditransitive sentences was examined; in particular, sentences in which the direct object occurred before or after the indirect object in the sentence-medial positions and sentences in which it occurred in the sentence-initial position. The results reveal similar ordering patterns for children and adults. Word order variation was to a large extent predictable from the type of referring expression, especially with respect to the word order involving the sentence-medial positions. Information structure (e.g., topic status) had an additional impact only on word order variation that involved the sentence-initial position. Two comprehension experiments were conducted to investigate whether the type of referring expression and topic status influences the comprehension of non-canonical transitive sentences in four- and five-year-olds. In the first experiment, the topic status of the one of the sentential arguments was established via a preceding context sentence, and in the second experiment, the type of referring expression for the sentential arguments was additionally manipulated by using either a full lexical noun phrase (NP) or a personal pronoun. The results demonstrate that children’s comprehension of non-canonical sentences improved when the topic argument was realized as a personal pronoun and this improvement was independent of the grammatical role of the arguments. However, children’s comprehension was not improved when the topic argument was realized as a lexical NP. In sum, the results of both production and comprehension studies support the view that referring expressions may be seen as a sentence-level cue to word order and to the information status of the sentential arguments. The results highlight the important role of the type of referring expression on the acquisition of word order variation and indicate that the production-comprehension asymmetry is reduced when the type of referring expression is considered. N2 - Im Rahmen der vorliegenden Dissertation wurde der Einfluss des referierenden Ausdrucks auf den Erwerb von Wortstellungsvariationen bei deutschsprachigen Vorschulkindern untersucht. Eine zentrale Fragestellung im Spracherwerb betrifft die Asymmetrie zwischen Produktion und Verständnis. Diese Asymmetrie ist dadurch gekennzeichnet, dass sechsjährige Kinder oft Schwierigkeiten haben, Sätze in der nicht-kanonischen Wortstellung, z.B. „Den Affen fängt die Kuh.“, zu verstehen (z.B., Dittmar et al., 2008), obwohl bereits Dreijährige nicht-kanonische Sätze produzieren können (z.B., Poeppel & Wexler, 1993; Weissenborn, 1990). Um diese Asymmetrie zu untersuchen wurde in der Dissertation die Produktion und das Verständnis von nicht-kanonischen Sätzen betrachtet. In drei Korpusstudien wurde der Einfluss von Vorerwähntheit, Topikstatus und Wahl des referierenden Ausdrucks auf die Wortstellung in der Spontansprache von Zwei- bis Vierjährigen und in der kind-gerichteten Sprache ihre Mütter analysiert. Es wurde die Position des direkten Objektes in ditransitiven Sätzen untersucht, d.h., Sätze in denen das direkte Objekt vor oder nach dem indirekten Objekt in den satzmedialen Positionen stand, und Sätze in denen es in der satzinitialen Position stand. Die Ergebnisse zeigen ähnlich Abfolgemuster in der Satzproduktion der Kindern und Erwachsenen. Die Position des direkten Objektes, vor allem in den satzmedialen Positionen, war zu einem großen Teil durch die Wahl des referierenden Ausdrucks vorhersagbar. Informationsstrukturelle Faktoren (z.B. Topikstatus) hingegen beeinflussten - unabhängig vom Einfluss des referierenden Ausdrucks - nur die Wortstellung in der satzinitialen Position. Zwei Verständnisexperimente wurden durchgeführt um den Einfluss des referierenden Ausdrucks und des Topikstatuses auf das Verständnis von nicht-kanonischen transitiven Sätzen zu untersuchen. Im ersten Experiment wurde der Topikstatus eines der beiden Satzargumente durch einen vorherigen Kontext modifiziert. Im zweiten Experiment wurde zusätzlich der referierende Ausdruck modifiziert, d.h. das Topik wurde entweder durch eine lexikalische Nominalphrase (NP) oder ein Personalpronomen realisiert. Die Ergebnisse zeigen, dass vier- und fünfjährige Kinder Sätze in der nichtkanonischen Wortstellung besser verstehen konnten, wenn das Topik als Personalpronomen realisiert wurde, unabhängig von der grammatischen Rolle des Topiks. Das Satzverständnis war jedoch nicht verbessert, wenn das Topik als lexikalische NP realisiert wurde. Zusammengefasst zeigen die Ergebnisse der Produktions- und Verständnisstudien, dass der referierende Ausdruck als Hinweis auf die Wortstellung und auf den Informationsstatus der Argumente des Satzes von den Kindern genutzt werden kann. Sie unterstreichen somit die Bedeutung der Wahl des referierenden Ausdrucks auf den Erwerb von Wortstellungsvariation und zeigen, dass die Asymmetrie zwischen Produktion und Verständnis an Bedeutung verliert, wenn der referierende Ausdruck einbezogen wird. T3 - Spektrum Patholinguistik - Schriften - 9 KW - language acquisition KW - word order KW - information structure KW - referring expressions KW - corpus studies KW - language comprehension KW - Spracherwerb KW - Wortstellung KW - Informationsstruktur KW - referierender Ausdruck KW - Korpusstudien KW - Sprachverständnis Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89409 SN - 978-3-86956-330-5 SN - 1869-3822 SN - 1869-3830 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Breuer, David T1 - The plant cytoskeleton as a transportation network T1 - Modellierung des pflanzliche Zytoskeletts als Transportnetzwerk N2 - The cytoskeleton is an essential component of living cells. It is composed of different types of protein filaments that form complex, dynamically rearranging, and interconnected networks. The cytoskeleton serves a multitude of cellular functions which further depend on the cell context. In animal cells, the cytoskeleton prominently shapes the cell's mechanical properties and movement. In plant cells, in contrast, the presence of a rigid cell wall as well as their larger sizes highlight the role of the cytoskeleton in long-distance intracellular transport. As it provides the basis for cell growth and biomass production, cytoskeletal transport in plant cells is of direct environmental and economical relevance. However, while knowledge about the molecular details of the cytoskeletal transport is growing rapidly, the organizational principles that shape these processes on a whole-cell level remain elusive. This thesis is devoted to the following question: How does the complex architecture of the plant cytoskeleton relate to its transport functionality? The answer requires a systems level perspective of plant cytoskeletal structure and transport. To this end, I combined state-of-the-art confocal microscopy, quantitative digital image analysis, and mathematically powerful, intuitively accessible graph-theoretical approaches. This thesis summarizes five of my publications that shed light on the plant cytoskeleton as a transportation network: (1) I developed network-based frameworks for accurate, automated quantification of cytoskeletal structures, applicable in, e.g., genetic or chemical screens; (2) I showed that the actin cytoskeleton displays properties of efficient transport networks, hinting at its biological design principles; (3) Using multi-objective optimization, I demonstrated that different plant cell types sustain cytoskeletal networks with cell-type specific and near-optimal organization; (4) By investigating actual transport of organelles through the cell, I showed that properties of the actin cytoskeleton are predictive of organelle flow and provided quantitative evidence for a coordination of transport at a cellular level; (5) I devised a robust, optimization-based method to identify individual cytoskeletal filaments from a given network representation, allowing the investigation of single filament properties in the network context. The developed methods were made publicly available as open-source software tools. Altogether, my findings and proposed frameworks provide quantitative, system-level insights into intracellular transport in living cells. Despite my focus on the plant cytoskeleton, the established combination of experimental and theoretical approaches is readily applicable to different organisms. Despite the necessity of detailed molecular studies, only a complementary, systemic perspective, as presented here, enables both understanding of cytoskeletal function in its evolutionary context as well as its future technological control and utilization. N2 - Das Zytoskelett ist ein notwendiger Bestandteil lebender Zellen. Es besteht aus verschiedenen Arten von Proteinfilamenten, die ihrerseits komplexe, sich dynamisch reorganisierende und miteinander verknüpfte Netzwerke bilden. Das Zytoskelett erfüllt eine Vielzahl von Funktionen in der Zelle. In Tierzellen bestimmt das Aktin-Zytoskelett maßgeblich die mechanischen Zelleigenschaften und die Zellbewegung. In Pflanzenzellen hingegen kommt dem Aktin-Zytoskelett eine besondere Bedeutung in intrazellulären Transportprozessen zu, bedingt insbesondere durch die starre pflanzliche Zellwand sowie die Zellgröße. Als wesentlicher Faktor für Zellwachstum und somit auch die Produktion von Biomasse, ist Zytoskelett-basierter Transport daher von unmittelbarer ökologischer und ökonomischer Bedeutung. Während das Wissen über die molekularen Grundlagen Zytoskelett-basierter Transportprozesse beständig wächst, sind die zugrunde liegenden Prinzipien zellweiter Organisation bisher weitgehend unbekannt. Diese Dissertation widmet sich daher folgender Frage: Wie hängt die komplexe Architektur des pflanzlichen Zytoskeletts mit seiner intrazellulären Transportfunktion zusammen? Eine Antwort auf diese Frage erfordert eine systemische Perspektive auf Zytoskelettstruktur und -transport. Zu diesem Zweck habe ich Mikroskopiedaten mit hoher raumzeitlicher Auflösung sowie Computer-gestützte Bildanalysen und mathematische Ansätzen der Graphen- und Netzwerktheorie kombiniert. Die vorliegende Dissertation umfasst fünf meiner Publikationen, die sich einem systemischen Verständnis des pflanzlichen Zytoskeletts als Transportnetzwerk widmen: (1) Dafür habe ich Bilddaten-basierte Netzwerkmodelle entwickelt, die eine exakte und automatisierte Quantifizierung der Architektur des Zytoskeletts ermöglichen. Diese Quantifizierung kann beispielsweise in genetischen oder chemischen Versuchen genutzt werden und für eine weitere Erforschung der genetischen Grundlagen und möglicher molekularer Interaktionspartner des Zytoskeletts hilfreich sein; (2) Ich habe nachgewiesen, dass das pflanzliche Aktin-Zytoskelett Eigenschaften effizienter Transportnetzwerk aufweist und Hinweise auf seine evolutionären Organisationsprinzipien liefert; (3) Durch die mathematische Optimierung von Transportnetzwerken konnte ich zeigen, dass unterschiedliche Pflanzenzelltypen spezifische und optimierte Organisationsstrukturen des Aktin-Zytoskeletts aufweisen; (4) Durch quantitative Analyse des Transports von Organellen in Pflanzenzellen habe ich nachgewiesen, dass sich Transportmuster ausgehend von der Struktur des Aktin-Zytoskeletts vorhersagen lassen. Dabei spielen sowohl die Organisation des Zytoskeletts auf Zellebene als auch seine Geometrie eine zentrale Rolle. (5) Schließlich habe ich eine robuste, optimierungs-basierte Methode entwickelt, die es erlaubt, individuelle Filamente eines Aktin-Netzwerks zu identifizieren. Dadurch ist es möglich, die Eigenschaften einzelner Zytoskelettfilamente im zellulären Kontext zu untersuchen. Die im Zuge dieser Dissertation entwickelten Methoden wurden frei und quelloffen als Werkzeuge zur Beantwortung verwandter Fragestellung zugänglich gemacht. Insgesamt liefern die hier präsentierten Ergebnisse und entwickelten Methoden quantitative, systemische Einsichten in die Transportfunktion des Zytoskeletts. Die hier etablierte Kombination von experimentellen und theoretischen Ansätzen kann, trotz des Fokusses auf das pflanzliche Zytoskelett, direkt auf andere Organismen angewendet werden. Als Ergänzung molekularer Studien bildet ein systemischer Blickwinkel, wie er hier entwickelt wurde, die Grundlage für ein Verständnis sowohl des evolutionären Kontextes als auch zukünftiger Kontroll- und Nutzungsmöglichkeiten des pflanzlichen Zytoskeletts. KW - systems biology KW - mathematical modeling KW - cytoskeleton KW - plant science KW - graph theory KW - image analysis KW - Systembiologie KW - mathematische Modellierung KW - Zytoskelett KW - Zellbiologie KW - Graphtheorie KW - Bildanalyse Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93583 ER - TY - THES A1 - Ludewig, Matthias T1 - Path integrals on manifolds with boundary and their asymptotic expansions T1 - Pfadintegrale auf Mannigfaltigkeiten mit Rand und ihre asymptotischen Entwicklungen N2 - It is "scientific folklore" coming from physical heuristics that solutions to the heat equation on a Riemannian manifold can be represented by a path integral. However, the problem with such path integrals is that they are notoriously ill-defined. One way to make them rigorous (which is often applied in physics) is finite-dimensional approximation, or time-slicing approximation: Given a fine partition of the time interval into small subintervals, one restricts the integration domain to paths that are geodesic on each subinterval of the partition. These finite-dimensional integrals are well-defined, and the (infinite-dimensional) path integral then is defined as the limit of these (suitably normalized) integrals, as the mesh of the partition tends to zero. In this thesis, we show that indeed, solutions to the heat equation on a general compact Riemannian manifold with boundary are given by such time-slicing path integrals. Here we consider the heat equation for general Laplace type operators, acting on sections of a vector bundle. We also obtain similar results for the heat kernel, although in this case, one has to restrict to metrics satisfying a certain smoothness condition at the boundary. One of the most important manipulations one would like to do with path integrals is taking their asymptotic expansions; in the case of the heat kernel, this is the short time asymptotic expansion. In order to use time-slicing approximation here, one needs the approximation to be uniform in the time parameter. We show that this is possible by giving strong error estimates. Finally, we apply these results to obtain short time asymptotic expansions of the heat kernel also in degenerate cases (i.e. at the cut locus). Furthermore, our results allow to relate the asymptotic expansion of the heat kernel to a formal asymptotic expansion of the infinite-dimensional path integral, which gives relations between geometric quantities on the manifold and on the loop space. In particular, we show that the lowest order term in the asymptotic expansion of the heat kernel is essentially given by the Fredholm determinant of the Hessian of the energy functional. We also investigate how this relates to the zeta-regularized determinant of the Jacobi operator along minimizing geodesics. N2 - Es ist "wissenschaftliche Folklore", abgeleitet von der physikalischen Anschauung, dass Lösungen der Wärmeleitungsgleichung auf einer riemannschen Mannigfaltigkeit als Pfadintegrale dargestellt werden können. Das Problem mit Pfadintegralen ist allerdings, dass schon deren Definition Mathematiker vor gewisse Probleme stellt. Eine Möglichkeit, Pfadintegrale rigoros zu definieren ist endlich-dimensionale Approximation, oder time-slicing-Approximation: Für eine gegebene Unterteilung des Zeitintervals in kleine Teilintervalle schränkt man den Integrationsbereich auf diejenigen Pfade ein, die auf jedem Teilintervall geodätisch sind. Diese endlichdimensionalen Integrale sind wohldefiniert, und man definiert das (unendlichdimensionale) Pfadintegral als den Limes dieser (passend normierten) Integrale, wenn die Feinheit der Unterteilung gegen Null geht. In dieser Arbeit wird gezeigt, dass Lösungen der Wärmeleitungsgleichung auf einer allgemeinen riemannschen Mannigfaltigkeit tatsächlich durch eine solche endlichdimensionale Approximation gegeben sind. Hierbei betrachten wir die Wärmeleitungsgleichung für allgemeine Operatoren von Laplace-Typ, die auf Schnitten in Vektorbündeln wirken. Wir zeigen auch ähnliche Resultate für den Wärmekern, wobei wir uns allerdings auf Metriken einschränken müssen, die eine gewisse Glattheitsbedingung am Rand erfüllen. Eine der wichtigsten Manipulationen, die man an Pfadintegralen vornehmen möchte, ist das Bilden ihrer asymptotischen Entwicklungen; in Falle des Wärmekerns ist dies die Kurzzeitasymptotik. Um die endlich-dimensionale Approximation hier nutzen zu können, ist es nötig, dass die Approximation uniform im Zeitparameter ist. Dies kann in der Tat erreicht werden; zu diesem Zweck geben wir starke Fehlerabschätzungen an. Schließlich wenden wir diese Resultate an, um die Kurzzeitasymptotik des Wärmekerns (auch im degenerierten Fall, d.h. am Schittort) herzuleiten. Unsere Resultate machen es außerdem möglich, die asymptotische Entwicklung des Wärmekerns mit einer formalen asymptotischen Entwicklung der unendlichdimensionalen Pfadintegrale in Verbindung zu bringen. Auf diese Weise erhält man Beziehungen zwischen geometrischen Größen der zugrundeliegenden Mannigfaltigkeit und solchen des Pfadraumes. Insbesondere zeigen wir, dass der Term niedrigster Ordnung in der asymptotischen Entwicklung des Wärmekerns im Wesentlichen durch die Fredholm-Determinante der Hesseschen des Energie-Funktionals gegeben ist. Weiterhin untersuchen wir die Verbindung zur zeta-regularisierten Determinante des Jakobi-Operators entlang von minimierenden Geodätischen. KW - heat equation KW - heat kernel KW - path integral KW - determinant KW - asymptotic expansion KW - Laplace expansion KW - heat asymptotics KW - Wiener measure KW - Wärmeleitungsgleichung KW - Wärmekern KW - Pfadintegrale KW - asymptotische Entwicklung KW - Determinante Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94387 ER - TY - THES A1 - Schröder, Henning T1 - Ultrafast electron dynamics in Fe(CO)5 and Cr(CO)6 T1 - Ultraschnelle Elektronendynamik in Fe(CO)5 und Cr(CO)6 N2 - In this thesis, the two prototype catalysts Fe(CO)₅ and Cr(CO)₆ are investigated with time-resolved photoelectron spectroscopy at a high harmonic setup. In both of these metal carbonyls, a UV photon can induce the dissociation of one or more ligands of the complex. The mechanism of the dissociation has been debated over the last decades. The electronic dynamics of the first dissociation occur on the femtosecond timescale. For the experiment, an existing high harmonic setup was moved to a new location, was extended, and characterized. The modified setup can induce dynamics in gas phase samples with photon energies of 1.55eV, 3.10eV, and 4.65eV. The valence electronic structure of the samples can be probed with photon energies between 20eV and 40eV. The temporal resolution is 111fs to 262fs, depending on the combination of the two photon energies. The electronically excited intermediates of the two complexes, as well as of the reaction product Fe(CO)₄, could be observed with photoelectron spectroscopy in the gas phase for the first time. However, photoelectron spectroscopy gives access only to the final ionic states. Corresponding calculations to simulate these spectra are still in development. The peak energies and their evolution in time with respect to the initiation pump pulse have been determined, these peaks have been assigned based on literature data. The spectra of the two complexes show clear differences. The dynamics have been interpreted with the assumption that the motion of peaks in the spectra relates to the movement of the wave packet in the multidimensional energy landscape. The results largely confirm existing models for the reaction pathways. In both metal carbonyls, this pathway involves a direct excitation of the wave packet to a metal-to-ligand charge transfer state and the subsequent crossing to a dissociative ligand field state. The coupling of the electronic dynamics to the nuclear dynamics could explain the slower dissociation in Fe(CO)₅ as compared to Cr(CO)₆. N2 - Diese Dissertation handelt von der Untersuchung der zwei Modell-Katalysatoren Fe(CO)₅ und Cr(CO)₆ mittels zeitaufgelöster Photoelektronen Spektroskopie an einem High Harmonic Setup. In beiden Metallcarbonyl kann die Dissoziation von einem, oder mehreren Liganden durch ein UV Photon ausgelöst werden. Der Dissoziation-Mechanismus wurde in den letzten Jahrzehnten diskutiert. Die Abspaltung des ersten Liganden und die damit verbundenen elektronischen Dynamiken finden auf Zeitskalen von Femtosekunden statt. Für die Durchführung dieses Experiments wurde ein bestehender High Harmonic Setup in ein neues Labor verlegt. Der Aufbau wurde erweitert und charakterisiert. Mit dem modifizierten Aufbau können nun Reaktionen in Gas-Phasen-Proben mit Photonenenergien von 1.55eV, 3.10eV und 4.65eV ausgelöst werden. Dabei kann die Valenz-Elektronen-Struktur mit Photonenenergien zwischen 20eV und 40eV untersucht werden. Die Zeitauflösung liegt im Bereich von 111fs bis 262fs und hängt von der Kombination der zwei Photonenenergien ab. Die beiden Komplexe sowie Fe(CO)₄ konnten in der Gas-Phase zum ersten Mal in elektronisch angeregten Zuständen mittels zeitaufgelöster Photoelektronenspektroskopie beobachtet werden. Im Allgemeinen kann jedoch mit der Photoelektronenspektroskopie nur der ionische Endzustand untersucht werden. Modellrechnungen zu den Spektren und die Entwicklung der dazugehörigen Theorie befinden derzeit noch in der Entwicklungsphase. Die Peaks in den Spektren konnten anhand von Literatur zugeordnet werden. Die Spektren der beiden Komplexe unterscheiden sich deutlich. Zu deren Interpretation wurde die Näherung verwendet, dass die Dynamik der Peaks in den Spektren die Bewegung des Wellenpakets in der multidimensionalen Energielandschaft darstellt. Die neuen Daten bestätigen weitestgehend bestehende Modelle für die Reaktionsmechanismen. Der Reaktionsmechanismus verläuft für beide Metallcarbonyle über eine direkte Anregung des Wellenpakets in einen metal-to-ligand charge transfer Zustand. Von dem angeregten Zustand aus kann das Wellenpaket in den dissoziativen ligand field Zustand wechseln. Dass die Reaktion in Fe(CO)₅ langsamer als in Cr(CO)₆ abläuft, kann durch die Kopplung der Dynamiken von Elektronen und Kernen erklärt werden. KW - dissertation KW - Dissertation KW - photo electron spectroscopy KW - physical chemistry KW - molecular dynamics KW - high harmonic generation KW - iron pentacarbonyl KW - chromium hexacarbonyl KW - metal carbonyls KW - ultrafast KW - dynamics KW - Photoelektronen KW - Spektroskopie KW - Moleküldynamik KW - high harmonic KW - Eisenpentacarbonyl KW - Chromhexacarbonyl KW - Photodissoziation KW - photodissociation KW - ligand KW - bond Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94589 ER - TY - THES A1 - Won, Jooyoung T1 - Dynamic and equilibrium adsorption behaviour of ß-lactoglobulin at the solution/tetradecane interface: Effect of solution concentration, pH and ionic strength T1 - Dynamik und Gleichgewicht der Adsorption von ß-Lactoglobulin an der Grenzfläche Lösung / Tetradecan (W/TD) N2 - Proteins are amphiphilic and adsorb at liquid interfaces. Therefore, they can be efficient stabilizers of foams and emulsions. β-lactoglobulin (BLG) is one of the most widely studied proteins due to its major industrial applications, in particular in food technology. In the present work, the influence of different bulk concentration, solution pH and ionic strength on the dynamic and equilibrium pressures of BLG adsorbed layers at the solution/tetradecane (W/TD) interface has been investigated. Dynamic interfacial pressure (Π) and interfacial dilational elastic modulus (E’) of BLG solutions for various concentrations at three different pH values of 3, 5 and 7 at a fixed ionic strength of 10 mM and for a selected fixed concentration at three different ionic strengths of 1 mM, 10 mM and 100 mM are measured by Profile Analysis Tensiometer PAT-1 (SINTERFACE Technologies, Germany). A quantitative data analysis requires additional consideration of depletion due to BLG adsorption at the interface at low protein bulk concentrations. This fact makes experiments more efficient when oil drops are studied in the aqueous protein solutions rather than solution drops formed in oil. On the basis of obtained experimental data, concentration dependencies and the effect of solution pH on the protein surface activity was qualitatively analysed. In the presence of 10 mM buffer, we observed that generally the adsorbed amount is increasing with increasing BLG bulk concentration for all three pH values. The adsorption kinetics at pH 5 result in the highest Π values at any time of adsorption while it exhibits a less active behaviour at pH 3. Since the experimental data have not been in a good agreement with the classical diffusion controlled model due to the conformational changes which occur when the protein molecules get in contact with the hydrophobic oil phase in order to adapt to the interfacial environment, a new theoretical model is proposed here. The adsorption kinetics data were analysed with the newly proposed model, which is the classical diffusion model but modified by assuming an additional change in the surface activity of BLG molecules when adsorbing at the interface. This effect can be expressed through the adsorption activity constant in the corresponding equation of state. The dilational visco-elasticity of the BLG adsorbed interfacial layers is determined from measured dynamic interfacial tensions during sinusoidal drop area variations. The interfacial tension responses to these harmonic drop oscillations are interpreted with the same thermodynamic model which is used for the corresponding adsorption isotherm. At a selected BLG concentration of 2×10-6 mol/l, the influence of the ionic strength using different buffer concentration of 1, 10 and 100 mM on the interfacial pressure was studied. It is affected weakly at pH 5, whereas it has a strong impact by increasing buffer concentration at pH 3 and 7. In conclusion, the structure formation of BLG adsorbed layer in the early stage of adsorption at the W/TD interface is similar to those of the solution/air (W/A) surface. However, the equation of state at the W/TD interface provides an adsorption activity constant which is almost two orders of magnitude higher than that for the solution/air surface. At the end of this work, a new experimental tool called Drop and Bubble Micro Manipulator DBMM (SINTERFACE Technologies, Germany) has been introduced to study the stability of protein covered bubbles against coalescence. Among the available protocols the lifetime between the moment of contact and coalescence of two contacting bubble is determined for different BLG concentrations. The adsorbed amount of BLG is determined as a function of time and concentration and correlates with the observed coalescence behaviour of the contacting bubbles. N2 - Die vorliegende Arbeit ist ein Beitrag zum Verständnis des Überganges von der qualitativen zur quantitativen Beschreibung der Adsorption von Proteinen an der Wasser/Öl- Grenzfläche. Dabei wird die Adsorption des Molkeproteins ß-Lactoglobulin (BLG) an der Wasser/Tetradekan (W/TD) Grenzfläche untersucht. Die Proteinadsorption an Grenzflächen zwischen zwei nicht mischbaren Flüssigkeiten ist ein Zeitprozess. Die Tropfenprofil-Analysen-Tensiometrie (PAT) hat sich als optimale Methode erwiesen, um den Prozess der Bildung von Proteinadsorptionsschichten an Flüssig-/flüssig-Grenzflächen quantitativ zu untersuchen. Die gemessenen dynamischen Grenzflächenspannungen können genutzt werden, um die adsorbierte Menge von Protein an Grenzflächen zu bestimmen. Zusätzlich erlaubt die Methode, durch periodische Tropfenoszillationen, die Messung der Dilatations-Viskoelastizität. Die experimentellen Ergebnisse zeigen deutlich, dass die Adsorption von Proteinen mit der Konzentration ansteigt. Der Adsorptionsprozess von Proteinen ist ähnlich dem von Tensiden, allerdings wird seine Beschreibung wesentlich komplizierter, durch die zusätzliche Möglichkeit der Konformationsänderungen der Proteinmoleküle an der Grenzfläche. Ein kürzlich im Rahmen dieser Dissertation entwickeltes Modell zur Adsorptionskinetik von Proteinen wurde genutzt, um experimentelle Daten für BLG zu interpretieren. Dieses kinetische Modell erlaubt es, den Mechanismus der Proteinadsorption an der Wasser/Öl-Grenzfläche zu beschreiben, was durch ältere Modelle bisher nicht möglich war. Im neu entwickelten Modell wurde die klassische Diffusionstheorie so modifiziert, dass eine Änderung der Adsorptionsaktivität der adsorbierenden Proteinmoleküle berücksichtigt wird. Die Änderung der Adsorptionsaktivität geschieht durch den Kontakt adsorbierter BLG-Moleküle an der Wasser/Öl-Grenzfläche. Es wird nach diesem neuen Modell angenommen, dass die Adsorptionsaktivität eine Funktion der Adsorptionszeit ist. Die ansteigende Adsorptionaktivität ist erforderlich, um den Adsorptionsprozess von BLG über den gesamten Zeitbereich quantitativ zu beschrieben. Mit diesem neuen Modell wurde es möglich, die experimentellen Daten zur Adsorptionskinetik sowie zur Dilatationsrheologie von Adsorptionsschichten bei unterschiedlichen BLG-Konzentrationen, pH-Werten und Ionenstärken an der Grenzfläche Lösung/Tetradekan quantitativ zu beschreiben. Die Ergebnisse dienen als Ausgangspunkt für weitere Entwicklungen zur Verbesserung des Verständnisses der Stabilität von Schäumen und Emulsionen, die durch die Dynamik der Adsorption von Molekülen wie BLG signifikant beeinflusst wird. KW - beta-lactoglobulin KW - water/tetradecane interface KW - drop profile analysis tensiometry KW - dynamic interfacial tensions KW - protein adsorption KW - pH effect KW - ionic strength effect KW - protein stabilized foams KW - drop and bubble coalescence KW - interfacial dynamics KW - capillary pressure tensiometry KW - drop-drop interaction KW - bubble-bubble interaction KW - ß-Lactoglobulin KW - Flüssig-/flüssig-Grenzflächen KW - Wasser/Öl-Grenzfläche KW - Grenzfläche Lösung/Tetradecan KW - Dynamik der Adsorption KW - Gleichgewicht der Adsorption KW - Proteinadsorption KW - Tropfenprofil-Analysen-Tensiometrie KW - Tropfenoszillationen KW - Dilatations-Viskoelastizität KW - klassische Diffusionstheorie KW - Konformationsänderungen KW - Adsorptionsaktivität KW - Wirkung des pH-Werten KW - Wirkung des Ionenstärken KW - Stabilität von Schäumen KW - Stabilität von Emulsionen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-99167 ER - TY - THES A1 - Breakell Fernandez, Leigh T1 - Investigating word order processing using pupillometry and event-related potentials T1 - Untersuchung von Wortfolge-Verarbeitungen unter Verwendung von Pupillometrie und EEG N2 - In this thesis sentence processing was investigated using a psychophysiological measure known as pupillometry as well as Event-Related Potentials (ERP). The scope of the the- sis was broad, investigating the processing of several different movement constructions with native speakers of English and second language learners of English, as well as word order and case marking in German speaking adults and children. Pupillometry and ERP allowed us to test competing linguistic theories and use novel methodologies to investigate the processing of word order. In doing so we also aimed to establish pupillometry as an effective way to investigate the processing of word order thus broadening the methodological spectrum. N2 - Die Doktorarbeit befasste sich mit der Untersuchung von Satzverarbeitung mittels der psychophysiologischen Methode Pupillometrie sowie EEG .Sie umfasst die Untersuchung verschiedener syntaktischer Konstruktionen und Kasusmarkierungen, deren Verarbeitung bei Muttersprachlern und Zweitsprachenlernern des Englischen sowie deutschsprachigen Erwachsenen und Kindern getestet wurden. Pupillometrie und EEG machten es möglich, konkurrierende linguistische Theorien zu testen und neuartige Methodiken zur Untersuchung der Verarbeitung von Wortfolgen zu nutzen. Ein besonderer Schwerpunkt bestand darin, Pupillometrie als effektive Art der Untersuchung von Wortfolge-Verarbeitungen zu etablieren und damit das methodologische Spektrum zu erweitern. KW - pupillometry KW - ERP KW - movement structures KW - L2 KW - word order processing KW - child language processing KW - auditory sentence processing KW - Verarbeitung von Zweitsprachen KW - EEG KW - Verarbeitung von Wortfolgen KW - Pupillometrie KW - Eye-Tracking Satzverarbeitung KW - Sprachverarbeitung bei Kindern Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91438 ER - TY - THES A1 - Gutsch, Martin T1 - Model-based analysis of climate change impacts on the productivity of oak-pine forests in Brandenburg T1 - Modell-basierte Analyse der Auswirkungen des Klimawandels auf die Produktivität von Eichen-Kiefern-Mischbeständen in Brandenburg N2 - The relationship between climate and forest productivity is an intensively studied subject in forest science. This Thesis is embedded within the general framework of future forest growth under climate change and its implications for the ongoing forest conversion. My objective is to investigate the future forest productivity at different spatial scales (from a single specific forest stand to aggregated information across Germany) with focus on oak-pine forests in the federal state of Brandenburg. The overarching question is: how are the oak-pine forests affected by climate change described by a variety of climate scenarios. I answer this question by using a model based analysis of tree growth processes and responses to different climate scenarios with emphasis on drought events. In addition, a method is developed which considers climate change uncertainty of forest management planning. As a first 'screening' of climate change impacts on forest productivity, I calculated the change in net primary production on the base of a large set of climate scenarios for different tree species and the total area of Germany. Temperature increases up to 3 K lead to positive effects on the net primary production of all selected tree species. But, in water-limited regions this positive net primary production trend is dependent on the length of drought periods which results in a larger uncertainty regarding future forest productivity. One of the regions with the highest uncertainty of net primary production development is the federal state of Brandenburg. To enhance the understanding and ability of model based analysis of tree growth sensitivity to drought stress two water uptake approaches in pure pine and mixed oak-pine stands are contrasted. The first water uptake approach consists of an empirical function for root water uptake. The second approach is more mechanistic and calculates the differences of soil water potential along a soil-plant-atmosphere continuum. I assumed the total root resistance to vary at low, medium and high total root resistance levels. For validation purposes three data sets on different tree growth relevant time scales are used. Results show that, except the mechanistic water uptake approach with high total root resistance, all transpiration outputs exceeded observed values. On the other hand high transpiration led to a better match of observed soil water content. The strongest correlation between simulated and observed annual tree ring width occurred with the mechanistic water uptake approach and high total root resistance. The findings highlight the importance of severe drought as a main reason for small diameter increment, best supported by the mechanistic water uptake approach with high root resistance. However, if all aspects of the data sets are considered no approach can be judged superior to the other. I conclude that the uncertainty of future productivity of water-limited forest ecosystems under changing environmental conditions is linked to simulated root water uptake. Finally my study aimed at the impacts of climate change combined with management scenarios on an oak-pine forest to evaluate growth, biomass and the amount of harvested timber. The pine and the oak trees are 104 and 9 years old respectively. Three different management scenarios with different thinning intensities and different climate scenarios are used to simulate the performance of management strategies which explicitly account for the risks associated with achieving three predefined objectives (maximum carbon storage, maximum harvested timber, intermediate). I found out that in most cases there is no general management strategy which fits best to different objectives. The analysis of variance in the growth related model outputs showed an increase of climate uncertainty with increasing climate warming. Interestingly, the increase of climate-induced uncertainty is much higher from 2 to 3 K than from 0 to 2 K. N2 - Diese Arbeit befasst sich mit der Modellierung der Produktivität von Eichen-Kiefern Mischbeständen mit besonderem Fokus auf das Bundesland Brandenburg. Es werden drei Hauptfragen bearbeitet: a) wie verhält sich die Produktivität der beiden Baumarten im Vergleich zu den beiden anderen Hauptbaumarten Fichte und Buche im gesamtdeutschen Vergleich unter verschiedenen Klimaszenarien, b) wie wichtig ist der Prozess der Wasseraufnahme über die Wurzeln bei der Modellierung der Produktivität unter Bedingungen von Trockenjahren, c) wie lassen sich Unsicherheiten durch Bewirtschaftung und Klimaszenarien in der Modellierung der Eichen-Kiefern Mischbestände und bei nachfolgenden Entscheidungsprozessen berücksichtigen? Der methodische Schwerpunkt der Arbeit liegt auf der Modellierung. Im ersten Teil der Arbeit werden mit Hilfe von verschiedenen unabhängigen Umweltvariablen des Klimas und des Bodens Wirkungsbeziehungen zur Produktivität ermittelt, die Aussagen zur Veränderung der Produktivität in Abhängigkeit dieser Umweltvariablen erlauben. Damit können verschiedene Regionen in Deutschland auf ihre Sensitivität der Produktivität gegenüber verschiedenen Klimaszenarien hin untersucht werden. Im zweiten Teil werden innerhalb eines prozess-basierten Waldwachstumsmodell 4C zwei unterschiedliche Ansätze der Wasseraufnahme über die Wurzeln analysiert. Dabei werden Messdaten zur Transpiration, zu Bodenwassergehalten und zu Durchmesserzuwächsen auf Basis von Jahrringchronologien zur Überprüfung herangezogen. Der erste Ansatz ist eine empirisch abgeleitete Gleichung, die die Wasseraufnahme in Abhängigkeit des Wassergehalts beschreibt. Der zweite Ansatz berücksichtigt die unterschiedlichen Druckpotenziale sowie einzelne Widerstände entlang des Wasserflusses vom Boden über die Pflanze in die Atmosphäre. Im dritten Teil der Arbeit wird das Waldwachstumsmodell angewendet und eine Auswahlmethodik vorgestellt, die Entscheidungen bei Unsicherheit erlaubt. Dabei werden die vorhandenen Unsicherheiten, hervorgerufen durch Bewirtschaftung und Klima, in den Prozess der Entscheidungsfindung quantitativ mit einbezogen. Drei verschiedene Bewirtschaftungsstrategien, die unterschiedliche Durchforstungsstärken beinhalten, werden simuliert und ihr Erreichen von drei vorher festgelegten Ziele (maximale Kohlenstoffspeicherung im Bestand, maximale Holzernte, moderates Ziel hinsichtlich Kohlenstoffspeicherung und Holzernte) untersucht. Bezogen auf die erste Frage ergibt die Arbeit zwei wesentliche Ergebnisse. Eine Temperaturerhöhung bis zu drei Kelvin bis 2060 führt zu positiven Ergebnissen in der Produktivität von Eichen-, Kiefern-, Buchen- und Fichtenbeständen. Allerdings ist in niederschlagsarmen Regionen, wie im nordostdeutschen Tiefland, dieser positive Trend stark abhängig von der Länge der Trockenperioden innerhalb der Vegetationszeit. Demzufolge ist die Produktivitätsveränderung der vier Baumarten im Land Brandenburg mit der höchsten Unsicherheit im Vergleich zu den anderen Bundesländern verbunden. Zur zweiten Frage gibt die Arbeit zwei wesentliche Ergebnisse. Im Vergleich mit den Messdaten auf unterschiedlicher zeitlicher und physiologischer Ebene kann kein Ansatz ermittelt werden, der jeweils das bessere Ergebnis erzielt. Im Vergleich von Transpiration, Bodenwassergehalt und Trockenjahren ergeben sich zwar etwas bessere Ergebnisse für den prozess-basierten gegenüber dem empirischen Ansatz, doch sind diese sehr stark abhängig vom angenommenen Wurzelwiderstand. Dieser ist schwer zu bestimmen und verhindert bisher eine breite Anwendung des Ansatzes innerhalb der Waldwachstumsmodelle. Hier ist weiterer Forschungsbedarf vorhanden um bei der Modellierung der Auswirkungen von Trockenjahren auf die Produktivität die Modellunsicherheit zu verringern. Für die letzte Frage ergeben sich ebenso interessante Ergebnisse. Keine Durchforstungsstrategie kann alle drei Zielstellungen erfüllen. Die Methodik erlaubt aber ein großes Maß an Objektivität beim Vergleich der unterschiedlichen Bewirtschaftungsstrategien unter der Unsicherheit der Klimaszenarien. Die Varianz, bezogen auf Ergebnisse zur Bestandesbiomasse, Holzernte und zum jährlichen Holzzuwachs, steigt mit steigender Klimaerwärmung. Dabei ist der Anstieg in der Varianz größer bei einem Temperaturanstieg von zwei Kelvin auf drei Kelvin als von null Kelvin auf zwei Kelvin. Das heißt, Auswirkungen einer Klimaerwärmung verlaufen hier nicht linear. KW - climate change KW - forest management KW - forest growth modelling KW - scenario analysis KW - water uptake KW - Klimawandel KW - Klimaauswirkung KW - Forstwirtschaft KW - Waldbewirtschaftung KW - Waldwachstumsmodellierung KW - Unsicherheit Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97241 ER - TY - THES A1 - Wätzoldt, Sebastian T1 - Modeling collaborations in adaptive systems of systems T1 - Modellierung von Kollaborationen für adaptive Systeme von Systemen N2 - Recently, due to an increasing demand on functionality and flexibility, beforehand isolated systems have become interconnected to gain powerful adaptive Systems of Systems (SoS) solutions with an overall robust, flexible and emergent behavior. The adaptive SoS comprises a variety of different system types ranging from small embedded to adaptive cyber-physical systems. On the one hand, each system is independent, follows a local strategy and optimizes its behavior to reach its goals. On the other hand, systems must cooperate with each other to enrich the overall functionality to jointly perform on the SoS level reaching global goals, which cannot be satisfied by one system alone. Due to difficulties of local and global behavior optimizations conflicts may arise between systems that have to be solved by the adaptive SoS. This thesis proposes a modeling language that facilitates the description of an adaptive SoS by considering the adaptation capabilities in form of feedback loops as first class entities. Moreover, this thesis adopts the Models@runtime approach to integrate the available knowledge in the systems as runtime models into the modeled adaptation logic. Furthermore, the modeling language focuses on the description of system interactions within the adaptive SoS to reason about individual system functionality and how it emerges via collaborations to an overall joint SoS behavior. Therefore, the modeling language approach enables the specification of local adaptive system behavior, the integration of knowledge in form of runtime models and the joint interactions via collaboration to place the available adaptive behavior in an overall layered, adaptive SoS architecture. Beside the modeling language, this thesis proposes analysis rules to investigate the modeled adaptive SoS, which enables the detection of architectural patterns as well as design flaws and pinpoints to possible system threats. Moreover, a simulation framework is presented, which allows the direct execution of the modeled SoS architecture. Therefore, the analysis rules and the simulation framework can be used to verify the interplay between systems as well as the modeled adaptation effects within the SoS. This thesis realizes the proposed concepts of the modeling language by mapping them to a state of the art standard from the automotive domain and thus, showing their applicability to actual systems. Finally, the modeling language approach is evaluated by remodeling up to date research scenarios from different domains, which demonstrates that the modeling language concepts are powerful enough to cope with a broad range of existing research problems. N2 - Seit einiger Zeit führen ein ansteigender Bedarf nach erweiterter Systemfunktionalität und deren flexible Verwendung zu vernetzten Systemen, die sich zu einem übergeordneten adaptiven System von Systemen (SoS) zusammenschließen. Dieser SoS Zusammenschluss zeigt ein gewünschtes, robustes und flexibles Gesamtverhalten, welches sich aus der Funktionalität der einzelnen Systeme zusammensetzt. Das SoS beinhaltet eine Vielzahl von verschiedenen Systemarten, die sich von eingebetteten bis hin zu Cyber-Physical Systems erstrecken. Einerseits optimiert jedes einzelne System sein Verhalten bezüglich lokaler Ziele. Anderseits müssen die Systeme miteinander interagieren, um neue, zusammengesetzte Funktionalitäten bereitzustellen und damit vorgegebene SoS Ziele zu erreichen, welche durch ein einzelnes System nicht erfüllt werden können. Die Schwierigkeit besteht nun darin, Konflikte zwischen lokalen und globalen Verhaltensstrategien zwischen Systemen innerhalb des SoS zu beseitigen. Diese Doktorarbeit stellt eine Modellierungssprache vor, welche für die Beschreibung von adaptiven SoS geeignet ist. Dabei berücksichtigt die Modellierungssprache die Adaptionslogik des SoS in Form von periodischen Adaptationsschleifen als primäres Sprachkonstrukt. Außerdem übernimmt diese Arbeit den Models@runtime Ansatz, um verfügbares Systemwissen als Laufzeitmodelle in die Adaptationslogik des Systems zu integrieren. Weiterhin liegt der Fokus der Modellierungssprache auf der Beschreibung von Systeminteraktionen innerhalb des SoS. Dies ermöglicht Schlussfolgerungen von individuellem Systemverhalten sowie deren Aggregation zu kollaborativem Verhalten im Kontext von Systeminteraktionen im SoS. Damit unterstützt die entwickelte Modellierungssprache die Beschreibung von lokalem adaptivem Verhalten, die Integration von Wissen über die Modellierung von Laufzeitmodellen und Systeminteraktionen in Form von kollaborativem Verhalten. Alle drei Aspekte werden in die adaptive SoS Architektur integriert. Neben der entwickelten Modellierungssprache führt diese Doktorarbeit Analyseregeln zur Untersuchung des modellierten SoS ein. Diese Regeln ermöglichen die Erkennung von Architekturmustern und möglichen Schwächen im Systementwurf. Zusätzlich wird eine Simulationsumgebung für die Modellierungssprache präsentiert, welche die direkte Ausführung von einer modellierten SoS Architektur erlaubt. Die Analyseregeln und die Simulationsumgebung dienen demnach sowohl der Verifizierung von Systeminteraktionen als auch der spezifizierten Adaptationslogik innerhalb des SoS. Die vorliegende Arbeit implementiert die vorgestellten Konzepte der Modellierungssprache durch deren Abbildung auf einen aktuellen Standard im Automobilbereich und zeigt damit die Anwendbarkeit der Sprache auf gegenwärtige Systeme. Zum Schluss findet eine Evaluierung der Modellierungssprache statt, wobei aktuelle Forschungsszenarien aus unterschiedlichen Bereichen erneut mit der vorgestellten Sprache modelliert werden. Dies zeigt, dass die Modellierungskonzepte geeignet sind, um weite Bereiche existierender Forschungsprobleme zu bewältigen. KW - deurema modeling language KW - adaptive systems KW - systems of systems KW - runtime models KW - feedback loop modeling KW - collaborations KW - Deurema Modellierungssprache KW - Kollaborationen KW - adaptive Systeme KW - Systeme von Systemen KW - Laufzeitmodelle KW - Feedback Loop Modellierung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97494 ER - TY - THES A1 - Couturier, Jean-Philippe T1 - New inverse opal hydrogels as platform for detecting macromolecules T1 - Neue inverse Opal-Hydrogele als Plattform für die Detektion von Makromolekülen N2 - In this thesis, a route to temperature-, pH-, solvent-, 1,2-diol-, and protein-responsive sensors made of biocompatible and low-fouling materials is established. These sensor devices are based on the sensitivemodulation of the visual band gap of a photonic crystal (PhC), which is induced by the selective binding of analytes, triggering a volume phase transition. The PhCs introduced by this work show a high sensitivity not only for small biomolecules, but also for large analytes, such as glycopolymers or proteins. This enables the PhC to act as a sensor that detects analytes without the need of complex equipment. Due to their periodical dielectric structure, PhCs prevent the propagation of specific wavelengths. A change of the periodicity parameters is thus indicated by a change in the reflected wavelengths. In the case explored, the PhC sensors are implemented as periodically structured responsive hydrogels in formof an inverse opal. The stimuli-sensitive inverse opal hydrogels (IOHs) were prepared using a sacrificial opal template of monodispersed silica particles. First, monodisperse silica particles were assembled with a hexagonally packed structure via vertical deposition onto glass slides. The obtained silica crystals, also named colloidal crystals (CCs), exhibit structural color. Subsequently, the CCs templates were embedded in polymer matrix with low-fouling properties. The polymer matrices were composed of oligo(ethylene glycol) methacrylate derivatives (OEGMAs) that render the hydrogels thermoresponsive. Finally, the silica particles were etched, to produce highly porous hydrogel replicas of the CC. Importantly, the inner structure and thus the ability for light diffraction of the IOHs formed was maintained. The IOH membrane was shown to have interconnected pores with a diameter as well as interconnections between the pores of several hundred nanometers. This enables not only the detection of small analytes, but also, the detection of even large analytes that can diffuse into the nanostructured IOH membrane. Various recognition unit – analyte model systems, such as benzoboroxole – 1,2-diols, biotin – avidin and mannose – concanavalin A, were studied by incorporating functional comonomers of benzoboroxole, biotin and mannose into the copolymers. The incorporated recognition units specifically bind to certain low and highmolar mass biomolecules, namely to certain saccharides, catechols, glycopolymers or proteins. Their specific binding strongly changes the overall hydrophilicity, thus modulating the swelling of the IOH matrices, and in consequence, drastically changes their internal periodicity. This swelling is amplified by the thermoresponsive properties of the polymer matrix. The shift of the interference band gap due to the specific molecular recognition is easily visible by the naked eye (up to 150 nm shifts). Moreover, preliminary trial were attempted to detect even larger entities. Therefore anti-bodies were immobilized on hydrogel platforms via polymer-analogous esterification. These platforms incorporate comonomers made of tri(ethylene glycol) methacrylate end-functionalized with a carboxylic acid. In these model systems, the bacteria analytes are too big to penetrate into the IOH membranes, but can only interact with their surfaces. The selected model bacteria, as Escherichia coli, show a specific affinity to anti-body-functionalized hydrogels. Surprisingly in the case functionalized IOHs, this study produced weak color shifts, possibly opening a path to detect directly living organism, which will need further investigations. N2 - Periodisch strukturierte, funktionelle responsive Hydrogele wurden in Form von inversen Opalen (IOH) aufgebaut und als Basiselement für Temperatur-, pH-, lösungsmittel-, 1,2-diol- oder protein-sensitive Sensorsysteme entwickelt. Dazu wurden aus biokompatiblen Bausteinen funktionelle photonische Kristalle aufgebaut, deren optische Bandlücke durch selektive Bindung eines Analyten moduliert wird, indem dieser einen Volumen-Phasenübergang induziert.Mittels solcher responsiver photonische Kristalle ist es möglich, Analyte ohne aufwendige Geräte durch Farbänderung einfach zu detektieren. Die entwickelten Systeme zeigen nicht nur eine hohe Empfindlichkeit gegenüber kleinen Biomolekülen, sondern auch gegenüber größeren Analyten wie z.B. Glycopolymeren und Proteinen, was bisher nicht bekannt war. Die stimuli-sensitiven inversen Opal Hydrogele (IOHs) wurden in mehreren Stufen hergestellt. Als erstes wurden dafür kolloidale Kristalle mit hexagonal gepackten Strukturen aus monodispersen SiO2-Partikeln auf Glasträgern auf ebaut (“Opal”). Die Opale mit charakteristischen Strukturfarben wurden anschließend in eine polymere Hydrogelmatrix eingebettet. Diese wurde aus Oligo(ethylenglycol)methacrylaten (OEGMAs) hergestellt, so dass die Hydrogele sowohl thermosensitives als auch “lowfouling” Verhalten zeigen. Im letzten Schritt wurden die SiO2-Partikel entfernt und so eine hochporöse Hydrogel-Replika der Opale erhalten unter Erhalt deren innerer Struktur und Strukturfarbe. Die miteinander verbunden Poren der IOHMembran besitzen einen Durchmesser von einigen hundert Nanometern. Dies ermöglichte nicht nur die Detektion von kleinen Analyten, sondern auch die Detektion von deutlich größeren, makromolekularen Analyten, die ebenfalls in die Nanostrukturen der IOH Membran diffundieren können. Modellsysteme bestanden immer aus einer Erkennungsgruppe und einem Analyten, beispielsweise aus Benzoboroxol – 1,2-Diol, Biotin – Avidin und Mannose – Lectin (Concanavalin A). Für dieseModellsysteme wurden OEGMAs mitMonomeren copolymerisiert, die mit Benzoboroxol, Biotin bzw.Mannose funktionalisiert waren. Die so im Polymer eingebauten Erkennungsgruppen binden spezifisch an bestimmte Biomoleküle unterschiedlicherMolmassen, wie z.B. niedermolekulare Saccharide oder Catechin, als auch hochmolekulare Glycopolymere oder Proteine. Der spezifische Bindungsvorgang moduliert die Gesamthydrophilie, so dass sich der Quellgrad der IOH-Matrix ändert. Dies wiederrumverändert die innere Periodizität und damit die Strukturfarbe. Dabei wird der Quelleffekt durch die Thermosensitivität der Hydrogele massiv verstärkt. Eine spezifischeMolekülanbindung lässt sich so optisch, z.T. sogar mit dem Auge, erkennen aufgrund der deutlichen Verschiebung der Strukturfarbe um bis zu 150 nm. Des Weiteren wurden auch erste Versuche zur Detektion von noch größeren Analyten unternommen. Dafür wurden Antiköper durch nachträgliche Modifizierung der Polymerseitenketten auf den Hydrogeloberflächen immobilisiert. Mit diesem Modellsystem konnten unterschiedliche Bakterienarten durch Antikörper spezifisch gebunden werden. Die verwendeten Bakterienarten sind zwar zu groß, um in die Membran des IOH Systems einzudringen, können jedoch mit der IOH-Oberfläche wechselwirken. Insbesondere dasModellsystem mit Escherichia coli zeigte eine starke, spezifische Affinität zu dem Antikörper-funktionalisierten IOH. Überraschenderweise zeigte sich bei den Versuchen in Gegenwart des Analyten eine kleine Farbänderung der funktionalisierten IOH. Damit eröffnet sich u.U. dieMöglichkeit, mit solchen responsiven photonischen Kristallen auch lebende Organismen spezifisch und einfach zu detektieren, was in weiterführenden Arbeiten zu klären sein wird. KW - inverse opal KW - hydrogel KW - responsive polymer KW - inverse Opale KW - Hydrogel KW - schaltbare Polymere Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98412 ER - TY - THES A1 - Lenz, Josefine T1 - Thermokarst dynamics in central-eastern Beringia T1 - Thermokarstdynamik im zentral-östlichen Beringia BT - insights from permafrost and lacustrine sediment cores BT - Einblicke durch Permafrost- und Seesedimentkerne N2 - Widespread landscape changes are presently observed in the Arctic and are most likely to accelerate in the future, in particular in permafrost regions which are sensitive to climate warming. To assess current and future developments, it is crucial to understand past environmental dynamics in these landscapes. Causes and interactions of environmental variability can hardly be resolved by instrumental records covering modern time scales. However, long-term environmental variability is recorded in paleoenvironmental archives. Lake sediments are important archives that allow reconstruction of local limnogeological processes as well as past environmental changes driven directly or indirectly by climate dynamics. This study aims at reconstructing Late Quaternary permafrost and thermokarst dynamics in central-eastern Beringia, the terrestrial land mass connecting Eurasia and North America during glacial sea-level low stands. In order to investigate development, processes and influence of thermokarst dynamics, several sediment cores from extant lakes and drained lake basins were analyzed to answer the following research questions: 1. When did permafrost degradation and thermokarst lake development take place and what were enhancing and inhibiting environmental factors? 2. What are the dominant processes during thermokarst lake development and how are they reflected in proxy records? 3. How did, and still do, thermokarst dynamics contribute to the inventory and properties of organic matter in sediments and the carbon cycle? Methods applied in this study are based upon a multi-proxy approach combining sedimentological, geochemical, geochronological, and micropaleontological analyses, as well as analyses of stable isotopes and hydrochemistry of pore-water and ice. Modern field observations of water quality and basin morphometrics complete the environmental investigations. The investigated sediment cores reveal permafrost degradation and thermokarst dynamics on different time scales. The analysis of a sediment core from GG basin on the northern Seward Peninsula (Alaska) shows prevalent terrestrial accumulation of yedoma throughout the Early to Mid Wisconsin with intermediate wet conditions at around 44.5 to 41.5 ka BP. This first wetland development was terminated by the accumulation of a 1-meter-thick airfall tephra most likely originating from the South Killeak Maar eruption at 42 ka BP. A depositional hiatus between 22.5 and 0.23 ka BP may indicate thermokarst lake formation in the surrounding of the site which forms a yedoma upland till today. The thermokarst lake forming GG basin initiated 230 ± 30 cal a BP and drained in Spring 2005 AD. Four years after drainage the lake talik was still unfrozen below 268 cm depth. A permafrost core from Mama Rhonda basin on the northern Seward Peninsula preserved a full lacustrine record including several lake phases. The first lake generation developed at 11.8 cal ka BP during the Lateglacial-Early Holocene transition; its old basin (Grandma Rhonda) is still partially preserved at the southern margin of the study basin. Around 9.0 cal ka BP a shallow and more dynamic thermokarst lake developed with actively eroding shorelines and potentially intermediate shallow water or wetland phases (Mama Rhonda). Mama Rhonda lake drainage at 1.1 cal ka BP was followed by gradual accumulation of terrestrial peat and top-down refreezing of the lake talik. A significant lower organic carbon content was measured in Grandma Rhonda deposits (mean TOC of 2.5 wt%) than in Mama Rhonda deposits (mean TOC of 7.9 wt%) highlighting the impact of thermokarst dynamics on biogeochemical cycling in different lake generations by thawing and mobilization of organic carbon into the lake system. Proximal and distal sediment cores from Peatball Lake on the Arctic Coastal Plain of Alaska revealed young thermokarst dynamics since about 1,400 years along a depositional gradient based on reconstructions from shoreline expansion rates and absolute dating results. After its initiation as a remnant pond of a previous drained lake basin, a rapidly deepening lake with increasing oxygenation of the water column is evident from laminated sediments, and higher Fe/Ti and Fe/S ratios in the sediment. The sediment record archived characterizing shifts in depositional regimes and sediment sources from upland deposits and re-deposited sediments from drained thaw lake basins depending on the gradually changing shoreline configuration. These changes are evident from alternating organic inputs into the lake system which highlights the potential for thermokarst lakes to recycle old carbon from degrading permafrost deposits of its catchment. The lake sediment record from Herschel Island in the Yukon (Canada) covers the full Holocene period. After its initiation as a thermokarst lake at 11.7 cal ka BP and intense thermokarst activity until 10.0 cal ka BP, the steady sedimentation was interrupted by a depositional hiatus at 1.6 cal ka BP which likely resulted from lake drainage or allochthonous slumping due to collapsing shore lines. The specific setting of the lake on a push moraine composed of marine deposits is reflected in the sedimentary record. Freshening of the maturing lake is indicated by decreasing electrical conductivity in pore-water. Alternation of marine to freshwater ostracods and foraminifera confirms decreasing salinity as well but also reflects episodical re-deposition of allochthonous marine sediments. Based on permafrost and lacustrine sediment records, this thesis shows examples of the Late Quaternary evolution of typical Arctic permafrost landscapes in central-eastern Beringia and the complex interaction of local disturbance processes, regional environmental dynamics and global climate patterns. This study confirms that thermokarst lakes are important agents of organic matter recycling in complex and continuously changing landscapes. N2 - Derzeit werden deutliche Landschaftsveränderungen in der Arktis beobachtet, welche sich höchstwahrscheinlich zukünftig v.a. in den Permafrostregionen verstärken, da diese besonders empfindlich auf Klimaveränderungen reagieren. Um derzeitige und zukünftige Entwicklungen einschätzen zu können, ist es wichtig vergangene Umweltprozesse zu verstehen. Ursachen und Wechselwirkungen von Umweltveränderungen können nur bedingt durch instrumentelle Aufzeichnungen erklärt werden, doch Paleo-Umweltarchive können weit in die Vergangenheit reichende Umweltdynamiken aufzeichnen. Seesedimente sind wichtige Archive, die lokale limnogeologische Prozesse, aber auch direkt oder indirekt klimatisch gesteuerte Umweltveränderungen der Vergangenheit aufzeichnen. Ziel der vorliegenden Arbeit ist es, spätquartäre Permafrost- und Thermokarstdynamik im zentral-östlichen Beringia zu rekonstruieren. Beringia umfasst jene terrestrische Landmasse, welche Eurasien und Nord-Amerika zu Zeiten von Meeresspiegeltiefständen verband. Um die Entwicklung, die Prozesse und den Einfluss von Thermokarstdynamik zu untersuchen, wurden mehrere Sedimentkerne von rezenten Seen und ausgelaufenen Seebecken analysiert, um folgende Forschungsfragen zu beantworten: 1. Zu welcher Zeit degradierte Permafrost und wann entwickelten sich Thermokarstseen? Was waren hemmende oder verstärkende Faktoren? 2. Was sind dominierende Prozesse während der Entwicklung von Thermokarstseen und wie spiegeln sich diese in Proxy-Aufzeichnungen wieder? 3. Wie hat Thermokarstdynamik damals und heute zur Bedeutung von organischer Substanz in Sedimenten und im Kohlenstoffkreislauf beigetragen? Die in dieser Arbeit angewandten Methoden basieren auf einem sogenannten „multi-proxy“ Ansatz, der sedimentologische, geochemische, geochronologische und mikropaläontologische Analysen, sowie die Untersuchung von stabilen Isotopen und die Hydrochemie von Porenwasser und -eis, verbindet. Feldmessungen der modernen Wasserqualität und Beckenmorphometrie komplettieren die Umweltuntersuchungen. Auf Grundlage der untersuchten Sedimentkerne lässt sich die Degradation von Permafrost und die Dynamik von Thermokarst auf zeitlich verschiedenen Skalen rekonstruieren. Die Analyse eines Sedimentkerns vom GG-Becken auf der nördlichen Seward-Halbinsel (Alaska) zeigt eine vorwiegend terrestrische Akkumulation von Yedoma während des Früh- und Mittel-Wisconsin mit zwischenzeitlich feuchteren Verhältnissen zwischen 44,5 und 41,5 ka BP. Diese frühe Feuchtgebietsphase wurde durch die Akkumulation einer 1 m dicken Tephra-Lage beendet, welche sehr wahrscheinlich von der Eruption des heutigen South Killeak Maar vor etwa 42.000 Jahren stammt. Eine Schichtlücke im Sedimentkern von etwa 22,5 und 0,23 ka BP gibt einen Hinweis auf Thermokarstentwicklung in der Umgebung der Kernlokation, welche bis heute ein Yedoma-Rudiment bildet. Der Thermokarstsee, der GG-Becken formte, entstand 230 ± 30 cal a BP und drainierte im Frühling 2005 AD. Vier Jahre nach der Drainage war der Talik des Sees in einer Tiefe von 268 cm noch ungefroren. Ein Permafrostkern vom Mama Rhonda-Becken auf der nördlichen Seward-Halbinsel archivierte eine vollständige limnische Fazies mit mehreren Seephasen. Die erste Seegeneration entstand am Übergang vom Spätglazial zum Frühholozän um etwa 11,8 cal ka BP; das alte Seebecken (Grandma Rhonda) ist bis heute südlich der Kernlokation erhalten. Etwa um 9,0 cal ka BP entwickelte sich ein eher flaches und dynamisches Seesystem mit aktiv erodierenden Ufern und potenziell zwischengeschalteten Flachwasser- oder Feuchtgebietsphasen (Mama Rhonda). Die Drainage vom Mama Rhonda-See etwa 1,1 cal ka BP wurde gefolgt von gradueller Torfakkumulation und einem von oben zurückfrierenden See-Talik Es wurde ein deutlich geringerer organischer Kohlenstoff-Gehalt in Grandma Rhonda-Ablagerungen (TOC im Mittel 2,5 Gew.-%) festgestellt, als in Mama Rhonda Ablagerungen (TOC im Mittel 7,9 Gew.-%). Dies zeigt den bedeutenden Einfluss von Thermokarst auf biogeochemische Kreisläufe, da in verschiedenen Seegenerationen organischen Kohlenstoff durch Permafrost-Tauen im Seesystem mobilisiert wird. Seesedimentkerne aus der Uferzone und dem zentralen Bereich von Peatball Lake auf der Arktischen Küstenebene von Alaska, ergaben eine junge Thermokarstdynamik von 1.400 Jahren, welche auf der Basis von absoluten Datierungen und Uferexpansionsraten rekonstruiert wurde. Nach der Seeinitiierung als Rest-See eines zuvor ausgelaufenen Seebeckens, vertiefte sich Peatball Lake verhältnismäßig schnell mit zunehmender Sauerstoffanreicherung der Wassersäule, wie aus laminierten Sedimenten und hohen Fe/Ti- und Fe/S-Verhältnissen im Sediment ersichtlich ist. Die Sedimente von Peatball Lake archivierten einen Wechsel des Ablagerungsregimes bei Ausdehnung der Seefläche und einen Wechsel der Sedimentquelle von ursprünglichen, rein terrestrischen Ablagerungen und bereits umgelagerten Sedimenten aus drainierten Seebecken. Angezeigt wird dieser Wechsel durch eine Veränderung im Eintrag organischen Materials in das Seesystem, was wiederum das Potential von Thermokarstseen bei der Aufarbeitung alten Kohlenstoffs aus degradierendem Permafrost im Einzugsgebiet verdeutlicht. Der Seesedimentkern von der Herschel Insel im Yukon (Kanada) deckt das gesamte Holozän ab. Nach der Seeentstehung um 11,7 cal ka BP und einer Zeit intensiver Thermokarstaktivität bis 11,0 cal ka BP, wird die Phase einer eher kontinuierlichen Sedimentation von einer Schichtlücke um 1,6 cal ka BP unterbrochen. Diese wurde entweder durch die Drainage des Sees oder einer allochthonen Rutschung instabiler Uferlinien verursacht. Die spezielle Situation des Sees auf einer Stauchendmoräne aus marinem Material spiegelt sich auch in dem Seesedimentarchiv wieder. Das Aussüßen des wachsenden Sees wird durch die abnehmende elektrische Leitfähigkeit im Porenwasser angezeigt. Der Wechsel von marinen und Süßwasserostrakoden- und Foraminiferengemeinschaften bestätigt zum einen die abnehmende Salinität des Sees, aber zeigt zum anderen auch episodische Umlagerung von allochthonem, marinem Sediment. Auf der Grundlange von Permafrost- und Seesedimentkernen zeigt diese Arbeit Beispiele spätquartärer Entwicklungsgeschichte typischer Arktischer Permafrostlandschaften im zentral-östlichen Beringia. Es werden komplexe Zusammenhänge zwischen lokalen Störungsprozessen, regionaler Umweltdynamik und globalen Klimaveränderungen aufgezeigt. Thermokarstseen spielen dabei eine wichtige Rolle im sich kontinuierlich verändernden Landschaftsbild der hohen Breiten und im Stoffkreislauf bei der Aufarbeitung organischer Substanz. KW - paleolimnology KW - permafrost degradation KW - periglacial landscape evolution KW - thermokarst processes KW - carbon cycling KW - central-eastern Beringia KW - Paläolimnologie KW - Permafrostdegradation KW - periglaziale Landschaftsentwicklung KW - Thermokarstprozesse KW - Kohlenstoffkreislauf KW - zentral-östliches Beringia Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-101364 ER - TY - THES A1 - Hildebrand, Viet T1 - Twofold switchable block copolymers based on new polyzwitterions T1 - Neue Polyzwitterionbasierte Blockcopolymere mit „Schizophrenem Verhalten“ N2 - In complement to the well-established zwitterionic monomers 3-((2-(methacryloyloxy)ethyl)dimethylammonio)propane-1-sulfonate (“SPE”) and 3-((3-methacrylamidopropyl)dimethylammonio)propane-1-sulfonate (“SPP”), the closely related sulfobetaine monomers were synthesized and polymerized by reversible addition-fragmentation chain transfer (RAFT) polymerization, using a fluorophore labeled RAFT agent. The polyzwitterions of systematically varied molar mass were characterized with respect to their solubility in water, deuterated water, and aqueous salt solutions. These poly(sulfobetaine)s show thermoresponsive behavior in water, exhibiting upper critical solution temperatures (UCST). Phase transition temperatures depend notably on the molar mass and polymer concentration, and are much higher in D2O than in H2O. Also, the phase transition temperatures are effectively modulated by the addition of salts. The individual effects can be in parts correlated to the Hofmeister series for the anions studied. Still, they depend in a complex way on the concentration and the nature of the added electrolytes, on the one hand, and on the detailed structure of the zwitterionic side chain, on the other hand. For the polymers with the same zwitterionic side chain, it is found that methacrylamide-based poly(sulfobetaine)s exhibit higher UCST-type transition temperatures than their methacrylate analogs. The extension of the distance between polymerizable unit and zwitterionic groups from 2 to 3 methylene units decreases the UCST-type transition temperatures. Poly(sulfobetaine)s derived from aliphatic esters show higher UCST-type transition temperatures than their analogs featuring cyclic ammonium cations. The UCST-type transition temperatures increase markedly with spacer length separating the cationic and anionic moieties from 3 to 4 methylene units. Thus, apparently small variations of their chemical structure strongly affect the phase behavior of the polyzwitterions in specific aqueous environments. Water-soluble block copolymers were prepared from the zwitterionic monomers and the non-ionic monomer N-isopropylmethacrylamide (“NIPMAM”) by the RAFT polymerization. Such block copolymers with two hydrophilic blocks exhibit twofold thermoresponsive behavior in water. The poly(sulfobetaine) block shows an UCST, whereas the poly(NIPMAM) block exhibits a lower critical solution temperature (LCST). This constellation induces a structure inversion of the solvophobic aggregate, called “schizophrenic micelle”. Depending on the relative positions of the two different phase transitions, the block copolymer passes through a molecularly dissolved or an insoluble intermediate regime, which can be modulated by the polymer concentration or by the addition of salt. Whereas, at low temperature, the poly(sulfobetaine) block forms polar aggregates that are kept in solution by the poly(NIPMAM) block, at high temperature, the poly(NIPMAM) block forms hydrophobic aggregates that are kept in solution by the poly(sulfobetaine) block. Thus, aggregates can be prepared in water, which switch reversibly their “inside” to the “outside”, and vice versa. N2 - Diese Arbeit befasst sich mit der Synthese und Charakterisierung von doppelt thermisch-responsiven Blockcopolymeren mit einem polaren nicht-ionischen Block (der einen LCST-Übergang in wässriger Lösung induziert) und einem zwitterionischen Block (der einen UCST-Übergang aufweisen soll), der durch Salzzusatz über einen weiten Temperaturbereich modulierbar ist. Dafür wurden geeignete zwitterionische Polymer¬blöcke identifiziert und hergestellt, die ein derartiges Löslichkeitsprofil aufweisen. Da bislang nur relativ wenige Poly-sulfobetaine beschrieben sind und entsprechend das wässrige Phasenverhalten nur für einzelne ausgewählte Polymere bekannt ist, wurde ein Grundverständnis von chemischer Struktur und Phasen¬übergangs¬verhalten durch eine systematische Variation des Substitutionsmusters angestrebt. Die als geeignet erkannten Sulfobetain-Monomere wurden mit dem nicht-ionischen Monomer N-Isopropyl-methacrylamid („NIPMAM“) zu Blockcopolymeren von unterschiedlicher Größe und Blocklängen zusammengefügt. Die neuen Blockcopolymere wurden anschließend bezüglich der Lage der Phasenübergänge mit Trübheitsmessungen untersucht. Es wurden 2 Serien neuer zwitterionischer Monomere synthetisiert, deren Struktur den sehr gut untersuchten 3-((2-(methacryloyloxy)ethyl)dimethylammonio)propane-1-sulfonate („SPE“) und 3-((3-methacrylamidopropyl)dimethylammonio)propane-1-sulfonate („SPP“) ähnlich ist. Aus den Monomeren wurden fluoreszenz-markierte Homopolymere mit unterschiedlichen Molmassen mittels der Reversiblen Additions-Fragmentierungs Kettenübertragungs (RAFT) – Polymerisation unter Verwendung eines geeigneten RAFT Reagenzes synthetisiert. Die Poly¬sulfobetaine wurden bezüglich ihrer Löslichkeit in Wasser, in deuteriertem Wasser und in Salzlösungen untersucht. Ihr wässriges Phasenverhalten mit einem UCST-Übergang ist stark abhängig von ihrer Molmasse und von der Polymerkonzentration der untersuchten Lösung. Auffällig ist, dass die Phasenübergangstemperatur in D2O deutlich höher liegt als in H2O. Des Weiteren konnten die Löslichkeit und Phasen-übergangstemperatur durch Salzzusatz effektiv moduliert werden. Prinzipiell stellte sich bei den untersuchten Anionen heraus, dass das Einsalzen bzw. das Aussalzen der empirischen Hofmeister Serie folgt. Dabei hängen die individuellen Effekte sehr stark von der Konzentration und von der Art des Salzes, aber auch in nicht-trivialer Weise von der detaillierten zwitterionischen Struktur stark ab. Durch die systematische Variation der Monomerstruktur wurden interessante Tendenzen offenbar. Die Methacrylamid-basierte Polysulfobetaine besitzen eine höhere Phasenübergangstemperatur als ihre Methacrylat-basierten Analoga. Die Vergrößerung der Distanz zwischen Polymerrückrat und der zwitterionischen Gruppe von 2 auf 3 Methylengruppen führt zu einer Erniedrigung der Phasenübergangstemperatur. Polysulfobetaine mit aliphatischen Resten (Methyl-gruppen) am Ammonium-Ion haben eine höhere Phasenübergangstemperatur als ihre Analoga, in denen der Ammonium-Stickstoff Teil eines Heterozyklus ist. Als letzte Strukturvariable wurde die Distanz zwischen Kation und Anion von 3 auf 4 Methylengruppen vergrößert; diese Änderung führt zu einer massiven Erhöhung der Phasenübergangstemperatur. Die Polysulfobetaine wurden verwendet, um mit dem nicht-ionischen Monomer NIPMAM wasserlösliche Blockcopolymere mittels der RAFT Polymerisation herzustellen. Diese Blockcopolymere besitzen doppelt thermisch-responsives Verhalten (mit einem UCST- und einem LCST-Übergang). Die Besonderheit einer solchen Konstellation ist, dass eine Strukturinversion der solvophoben Aggregate induziert werden kann. Daher werden solche Blockcopolymer-Assoziate auch als „schizophrene Mizellen“ bezeichnet. Je nach der relativen Lage der beiden Phasenübergänge, die sich durch Polymerkonzentration oder durch Salzzusatz einstellen lässt, läuft die Strukturinversion über ein molekular gelöstes oder über ein unlösliches Zwischenstadium ab. Der Polysulfobetain-Block bildet bei niedriger Temperatur Aggregate, die durch den gelösten poly(NIPMAM)-Block in Lösung gehalten werden. Dahingegen bildet der poly(NIPMAM)-Block bei hoher Temperatur Aggregate, welche ihrerseits durch den gelösten Polysulfobetain-Block in Lösung gehalten werden. Somit werden „schizophrene“ Aggregate in Wasser erzeugt, die fähig sind, reversibel ihr „Inneres“ nach „Außen“ und umgekehrt zu schalten durch Nutzen eines einfachen thermischen Impulses. KW - switchable block copolymer KW - polyzwitterion KW - polysulfobetaine KW - thermoresponsive polymers KW - schizophrenic behavior KW - LCST and UCST KW - electrolyte sensitivity KW - zweifach schaltbare Blockcopolymere KW - Polyzwitterion KW - Polysulfobetaine KW - thermoresponsive Polymere KW - schizophrenes Verhalten KW - LCST und UCST KW - Elektrolytempfindlichkeit Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-101372 ER - TY - THES A1 - Schmidt, Peter T1 - Contributions to EU regional policy T1 - Beiträge zur EU-Regionalpolitik BT - reconsidering theoretical and empirical perspectives on the Structural Funds BT - neue theoretische und empirische Perspektiven auf die Strukturfonds N2 - This cumulative dissertation contains four self-contained articles which are related to EU regional policy and its structural funds as the overall research topic. In particular, the thesis addresses the question if EU regional policy interventions can at all be scientifically justified and legitimated on theoretical and empirical grounds from an economics point of view. The first two articles of the thesis (“The EU structural funds as a means to hamper migration” and “Internal migration and EU regional policy transfer payments: a panel data analysis for 28 EU member countries”) enter into one particular aspect of the debate regarding the justification and legitimisation of EU regional policy. They theoretically and empirically analyse as to whether regional policy or the market force of the free flow of labour (migration) in the internal European market is the better instrument to improve and harmonise the living and working conditions of EU citizens. Based on neoclassical market failure theory, the first paper argues that the structural funds of the EU are inhibiting internal migration, which is one of the key measures in achieving convergence among the nations in the single European market. It becomes clear that European regional policy aiming at economic growth and cohesion among the member states cannot be justified and legitimated if the structural funds hamper instead of promote migration. The second paper, however, shows that the empirical evidence on the migration and regional policy nexus is not unambiguous, i.e. different empirical investigations show that EU structural funds hamper and promote EU internal migration. Hence, the question of the scientific justification and legitimisation of EU regional policy cannot be readily and unambiguously answered on empirical grounds. This finding is unsatisfying but is in line with previous theoretical and empirical literature. That is why, I take a step back and reconsider the theoretical beginnings of the thesis, which took for granted neoclassical market failure theory as the starting point for the positive explanation as well as the normative justification and legitimisation of EU regional policy. The third article of the thesis (“EU regional policy: theoretical foundations and policy conclusions revisited”) deals with the theoretical explanation and legitimisation of EU regional policy as well as the policy recommendations given to EU regional policymakers deduced from neoclassical market failure theory. The article elucidates that neoclassical market failure is a normative concept, which justifies and legitimates EU regional policy based on a political and thus subjective goal or value-judgement. It can neither be used, therefore, to give a scientifically positive explanation of the structural funds nor to obtain objective and practically applicable policy instruments. Given this critique of neoclassical market failure theory, the third paper consequently calls into question the widely prevalent explanation and justification of EU regional policy given in static neoclassical equilibrium economics. It argues that an evolutionary non-equilibrium economics perspective on EU regional policy is much more appropriate to provide a realistic understanding of one of the largest policies conducted by the EU. However, this does neither mean that evolutionary economic theory can be unreservedly seen as the panacea to positively explain EU regional policy nor to derive objective policy instruments for EU regional policymakers. This issue is discussed in the fourth article of the thesis (“Market failure vs. system failure as a rationale for economic policy? A critique from an evolutionary perspective”). This article reconsiders the explanation of economic policy from an evolutionary economics perspective. It contrasts the neoclassical equilibrium notions of market and government failure with the dominant evolutionary neo-Schumpeterian and Austrian-Hayekian perceptions. Based on this comparison, the paper criticises the fact that neoclassical failure reasoning still prevails in non-equilibrium evolutionary economics when economic policy issues are examined. This is surprising, since proponents of evolutionary economics usually view their approach as incompatible with its neoclassical counterpart. The paper therefore argues that in order to prevent the otherwise fruitful and more realistic evolutionary approach from undermining its own criticism of neoclassical economics and to create a consistent as well as objective evolutionary policy framework, it is necessary to eliminate the equilibrium spirit. Taken together, the main finding of this thesis is that European regional policy and its structural funds can neither theoretically nor empirically be justified and legitimated from an economics point of view. Moreover, the thesis finds that the prevalent positive and instrumental explanation of EU regional policy given in the literature needs to be reconsidered, because these theories can neither scientifically explain the emergence and development of this policy nor are they appropriate to derive objective and scientific policy instruments for EU regional policymakers. N2 - Diese kumulative Dissertation umfasst vier eigenständige Artikel zur EU-Regionalpolitik und ihren Strukturfonds als dem übergreifenden Forschungsthema der Dissertation. Die Arbeit beschäftigt sich mit der Fragestellung, ob sich aus ökonomischer Sicht die EU-Regionalpolitik überhaupt wissenschaftlich, sowohl empirisch als auch theoretisch, begründen lässt. Die ersten beiden Artikel der Dissertation (“The EU structural funds as a means to hamper migration” und “Internal migration and EU regional policy transfer payments: a panel data analysis for 28 EU member countries”) greifen einen bestimmten Aspekt der Debatte um die Rechtfertigung von Eingriffen der EU-Regionalpolitik in den EU-Binnenmarkt auf. Die beiden Artikel analysieren theoretisch und empirisch, ob die Regionalpolitik oder die freien Marktkräfte in Form von freier Migration im europäischen Binnenmarkt besser geeignet sind, um die Lebens- und Beschäftigungsbedingungen der EU-Bürger zu verbessern und anzugleichen. Basierend auf der neoklassischen Theorie des Marktversagens, argumentiert das erste Papier, dass die Strukturfonds der EU Migration, die einen wesentlichen Mechanismus zur Erreichung von Konvergenz der europäischen Mitgliedsstaaten darstellt, verhindern. Es wird deutlich, dass die EU-Regionalpolitik, welche auf Wachstum und Konvergenz der EU-Mitgliedsstaaten abzielt, nicht gerechtfertigt werden kann, wenn die Strukturfonds Migration in der EU behindern, anstatt sie zu fördern. Der zweite Artikel zeigt jedoch, dass die empirische Evidenz bezüglich des Zusammenhangs von EU-Regionalpolitik und Migration nicht eindeutig ist, d.h. verschiedene empirische Untersuchungen zeigen, dass die Strukturfonds Migration behindern aber auch fördern. Daher ist die Frage der wissenschaftlichen Rechtfertigung der EU-Regionalpolitik auf empirischer Grundlage nicht einfach und eindeutig. Dieses Ergebnis ist unbefriedigend, steht aber im Einklang mit der bisherigen theoretischen und empirischen Literatur. Daher geht die Arbeit an dieser Stelle einen Schritt zurück und überprüft die zu Beginn unterstellte theoretische Grundlage ihrer Analyse der Erklärung und Rechtfertigung der EU-Regionalpolitik, die in der vorherrschenden neoklassischen Marktversagenstheorie zu sehen und zu finden ist. Der dritte Artikel („EU regional policy: theoretical foundations and policy conclusions revisited“) behandelt die theoretische Erklärung und Rechtfertigung, als auch die Politikempfehlungen an EU-Regionalpolitiker, welche aus der neoklassischen Marktversagenstheorie abgleitet werden. Der Artikel führt aus, dass das neoklassische Marktversagenskonzept normativ ist und die EU-Regionalpolitik dadurch mit Hilfe eines politischen und damit subjektiven Werturteils rechtfertigt und legitimiert. Dieses Konzept kann jedoch keine wissenschaftlich positive Erklärung der EU-Strukturfonds liefern, noch können daraus objektive und praktisch anwendbare Politikinstrumente abgeleitet werden. Diese Kritik an der neoklassischen Marktversagenstheorie gegeben, stellt das dritte Papier konsequenterweise die vorherrschende Erklärung und Rechtfertigung der EU-Regionalpolitik, welche in der statisch-neoklassischen Gleichgewichtsökonomik geliefert wird, in Frage. Es wird argumentiert, dass eine evolutorische Nicht-Gleichgewichtsperspektive auf die EU-Regionalpolitik wesentlich geeigneter erscheint eine realistische Erklärung für eine der größten Politiken der EU zu geben. Allerdings heißt dies nicht, dass die evolutorische Ökonomik unvoreingenommen als Allheilmittel für eine positive Erklärung und die Ableitung objektiver Politikinstrumente herangezogen werden kann. Warum dies so ist, wird im vierten Artikel der Dissertation („Market failure vs. system failure as a rationale for economic policy? A critique from an evolutionary perspective“) diskutiert. Dieser Artikel greift die Erklärung von Wirtschaftspolitik, die aus evolutorischer Perspektive gegeben wird, neu auf. Die neoklassischen Gleichgewichtsvorstellungen des Markt- und Staatsversagens werden mit den vorherrschenden evolutorischen neo-Schumpeterschen und Österreichisch-Hayekiansichen Vorstellungen die Wirtschaftspolitik betreffend verglichen. Auf diesem Vergleich aufbauend kritisiert das Papier, dass neoklassisches Versagensdenken in der evolutorischen Nicht-Gleichgewichtsökonomik weiterhin zu finden ist, wenn wirtschaftspolitische Fragestellungen erörtert werden. Dies ist sehr überraschend, da die Vertreter der evolutorischen Ökonomik ihren Ansatz normalerweise als inkompatibel zu ihrem neoklassischen Pendant ansehen. Der letzte Artikel argumentiert deshalb, dass der Gleichgewichtsgedanke eliminiert werden muss, um die ansonsten sehr fruchtbare und wesentlich realistischere evolutorische Ökonomik vor der Unterminierung ihrer eigenen Kritik an der Neoklassik zu schützen und einen konsistenten als auch objektiven evolutorischen Analyserahmen für wirtschaftspolitische Fragestellungen zu schaffen. Fasst man das Resultat der Dissertation zusammen, bleibt festzuhalten, dass die EU-Regionalpolitik und ihre Strukturfonds aus ökonomischer Sicht weder theoretisch noch empirisch rechtfertigt und legitimiert werden können. Darüber hinaus kommt die Arbeit zu dem Schluss, dass die vorherrschende positive und instrumentelle Erklärung der EU-Regionalpolitik, die in der Literatur gegeben wird, neu gedacht werden muss, da mit Hilfe dieser Theorien weder das Aufkommen und die Entwicklung dieser Politik erklärbar sind, noch geeignete objektive und wissenschaftliche Politikinstrumente für EU-Regionalpolitiker abgeleitet werden können. KW - EU regional policy KW - structural funds KW - internal migration KW - market failures KW - non-equilibrium economics KW - evolutionary economics KW - system failure KW - economic policy KW - European integration KW - EU-Regionalpolitik KW - Strukturfonds KW - interne Migration KW - Marktversagen KW - Nicht-Gleichgewichtsökonomik KW - Evolutorische Ökonomik KW - Systemversagen KW - Wirtschaftspolitik KW - Europäische Integration Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90837 ER - TY - THES A1 - Gomez, David T1 - Mechanisms of biochemical reactions within crowded environments T1 - Mechanismus der Biochemische Reaktionen im vollgestopfte Umgebungen N2 - The cell interior is a highly packed environment in which biological macromolecules evolve and function. This crowded media has effects in many biological processes such as protein-protein binding, gene regulation, and protein folding. Thus, biochemical reactions that take place in such crowded conditions differ from diluted test tube conditions, and a considerable effort has been invested in order to understand such differences. In this work, we combine different computationally tools to disentangle the effects of molecular crowding on biochemical processes. First, we propose a lattice model to study the implications of molecular crowding on enzymatic reactions. We provide a detailed picture of how crowding affects binding and unbinding events and how the separate effects of crowding on binding equilibrium act together. Then, we implement a lattice model to study the effects of molecular crowding on facilitated diffusion. We find that obstacles on the DNA impair facilitated diffusion. However, the extent of this effect depends on how dynamic obstacles are on the DNA. For the scenario in which crowders are only present in the bulk solution, we find that at some conditions presence of crowding agents can enhance specific-DNA binding. Finally, we make use of structure-based techniques to look at the impact of the presence of crowders on the folding a protein. We find that polymeric crowders have stronger effects on protein stability than spherical crowders. The strength of this effect increases as the polymeric crowders become longer. The methods we propose here are general and can also be applied to more complicated systems. N2 - Innerhalb einer Zelle, im Zytosol, entstehen und arbeiten sehr viele biologische Makromoleküle. Die Dichte dieser Moleküle ist sehr hoch und dieses ‘vollgestopfte’ Zytosol hat vielfältige Auswirkungen auf viele biologische Prozessen wie zum Beispiel Protein-Protein Interaktionen, Genregulation oder die Faltung von Proteinen. Der Ablauf von vielen biochemische Reaktionen in dieser Umgebung weicht von denen unter verdünnte Laborbedingungen ab. Um die Effekte dieses ‘makromolekularen Crowdings’ zu verstehen, wurde in den letzten Jahren bereits viel Mühe investiert. In dieser Arbeit kombinieren wir verschiede Computermethoden, um die Wirkungen des ‘makromolekularen Crowdings’ auf biologische Prozesse besser zu verstehen. Zuerst schlagen wir ein Gittermodell vor, um damit die Effekte des ‘makromolekularen Crowdings’ auf enzymatische Reaktionen zu studieren. Damit stellen wir ein detailliertes Bild zusammen, wie Crowding die Assoziations- und Dissozotationsraten beeinflusst und wie verschiedene crowding-Effekte zusammen auf die Gleichgewichtskonstante wirken. Weiterhin implementieren wir ein Gittermodell der ‘erleichterte Diffusion’. Unsere Ergebnisse zeigen, dass Hindernisse an der DNA die vereinfachte Diffusion beeinträchtigen. Das Ausmass dieser Wirkung hängt dabei von der Dynamik der Hindernisse an der DNA ab. Im dem Fall dass Crowder ausschließlich in der Lösung vorhanden sind, erhöhen sich unter bestimmten Bedingungen DNA-spezifische Bindungen. Schließlich nutzten wir strukturbasierte Techniken um damit die Auswirkungen von Crowding auf die Faltung von Proteinen zu untersuchen. Wir fanden dabei, dass Polymer Crowder stärkere Wirkungen auf die Proteinstabilität haben als kugelförmige Crowder. Dieser Effekt verstärkte sich mit der Länge der untersuchten Polymere. Die Methoden die hier vorgeschlagen werden, sind generell anwendbar und können auch an deutlich komplexeren Systemen angewandt werden. KW - molecular crowding KW - gene expression KW - enzymatic activity KW - protein folding KW - Molecular crowding KW - enzymatische Reaktionen KW - Genregulation KW - Faltung von Proteinen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94593 ER - TY - THES A1 - Schroth, Maximilian T1 - Microfinance and the enhancement of economic development in less developed countries T1 - Mikrofinanzierung und die Förderung wirtschaftlicher Entwicklung in weniger entwickelten Ländern N2 - It is the intention of this study to contribute to further rethinking and innovating in the Microcredit business which stands at a turning point – after around 40 years of practice it is endangered to fail as a tool for economic development and to become a doubtful finance product with a random scope instead. So far, a positive impact of Microfinance on the improvement of the lives of the poor could not be confirmed. Over-indebtment of borrowers due to the pre-dominance of consumption Microcredits has become a widespread problem. Furthermore, a rising number of abusive and commercially excessive practices have been reported. In fact, the Microfinance sector appears to suffer from a major underlying deficit: there does not exist a coherent and transparent understanding of its meaning and objectives so that Microfinance providers worldwide follow their own approaches of Microfinance which tend to differ considerably from each other. In this sense the study aims at consolidating the multi-faced and very often confusingly different Microcredit profiles that exist nowadays. Subsequently, in this study, the Microfinance spectrum will be narrowed to one clear-cut objective, in fact away from the mere monetary business transactions to poor people it has gradually been reduced to back towards a tool for economic development as originally envisaged by its pioneers. Hence, the fundamental research question of this study is whether, and under which conditions, Microfinance may attain a positive economic impact leading to an improvement of the living of the poor. The study is structured in five parts: the three main parts (II.-IV.) are surrounded by an introduction (I.) and conclusion (V.). In part II., the Microfinance sector is analysed critically aiming to identify the challenges persisting as well as their root causes. In the third part, a change to the macroeconomic perspective is undertaken in oder to learn about the potential and requirements of small-scale finance to enhance economic development, particularly within the economic context of less developed countries. By consolidating the insights gained in part IV., the elements of a new concept of Microfinance with the objecitve to achieve economic development of its borrowers are elaborated. Microfinance is a rather sensitive business the great fundamental idea of which is easily corruptible and, additionally, the recipients of which are predestined victims of abuse due to their limited knowledge in finance. It therefore needs to be practiced responsibly, but also according to clear cut definitions of its meaning and objectives all institutions active in the sector should be devoted to comply with. This is especially relevant as the demand for Microfinance services is expected to rise further within the years coming. For example, the recent refugee migration movement towards Europe entails a vast potential for Microfinance to enable these people to make a new start into economic life. This goes to show that Microfinance may no longer mainly be associated with a less developed economic context, but that it will gain importance as a financial instrument in the developed economies, too. N2 - Diese Studie soll einen Beitrag zur Grundlagenforschung in der Mikrofinanzierung leisten und zu Reflektion und Innovation im Mikrofinanzsektor anregen. Letzterer befindet sich zurzeit an einem Scheidepunkt: nach knapp 40 Jahren besteht die Gefahr, dass Mikrofinanzierung zu einem zweifelhaften Finanzprodukt ohne klare Richtung verkommt – anstatt sich als ein Mittel zur Förderung wirtschaftlicher Entwicklung zu etablieren. Bislang konnte noch kein Nachweis erbracht werden, dass Mikrofinanzierung einen positiven Einfluss auf die wirtschaftliche Entwicklung der Armen ausübt. Überschuldung der Kreditnehmer ist zu einem weit verbreiteten Problem geworden, die weite Mehrheit der Mikrokredite geht in den Konsum. Außerdem wird vielerorts über eine wachsende Anzahl missbräuchlicher Verleihpraktiken berichtet. Ein Hauptproblem scheint tatsächlich darin zu liegen, dass die Anbieter von Mikrofinanzdienstleistungen allesamt mit eigenen Mikrofinanzkonzepten arbeiten, die sich teilweise sehr stark voneinander unterscheiden. Ein kohärentes und transparentes Verständnis der Bedeutung und Zielsetzungen von Mikrofinanzierung liegt demnach nicht vor. Das Ziel dieser Studie ist daher, die vielschichtigen und oftmals verwirrenden Mikrokreditprofile zu konsolidieren. Das Spektrum von Mikrofinanzierung in dieser Studie soll auf ein klares Ziel eingegrenzt werden: weg von den wenig greifbaren Geldgeschäften für arme Haushalte hin zu einem Mittel zur Förderung der wirtschaftlichen Entwicklung wie ursprünglich von den Erschaffern der Mikrofinanzierung anvisiert. Die zentrale Forschungsfrage dieser Studie lautet daher, ob, und wenn ja, unter welchen Bedingungen, Mikrofinanzierung einen positiven Einfluss auf die wirtschaftliche Entwicklung und die Verbesserung des Lebens der Armen in weniger entwickelten Ländern ausüben kann. Die Studie gliedert sich in fünf Teile: Die drei Hauptteile (II.-IV.) sind eingerahmt von einer Einführung (I.) sowie einem Fazit (V.). In Teil II. wird der Mikrofinanzsektor kritisch analysiert. Es werden die aktuell bestehenden Probleme aufgezeigt und ihre möglichen Ursachen identifiziert. Im dritten Teil werden mithife einer makroökonomischen Betrachtungsweise Erkenntnisse über das Potenzial von Mikrofinanzierung zur Förderung wirtschaftlicher Entwicklung gesammelt. Ebenso über die dazu zu erfüllenden Anforderungen, insbesondere im Kontext weniger entwickelter Länder. In Teil IV. werden die Erkenntnisse konsolidiert und die Elemente eines neuen Mikrofinanzkonzept erarbeitet, das die Förderung der wirtschaftlichen Entwicklung der Kreditnehmer zum Ziel hat. Mikrofinanzierung ist ein sensibles Geschäft, dessen Grundidee leicht korrumpierbar ist und dessen Empfänger prädestinierte Opfer von Betrug und Missbrauch sind, da sie in der Regel über keinerlei Vorerfahrung in Finanzthemen verfügen. Es bedarf daher einer verantwortungsbewussten Praxis, die gleichermaßen nach klaren und transparenten Richtlinien bezüglich Bedeutung und Zielsetzungen ausgerichtet ist, nach denen sich alle aktiven Marktteilnehmer richten. Dies ist insbesondere auch deshalb relevant, da mit einer wachsenden Nachfrage nach Mikrokrediten in den nächsten Jahren zu rechnen ist. Beispielsweise stellt die aktuelle Flüchtlingsbewegung nach Europa ein riesiges Potenzial dar: Mikrokredite könnten den Grundstein für einen Neustart in das Berufsleben dieser Haushalte legen. Dies zeigt auch, dass Mikrofinanzierung nicht mehr ausschließlich mit dem Kontext weniger entwickelter Länder in Verbindung gebracht wird, sondern dass sie auch in den entwickelten Ländern an Bedeutung gewinnen wird. KW - microfinance KW - microcredits KW - money KW - capital market KW - impact KW - indirect help KW - economic development KW - crisis KW - over-indebtment KW - consumption KW - abuse KW - regulation KW - McKinnon KW - less developed countries KW - fragmentation KW - financial repression KW - complementary effect KW - investment KW - savings KW - banking accounts KW - domestic entrepreneurs KW - seed-financing KW - disposable capital KW - ordo-liberal policies KW - mobile banking KW - private wealth KW - foundations KW - impact investing KW - Mikrofinanzierung KW - Mikrokredite KW - Geld KW - Kapitalmarkt KW - Impact KW - indirekte Hilfe KW - wirtschaftliche Entwicklung KW - Krise KW - Überschuldung KW - Konsum KW - Missbrauch KW - Regulierung KW - McKinnon KW - weniger entwickelte Länder KW - Fragmentierung KW - finanzielle Unterdrückung KW - Komplementaritätseffekt KW - Investitionen KW - Sparen KW - Bankkonto KW - lokale Unternehmer KW - Gründungsfinanzierung KW - Kapitaldisposition KW - ordo-liberale Politik KW - mobile banking KW - Privatvermögen KW - Stiftungen KW - Impact Investing Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94735 ER - TY - THES A1 - Makower, Katharina T1 - The roles of secondary metabolites in microcystis inter-strain interactions T1 - Die Rolle von Sekundärmetaboliten in den Wechselbeziehungen zwischen Microcystis-Stämmen N2 - Among the bloom-forming and potentially harmful cyanobacteria, the genus Microcystis represents a most diverse taxon, on the genomic as well as on morphological and secondary metabolite levels. Microcystis communities are composed of a variety of diversified strains. The focus of this study lies on potential interactions between Microcystis representatives and the roles of secondary metabolites in these interaction processes. The role of secondary metabolites functioning as signaling molecules in the investigated interactions is demonstrated exemplary for the prevalent hepatotoxin microcystin. The extracellular and intracellular roles of microcystin are tested in microarray-based transcriptomic approaches. While an extracellular effect of microcystin on Microcystis transcription is confirmed and connected to a specific gene cluster of another secondary metabolite in this study, the intracellularly occurring microcystin is related with several pathways of the primary metabolism. A clear correlation of a microcystin knockout and the SigE-mediated regulation of carbon metabolism is found. According to the acquired transcriptional data, a model is proposed that postulates the regulating effect of microcystin on transcriptional regulators such as the alternative sigma factor SigE, which in return captures an essential role in sugar catabolism and redox-state regulation. For the purpose of simulating community conditions as found in the field, Microcystis colonies are isolated from the eutrophic lakes near Potsdam, Germany and established as stably growing under laboratory conditions. In co-habitation simulations, the recently isolated field strain FS2 is shown to specifically induce nearly immediate aggregation reactions in the axenic lab strain Microcystis aeruginosa PCC 7806. In transcriptional studies via microarrays, the induced expression program in PCC 7806 after aggregation induction is shown to involve the reorganization of cell envelope structures, a highly altered nutrient uptake balance and the reorientation of the aggregating cells to a heterotrophic carbon utilization, e.g. via glycolysis. These transcriptional changes are discussed as mechanisms of niche adaptation and acclimation in order to prevent competition for resources. N2 - Die Gattung Microcystis stellt unter den blüten-bildenden Cyanobakterien ein Taxon besonderer Diversität dar. Dies gilt sowohl für die Genomstruktur als auch für morphologische Charakteristika und Sekundärmetabolite. Microcystis-Communities weisen eine Zusammensetzung aus einer Vielzahl von diversifizierten Stämmen auf. Das Hauptaugenmerk dieser Arbeit lag darauf, potentielle Wechselwirkungen zwischen Microcystis-Vertretern zu charakterisieren und die Rolle von Sekundärmetaboliten in Interaktions-Prozessen zu untersuchen. Die Rolle von Sekundärmetaboliten als Signalstoffe in Microcystis-Interaktionen wurde exemplarisch für das Hepatotoxin Microcystin demonstriert. Sowohl die extrazelluläre als auch die intrazellulare Funktion von Microcystin wurde anhand von Microarray-basierten Transkriptomstudien getestet. Dabei konnte eine extrazelluläre Wirkung von Microcystin bestätigt werden und mit der Transkription eines spezifischen anderen Sekundärmetaboliten in Verbindung gebracht werden. Intrazellulär vorkommendes Microcystin wurde hingegen mit verschiedenen Stoffwechselwegen des Primärstoffwechsels verknüpft. Es konnte ein deutlicher Zusammenhang zwischen einem Microcystin-Knockout und der SigE-vermittelten Regulation des Kohlenstoffmetabolismus festgestellt werden. Anhand der erworbenen Transkriptionsdaten wurde ein Modell vorgeschlagen, das eine regulierende Wirkung von Microcystin auf Transkriptionsfaktoren wie den alternativen Sigmafaktor SigE postuliert, welcher seinerseits eine zentrale Rolle in Zuckerabbauprozessen und zellulärer Redoxregulation einnimmt. Mit dem Ziel, Community-ähnliche Bedingungen zu simulieren, wurden Microcystis-Freiland-Kolonien aus eutrophen Gewässern in der Umgebung von Potsdam isoliert und ein stabiles Wachstum unter Laborbedingungen etabliert. Es konnte gezeigt werden, dass der frisch isolierte Freilandstamm FS2 spezifisch eine starke Zellaggregation in Microcystis aeruginosa PCC 7806 (einem axenischen Labortstamm) auslösen konnte. In Transkriptionsstudien mit Hilfe von Microarrays wurden Expressionsprogramme gefunden, die sowohl einen Umbau von Zellhüllstrukturen, als auch einen stark veränderten transmembranen Nährstofftransport beinhalteten. Darüber hinaus konnte in den aggregierenden PCC 7806-Zellen eine Verlagerung zu heterotrophen Kohlenstoffabbauprozessen wie der Glykolyse gefunden werden. Die transkriptionellen Veränderungen wurden als Akklimationsmechanismen zur Positionierung in ökologische Nischen diskutiert, um Konkurrenzen um Ressourcen zu vermeiden. KW - microcystis KW - microcystin KW - secondary metabolites KW - transcriptomics KW - interactions KW - Sekundärmetabolite KW - Transkriptomik KW - Wechselwirkungen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93916 ER - TY - THES A1 - Dräger, Nadine T1 - Holocene climate and environmental variability in NE Germany inferred from annually laminated lake sediments T1 - Rekonstruktion Holozäner Klima- und Umweltveränderungen in NO Deutschland anhand von jährlich geschichteten Seesedimenten N2 - Understanding the role of natural climate variability under the pressure of human induced changes of climate and landscapes, is crucial to improve future projections and adaption strategies. This doctoral thesis aims to reconstruct Holocene climate and environmental changes in NE Germany based on annually laminated lake sediments. The work contributes to the ICLEA project (Integrated CLimate and Landscape Evolution Analyses). ICLEA intends to compare multiple high-resolution proxy records with independent chronologies from the N central European lowlands, in order to disentangle the impact of climate change and human land use on landscape development during the Lateglacial and Holocene. In this respect, two study sites in NE Germany are investigated in this doctoral project, Lake Tiefer See and palaeolake Wukenfurche. While both sediment records are studied with a combination of high-resolution sediment microfacies and geochemical analyses (e.g. µ-XRF, carbon geochemistry and stable isotopes), detailed proxy understanding mainly focused on the continuous 7.7 m long sediment core from Lake Tiefer See covering the last ~6000 years. Three main objectives are pursued at Lake Tiefer See: (1) to perform a reliable and independent chronology, (2) to establish microfacies and geochemical proxies as indicators for climate and environmental changes, and (3) to trace the effects of climate variability and human activity on sediment deposition. Addressing the first aim, a reliable chronology of Lake Tiefer See is compiled by using a multiple-dating concept. Varve counting and tephra findings form the chronological framework for the last ~6000 years. The good agreement with independent radiocarbon dates of terrestrial plant remains verifies the robustness of the age model. The resulting reliable and independent chronology of Lake Tiefer See and, additionally, the identification of nine tephras provide a valuable base for detailed comparison and synchronization of the Lake Tiefer See data set with other climate records. The sediment profile of Lake Tiefer See exhibits striking alternations between well-varved and non-varved sediment intervals. The combination of microfacies, geochemical and microfossil (i.e. Cladocera and diatom) analyses indicates that these changes of varve preservation are caused by variations of lake circulation in Lake Tiefer See. An exception is the well-varved sediment deposited since AD 1924, which is mainly influenced by human-induced lake eutrophication. Well-varved intervals before the 20th century are considered to reflect phases of reduced lake circulation and, consequently, stronger anoxic conditions. Instead, non-varved intervals indicate increased lake circulation in Lake Tiefer See, leading to more oxygenated conditions at the lake ground. Furthermore, lake circulation is not only influencing sediment deposition, but also geochemical processes in the lake. As, for example, the proxy meaning of δ13COM varies in time in response to changes of the oxygen regime in the lake hypolinion. During reduced lake circulation and stronger anoxic conditions δ13COM is influenced by microbial carbon cycling. In contrast, organic matter degradation controls δ13COM during phases of intensified lake circulation and more oxygenated conditions. The varve preservation indicates an increasing trend of lake circulation at Lake Tiefer See after ~4000 cal a BP. This trend is superimposed by decadal to centennial scale variability of lake circulation intensity. Comparison to other records in Central Europe suggests that the long-term trend is probably related to gradual changes in Northern Hemisphere orbital forcing, which induced colder and windier conditions in Central Europe and, therefore, reinforced lake circulation. Decadal to centennial scale periods of increased lake circulation coincide with settlement phases at Lake Tiefer See, as inferred from pollen data of the same sediment record. Deforestation reduced the wind shelter of the lake, which probably increased the sensitivity of lake circulation to wind stress. However, results of this thesis also suggest that several of these phases of increased lake circulation are additionally reinforced by climate changes. A first indication is provided by the comparison to the Baltic Sea record, which shows striking correspondence between major non-varved intervals at Lake Tiefer See and bioturbated sediments in the Baltic Sea. Furthermore, a preliminary comparison to the ICLEA study site Lake Czechowskie (N central Poland) shows a coincidence of at least three phases of increased lake circulation in both lakes, which concur with periods of known climate changes (2.8 ka event, ’Migration Period’ and ’Little Ice Age’). These results suggest an additional over-regional climate forcing also on short term increased of lake circulation in Lake Tiefer See. In summary, the results of this thesis suggest that lake circulation at Lake Tiefer See is driven by a combination of long-term and short-term climate changes as well as of anthropogenic deforestation phases. Furthermore, the lake circulation drives geochemical cycles in the lake affecting the meaning of proxy data. Therefore, the work presented here expands the knowledge of climate and environmental variability in NE Germany. Furthermore, the integration of the Lake Tiefer See multi-proxy record in a regional comparison with another ICLEA side, Lake Czechowskie, enabled to better decipher climate changes and human impact on the lake system. These first results suggest a huge potential for further detailed regional comparisons to better understand palaeoclimate dynamics in N central Europe. N2 - Es ist von großer Bedeutung die natürliche Klimavariabilität unter dem Einfluss menschlich verursachter Klimaänderungen zu verstehen, um Zukunftsprognosen und Adaptionsstrategien zu verbessern. Die Hauptzielsetzung der vorliegenden Doktorarbeit ist die Rekonstruktion von Klima- und Umweltveränderungen während des Holozäns in NO Deutschland anhand von jährlich geschichteten Seesedimenten. Diese Arbeit ist ein Beitrag zum ICLEA Projekt (integrierte Klima- und Landschaftsentwicklungsanalyse). ICLEA strebt den Vergleich von mehreren hochaufgelösten Proxy- Archiven aus dem Nord-zentral europäischen Tiefland an, um Einflüsse von Mensch und Klima auf die Landschaftsentwicklung auseinander zu dividieren. Demnach werden in diesem Doktorprojekt zwei Gebiete untersucht: der Tiefe See und der verlandete See Wukenfurche. Während beide Sedimentarchive mit einer Kombination aus hochaufgelösten sedimentmikrofaziellen und -geochemischen Methoden untersucht werden, konzentriert sich die detaillierte Untersuchung der Proxy-Bedeutung auf den kontinuierlichen 7,7mlangen Sedimentkern vom Tiefer See, der die letzten 6000 Jahre abdeckt. Drei Hauptziele werden am Tiefen See verfolgt: (1) das Erstellen einer robusten und unabhängigen Chronologie (2) das Etablieren von mikrofaziellen und geochemischen Proxies als Indikatoren für Klima- und Landschaftsveränderungen und (3) das Ableiten von Klimaveränderungen und menschlichem Einfluss auf die Sedimentablagerung. Zum Erreichen des ersten Zieles wurde eine robuste Chronologie mit Hilfe eines multiplen Datierungsansatzes erstellt. Das Zusammenführen der Warvenzählung und Tephra-Funden bildet dabei das Gerüst für die Chronologie der letzten 6000 Jahre, deren Stabilität durch die gute Übereinstimmung mit unabhängigen Radiokarbondatierungen bestätigt wird. Diese robuste und unabhängige Chronologie und die zusätzlichen neun Tephra-Funde bieten die Basis für den detaillierten Vergleich und die Synchronisation des Tiefen See Datensatzes mit anderen Klimaarchiven. Das Sedimentprofil vom Tiefen See zeigt markante Wechsel zwischen gut warvierten und nicht warvierten Sedimentabschnitten auf. Die kombinierte Untersuchung der Mikrofazies, der Geochemie und von Mikrofossilien (d.h. Cladoceren und Diatomeen) zeigte, dass diese Veränderungen der Warvenerhaltung auf Änderungen der Seezirkulation zurückzuführen sind. Ausgenommen ist der rezente warvierte Abschnitt ab AD 1924, der hauptsächlich durch menschlich verursachte Seeeutrophierung beeinflusst ist. Warvierte Abschnitte vor dem 20. Jahrhundert sind durch verringerte Seezirkulation und die damit verbundenen stärkeren anoxischen Bedingungen im See hervorgerufen worden. Die Ablagerung von nicht warvierten Sedimenten weist auf stärkere Seezirkulation und sauerstoffreichere Bedingungen am Seegrund hin. Die Seezirkulation beeinflusst zusätzlich zum Sedimentmuster auch geochemische Prozesse im See. Zum Beispiel verändert sich die Proxy-Bedeutung der stabilen Kohlenstoffisotope von organischem Material (δ13COM) in Reaktion auf das veränderte Sauerstoffregime. Während geringer Seezirkulation und stärkeren anoxischen Bedingungen werden stark negative δ13COM Werte durch mikrobielle Aktivität hervorgerufen. Im Gegensatz verursachen Phasen mit verstärkter Seezirkulation positivere δ13COM Werte, was vermutlich auf stärkeren Abbau von organischem Material im sauerstoffangereicherten Milieu am Seegrund zurückzuführen ist. Die Warvenerhaltung zeigt einen ansteigenden Trend der Seezirkulation im Tiefen See nach ungefähr 4000 Jahre vor heute an. Dieser Trend ist überlagert mit kurzzeitigen Seezirkulationsveränderungen auf dekadischen Zeitskalen. Der Vergleich mit anderen Archiven in Zentral-Europa lässt darauf schließen, dass der Langzeittrend wahrscheinlich auf graduelle Veränderungen der orbitalen Parameter zurückzuführen ist, was kühlere und windigere Bedingungen in Zentral-Europa hervorgerufen hatte und damit die Seezirkulation im Tiefen See verstärkt hat. Die kurzzeitigen Phasen von verstärkter Seezirkulation fallen mit Siedlungsperioden am Tiefen See zusammen, die mit Pollendaten vom selben Sedimentkern rekonstruiert wurden. Die Waldrodung verringerte den Windschutz des Sees, was möglicherweise zu einer erhöhten Sensitivität der Seezirkulation zu Windstress geführt hat. Ein erster Vergleich des Tiefen Sees zu dem ICLEA Untersuchungsgebiet des Czechowskie See zeigt, dass in beiden Seen drei gemeinsame Phasen verstärkter Seezirkulation auftreten, die auch mit bekannten Zeiten veränderter Klimabedingungen zusammenfallen (2.8 ka event, Migrationsperiode und die Kleine Eiszeit). Diese Ergebnisse zeigen, dass die Seezirkulation von einer Kombination aus Klimaveränderung auf langen und kurzen Zeitskalen und der Abholzung des Menschen angetrieben wird. Zusammengefasst erweitert die hier vorliegende Arbeit das Wissen von Klima und Umweltveränderungen in NO Deutschland. Zudem wird gezeigt, dass ein regionaler Vergleich verschiedener Untersuchungsgebieten mit unabhängigen Chronologien ein verbessertes Auseinanderhalten von Klimaeinflüssen und menschlichen Einflüssen auf die Seesysteme ermöglicht. Damit kann ein verbessertes Verständnis der Paläoklimadynamik in Zentral-Europa gewonnen werden. KW - palaeoclimate KW - Paläoklima KW - Holocene KW - Holozän KW - varved lake sediments KW - warvierte Seesedimente KW - Tiefer See KW - Tiefer See KW - human impact KW - menschliche Einflüsse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103037 ER - TY - THES A1 - Sin, Celine T1 - Post-transcriptional control of gene expression T1 - Post-Transkription Steuerung der Genexpression N2 - Gene expression describes the process of making functional gene products (e.g. proteins or special RNAs) from instructions encoded in the genetic information (e.g. DNA). This process is heavily regulated, allowing cells to produce the appropriate gene products necessary for cell survival, adapting production as necessary for different cell environments. Gene expression is subject to regulation at several levels, including transcription, mRNA degradation, translation and protein degradation. When intact, this system maintains cell homeostasis, keeping the cell alive and adaptable to different environments. Malfunction in the system can result in disease states and cell death. In this dissertation, we explore several aspects of gene expression control by analyzing data from biological experiments. Most of the work following uses a common mathematical model framework based on Markov chain models to test hypotheses, predict system dynamics or elucidate network topology. Our work lies in the intersection between mathematics and biology and showcases the power of statistical data analysis and math modeling for validation and discovery of biological phenomena. N2 - Das „zentrale Dogma der Molekularbiologie“ besagt, dass der Fluss genetischer Information mit der DNS startet, die dann auf die RNS kopiert und in Proteine übersetzt wird (Crick 1970). Dieses System der Informationsübertragung bietet zwei natürliche Eingriffspunkte, an denen Genausprägungen manipuliert werden können -- entweder auf dem Level der mRNS (z.B. durch Kontrolle der Transkriptions- oder mRNS- Degradationsprozesse) oder auf dem Level des Proteins (z.B. durch Kontrolle der Translations- oder Proteindegradationsprozesse). An jedem Eingriffspunkt sind eine Vielzahl unterschiedlicher Prozesse zeitgleich aktiv, um die Konzentrationen von mRNS und Proteinen präzise einzustellen. All diese Prozesse tragen dazu bei, die Zelle intern im stationäzen Zustand zu halten, denn eine Fehlfunktion im System kann zu Krankheitszuständen oder zum Zelltot führen. In dieser Arbeit untersuchen wir verschiedene Aspekte der Kontrolle der Genausprägungs, indem wir Daten biologischer Experimente analysieren. Unsere Arbeit liegt hierbei zwischen den Bereichen der mathematischer Modellierung und der Biologie und zeigt den immensen Nutzen von statistischen Analysemethoden und mathematischer Modellbildung zur Validierung und Neuentdeckung biologischer Phänomene auf. KW - mRNA degradation KW - protein degradation KW - gene expression control KW - mathematical modeling KW - stochastic modeling KW - data analysis and statistics KW - next generation sequencing (NGS) KW - ribosome KW - Datenanalyse und Statistik KW - Regulierung der Genexpression KW - mRNA Degradierung KW - mathematisches Modellierung KW - Proteindegradierung KW - Ribosom KW - stochastische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102469 ER - TY - THES A1 - Shikangalah, Rosemary Ndawapeka T1 - An ecohydrological impact assessment in urban areas BT - urban water erosion in Windhoek, Namibia N2 - Over the last decades, the world’s population has been growing at a faster rate, resulting in increased urbanisation, especially in developing countries. More than half of the global population currently lives in urbanised areas with an increasing tendency. The growth of cities results in a significant loss of vegetation cover, soil compaction and sealing of the soil surface which in turn results in high surface runoff during high-intensity storms and causes the problem of accelerated soil water erosion on streets and building grounds. Accelerated soil water erosion is a serious environmental problem in cities as it gives rise to the contamination of aquatic bodies, reduction of ground water recharge and increase in land degradation, and also results in damages to urban infrastructures, including drainage systems, houses and roads. Understanding the problem of water erosion in urban settings is essential for the sustainable planning and management of cities prone to water erosion. However, in spite of the vast existence of scientific literature on water erosion in rural regions, a concrete understanding of the underlying dynamics of urban erosion still remains inadequate for the urban dryland environments. This study aimed at assessing water erosion and the associated socio-environmental determinants in a typical dryland urban area and used the city of Windhoek, Namibia, as a case study. The study used a multidisciplinary approach to assess the problem of water erosion. This included an in depth literature review on current research approaches and challenges of urban erosion, a field survey method for the quantification of the spatial extent of urban erosion in the dryland city of Windhoek, and face to face interviews by using semi-structured questionnaires to analyse the perceptions of stakeholders on urban erosion. The review revealed that around 64% of the literatures reviewed were conducted in the developed world, and very few researches were carried out in regions with extreme climate, including dryland regions. Furthermore, the applied methods for erosion quantification and monitoring are not inclusive of urban typical features and they are not specific for urban areas. The reviewed literature also lacked aspects aimed at addressing the issues of climate change and policies regarding erosion in cities. In a field study, the spatial extent and severity of an urban dryland city, Windhoek, was quantified and the results show that nearly 56% of the city is affected by water erosion showing signs of accelerated erosion in the form of rills and gullies, which occurred mainly in the underdeveloped, informal and semi-formal areas of the city. Factors influencing the extent of erosion in Windhoek included vegetation cover and type, socio-urban factors and to a lesser extent slope estimates. A comparison of an interpolated field survey erosion map with a conventional erosion assessment tool (the Universal Soil Loss Equation) depicted a large deviation in spatial patterns, which underlines the inappropriateness of traditional non-urban erosion tools to urban settings and emphasises the need to develop new erosion assessment and management methods for urban environments. It was concluded that measures for controlling water erosion in the city need to be site-specific as the extent of erosion varied largely across the city. The study also analysed the perceptions and understanding of stakeholders of urban water erosion in Windhoek, by interviewing 41 stakeholders using semi-structured questionnaires. The analysis addressed their understanding of water erosion dynamics, their perceptions with regards to the causes and the seriousness of erosion damages, and their attitudes towards the responsibilities for urban erosion. The results indicated that there is less awareness of the process as a phenomenon, instead there is more awareness of erosion damages and the factors contributing to the damages. About 69% of the stakeholders considered erosion damages to be ranging from moderate to very serious. However, there were notable disparities between the private householders and public authority groups. The study further found that the stakeholders have no clear understanding of their responsibilities towards the management of the control measures and payment for the damages. The private householders and local authority sectors pointed fingers at each other for the responsibilities for erosion damage payments and for putting up prevention measures. The reluctance to take responsibility could create a predicament for areas affected, specifically in the informal settlements where land management is not carried out by the local authority and land is not owned by the occupants. The study concluded that in order to combat urban erosion, it is crucial to understand diverse dynamics aggravating the process of urbanisation from different scales. Accordingly, the study suggests that there is an urgent need for the development of urban-specific approaches that aim at: (a) incorporating the diverse socio-economic-environmental aspects influencing erosion, (b) scientifically improving natural cycles that influence water storages and nutrients for plants in urbanised dryland areas in order to increase the amount of vegetation cover, (c) making use of high resolution satellite images to improve the adopted methods for assessing urban erosion, (d) developing water erosion policies, and (e) continuously monitoring the impact of erosion and the influencing processes from local, national and international levels. N2 - In den letzten Jahrzehnten ist die Erdbevölkerung mit großer Geschwindigkeit gewachsen. Das hatte eine verstärkte Urbanisierung zur Folge, insbesondere in den Entwicklungsländern. Zurzeit lebt über die Hälfte der globalen Bevölkerung in Stadtgebieten, mit steigender Tendenz. Städtewachstum geht mit einem signifikanten Verlust von Vegetationsbedeckung, sowie mit Bodenverdichtung und -versiegelung einher. Diese Faktoren führen bei Starkregenereignissen zu einem hohen Oberflächenabfluss, und zu Problemen durch beschleunigte wasserbedingte Bodenerosion in Straßen und auf Baugelände. In Städten ist eine beschleunigte wasserbedingte Bodenerosion ist ein ernstzunehmendes Umweltproblem, denn sie verursacht eine Verschmutzung der Gewässer, eine verminderte Grundwasserneubildung und erhöhte Landdegradierung. Darüber hinaus kommt es zu erosionsbedingten Schäden in der städtischen Infrastruktur, inklusive der Entwässerungssysteme, sowie an Häusern und Straßen. Für ein nachhaltiges Planen und Management von erosionsanfälligen Städten ist es von essentieller Bedeutung, die Probleme der Wassererosion in städtischen Gebieten zu verstehen. Trotz der großen Anzahl wissenschaftlicher Studien über Wassererosion in ländlichen Gegenden bleibt unser Verständnis der zu Grunde liegenden Erosionsdynamiken in urbanen Trockengebieten unzureichend. Diese Studie zielt darauf ab, Wassererosion, sowie die dazu beitragenden sozio-ökologischen Faktoren, in einem typischen urbanen Trockengebiet zu erfassen. Hierzu wurde ein fachübergreifender Ansatz am Fallbeispiel der Stadt Windhoek, Namibia, gewählt. Die Arbeit umfasst eine detaillierte Literaturanalyse der aktuellen Forschungsansätze zur urbanen Wassererosion und den damit verbundenen Herausforderungen. Außerdem wurde eine feldstudienbasierte Methode entwickelt, mit der das Ausmaß der Wassererosion in der Stadt Windhoek quantifiziert und räumlich erfasst wurde. Schließlich wurden persönliche Befragungen mit halbstrukturierten Fragebögen durchgeführt, um die Wahrnehmung der verschiedenen Interessenvertreter zum Thema Erosion in Stadtgebieten zu analysieren. Die Literaturanalyse hat gezeigt, dass 64% der untersuchten Studien in der entwickelten Welt durchgeführt wurden und nur sehr wenige Regionen mit extremen Klimabedingungen, einschließlich Trockengebieten, untersucht wurden. Hinzu kommt, dass die verwendeten Methoden zur Erosionsquantifizierung und -beobachtung die für urbane Gebiete typischen Merkmale nicht beinhalten und dafür auch nicht ausgerichtet sind. Des Weiteren mangelt es der untersuchten Literatur an Ansätzen, die den Einfluss des Klimawandels und politische Aspekte in Bezug auf Erosion in Stadtgebieten thematisieren. In einer Feldstudie wurde das Ausmaß von Wassererosion in der trocken gelegenen Stadt Windhoek quantifiziert und räumlich erfasst. Beinahe 56% der Stadt waren von Wassererosion betroffen und wiesen Anzeichen beschleunigter Erosion in Form von Rinnen und Rillen auf. Letztere traten vor allem in den unterentwickelten, informellen und semi-formellen Stadtgebieten auf. Das Ausmaß der Erosion in Windhoek wurde unter anderem von der Vegetationsbedeckung und dem Vegetationstyp, von sozial-urbanen Faktoren, und zu einem geringeren Grad von dem geschätzten Gefälle bestimmt. Der Vergleich einer interpolierten feldstudienbasierten Erosionskarte mit Ergebnissen, die auf einer konventionellen Methode zur Erosionserfassung (der Allgemeinen Bodenabtragsgleichung (ABAG)) basieren, ergab eine starke Abweichung in den räumlichen Mustern. Das verdeutlicht die Unzulänglichkeit einer direkten Übertragung von traditionellen nicht-urbanen Methoden zur Erosionserfassung auf ein urbanes Umfeld und betont die Notwendigkeit, neue Methoden sowohl zur Erfassung als auch zum Management von Erosion für urbane Gebiete zu entwickeln. Aus der großen Variabilität des Erosionsausmaßes innerhalb der Stadt lässt sich folgern, dass Methoden zur Kontrolle von Wassererosion in Städten standortspezifisch sein sollten. Anhand von halbstrukturierten Fragebögen wurde in einem weiteren Teil der Arbeit die Wahrnehmung und das Verständnis der unterschiedlichen Interessenvertreter zum Thema urbane Wassererosion in Windhoek untersucht. Insgesamt wurden 41 Interessenvertreter zu ihrem Verständnis der Wassererosionsdynamiken, zu ihrer Wahrnehmung in Bezug auf mögliche Ursachen und zum Ausmaß der Erosionsschäden, sowie zu ihrer Einstellung zur Verantwortlichkeit für die Erosion in der Stadt befragt. Die Ergebnisse deuten darauf hin, dass es eine geringe Wahrnehmung für das Phänomen der Erosion als Prozess gibt, dafür aber eine im Vergleich erhöhte Wahrnehmung der Erosionsschäden und der Faktoren, die zu den Schäden beitragen. Ungefähr 69% der Interessenvertreter stuften die Erosionsschäden als moderat bis sehr ernsthaft ein. Dabei gab es erkennbare Differenzen zwischen der Gruppe der privaten Haushalte und der der öffentlichen Behörden. Des Weiteren hat die Untersuchung ergeben, dass die Interessenvertreter kein klares Verständnis ihrer Verantwortung in Bezug auf das Management der Kontrollmaßnahmen, sowie ihrer finanziellen Verantwortung für die Schäden haben. Die privaten Haushalte und die örtlichen Behörden wiesen sich gegenseitig die Zahlungsverantwortung für die Erosionsschäden und für vorbeugende Maßnahmen zu. Der Unwille der einzelnen Akteure, Verantwortung zu übernehmen, könnte eine Zwickmühle für die betroffenen Gebiete werden. Dies gilt insbesondere für die informellen Siedlungen, in denen von den örtlichen Behörden kein Landmanagement durchgeführt wird, das Land aber auch nicht Eigentum der Bewohnern ist. Abschließend hat die Studie ergeben, dass es für eine effektive Erosionsbekämpfung in der Stadt von ausschlaggebender Bedeutung ist, die verschiedenen, den Prozess der Urbanisierung auf negative Weise verstärkenden Dynamiken, auf ihren unterschiedlichen Skalen zu verstehen. Auf Grundlage der hier präsentierten Ergebnisse wird eine Entwicklung speziell auf Stadtgebiete ausgerichteter Ansätze mit folgenden Zielen dringend nahegelegt: (a) Einer Integration von diversen sozio-ökonomisch-ökologischen Aspekten, die sich auf Erosion auswirken; (b) Einer wissenschaftlich begründeten Verbesserung der natürlichen Kreisläufe, die sich positiv auf die Wasserspeicherung im Boden und die Nährstoffverfügbarkeit für Pflanzen auswirken, um dadurch einen höheren Vegetationsbedeckungsgrad zu erreichen; (c) Der Nutzung hoch aufgelöster Satellitendaten, um die Methoden zur Erosionserfassung für urbane Gebiete zu verbessern; (d) Der Entwicklung politischer Maßnahmen zur Bekämpfung von Wassererosion. KW - urban soil erosion KW - water erosion KW - risk mapping KW - urbane Bodenerosion KW - Wassererosion KW - Risikoabbildung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102356 ER - TY - THES A1 - Reschke, Antje T1 - Effectiveness of a foot orthosis on muscular activity in functional ankle instability T1 - Der Einfluss einer Schuheinlage auf die muskuläre Aktivität bei funktioneller Sprunggelenksinstabilität BT - a randomized controlled trial BT - eine randomisierte, kontrollierte Studie N2 - A majority of studies documented a reduced ankle muscle activity, particularly of the peroneus longus muscle (PL), in patients with functional ankle instability (FI). It is considered valid that foot orthoses as well as sensorimotor training have a positive effect on ankle muscle activity in healthy individuals and those with lower limb overuse injuries or flat arched feet (reduced reaction time by sensorimotor exercises; increased ankle muscle amplitude by orthoses use). However, the acute- and long-term influence of foot orthoses on ankle muscle activity in individuals with FI is unknown. AIMS: The present thesis addressed (1a) acute- and (1b) long-term effects of foot orthoses compared to sensorimotor training on ankle muscle activity in patients with FI. (2) Further, it was investigated if the orthosis intervention group demonstrate higher ankle muscle activity by additional short-term use of a measurement in-shoe orthosis (compared to short-term use of “shoe only”) after intervention. (3) As prerequisite, it was evaluated if ankle muscle activity can be tested reliably and (4) if this differs between healthy individuals and those with FI. METHODS: Three intervention groups (orthosis group [OG], sensorimotor training group [SMTG], control group [CG]), consisting of both, healthy individuals and those with FI, underwent one longitudinal investigation (randomised controlled trial). Throughout 6 weeks of intervention, OG wore an in-shoe orthosis with a specific “PL stimulation module”, whereas SMTG conducted home-based exercises. CG served to measure test-retest reliability of ankle muscle activity (PL, M. tibialis anterior [TA] and M. gastrocnemius medialis [GM]). Pre- and post-intervention, ankle muscle activity (EMG amplitude) was recorded during “normal” unperturbed (NW) and perturbed walking (PW) on a split-belt treadmill (stimulus 200 ms post initial heel contact [IC]) as well as during side cutting (SC), each while wearing “shoes only” and additional measurement in-shoe orthoses (randomized order). Normalized RMS values (100% MVC, mean±SD) were calculated pre- (100-50 ms) and post (200-400 ms) - IC. RESULTS: (3) Test-retest reliability showed a high range of values in healthy individuals and those with FI. (4) Compared to healthy individuals, patients with FI demonstrated lower PL pre-activity during SC, however higher PL pre-activity for NW and PW. (1a) Acute orthoses use did not influence ankle muscle activity. (1b) For most conditions, sensorimotor training was more effective in individuals with FI than long-term orthotic intervention (increased: PL and GM pre-activity and TA reflex-activity for NW, PL pre-activity and TA, PL and GM reflex-activity for SC, PL reflex-activity for PW). However, prolonged orthoses use was more beneficial in terms of an increase in GM pre-activity during SC. For some conditions, long-term orthoses intervention was as effective as sensorimotor training for individuals with FI (increased: PL pre-activity for PW, TA pre-activity for SC, PL and GM reflex-activity for NW). Prolonged orthoses use was also advantageous in healthy individuals (increased: PL and GM pre-activity for NW and PW, PL pre-activity for SC, TA and PL reflex-activity for NW, PL and GM reflex-activity for PW). (2) The orthosis intervention group did not present higher ankle muscle activity by the additional short-term use of a measurement in-shoe orthosis at re-test after intervention. CONCLUSION: High variations of reproducibility reflect physiological variability in muscle activity during gait and therefore deemed acceptable. The main findings confirm the presence of sensorimotor long-term effects of specific foot orthoses in healthy individuals (primary preventive effect) and those with FI (therapeutic effect). Neuromuscular compensatory feedback- as well as anticipatory feedforward adaptation mechanism to prolonged orthoses use, specifically of the PL muscle, underpins the key role of PL in providing essential dynamic ankle joint stability. Due to its advantages over sensorimotor training (positive subjective feedback in terms of comfort, time-and-cost-effectiveness), long-term foot orthoses use can be recommended as an applicable therapy alternative in the treatment of FI. Long-term effect of foot orthoses in a population with FI must be validated in a larger sample size with longer follow-up periods to substantiate the generalizability of the existing outcomes. N2 - HINTERGRUND: Eine Mehrzahl an Studien konnte bei Patienten mit funktioneller Sprunggelenksinstabilität (FI) eine reduzierte Muskelaktivität der Sprunggelenksmuskulatur, besonders des M. peroneus longus (PL), zeigen. Es gilt als valide, dass Schuheinlagen als auch sensomotorische Trainingsformen einen positiven Effekt auf die Muskelaktivität der Sprunggelenksmuskulatur bei Gesunden und Personen mit Überlastungsreaktionen der unteren Extremität oder flachem Fußgewölbe haben (reduzierte Reaktionszeit durch sensomotorisches Training; erhöhte Muskelamplitude durch den Gebrauch von Einlagen). Jedoch ist der Akut-und Langzeiteinfluss von Schuheinlagen auf die Muskelaktivität der Sprunggelenksmuskulatur bei Personen mit FI unbekannt. ZIELE: Die vorliegende Arbeit befasste sich mit Akut (1a)- und Langzeiteffekten (1b) von Schuheinlagen im Vergleich zu sensomotorischem Training auf die Muskelaktivität der Sprunggelenksmuskulatur bei Patienten mit FI. (2) Des Weiteren wurde untersucht, ob eine Einlageninterventionsgruppe eine höhere Muskelaktivität durch den zusätzlichen kurzzeitigen Einsatz einer In-Schuh-Messeinlage (im Vergleich mit dem kurzzeitigen „nur Schuheinsatz“) nach der Intervention zeigt. (3) Als Voraussetzung wurde bewertet, ob die Muskelaktivität der Sprunggelenksmuskulatur zuverlässig (reproduzierbar) erfasst werden kann und (4) ob sie sich zwischen gesunden Personen von der bei Personen mit FI unterscheidet. METHODEN: Drei Interventionsgruppen (Einlagengruppe [OG], Sensomotorische Trainingsgruppe [SMTG], Kontrollgruppe [CG]), bestehend aus je Gesunden und Personen mit FI, wurden einer Längsschnittuntersuchung (Randomisierte kontrollierte Studie) unterzogen. In der 6 wöchigen Interventionsphase trug die OG eine In-Schuh-Einlage mit einem spezifischen „PL Stimulationsmodul“, während die SMTG heimbasierte Übungen durchführte. Die CG diente dazu, die Test-Retest-Zuverlässigkeit der Muskelaktivität der Sprunggelenksmuskulatur (PL, M. tibialis anterior [TA] and M. gastrocnemius medialis [GM]) zu messen. Vor- und nach der Intervention wurde die Muskelaktivität der Sprunggelenksmuskulatur (EMG-amplitude) während „normalem“ unperturbiertem (NW) und perturbiertem Gehen (PW) auf einem „split-belt“-Laufband (Reiz 200 ms nach initialem Fersenkontakt [IC]) und während eines „Seitschrittes“ (SC) als Antäuschmaneuver, jeweils mit Tragen von „Nur-Schuhen“ und mit zusätzlichen In-Schuh-Messeinlagen (randomisierte Reihenfolge), aufgezeichnet. Die normalisierten RMS-Werte (100% MVC, mean±SD) wurden vor (100-50 ms) und nach (200-400 ms) dem IC berechnet. ERGEBNISSE: (3) Die Test-Retest Zuverlässigkeit zeigte eine hohe Streuung der Werte bei Gesunden und Personen mit FI. (4) Verglichen mit den Gesunden, zeigten Patienten mit FI eine geringere PL Voraktivität beim SC, jedoch eine höhere PL Voraktivität beim NW und PW. (1a) Der akute Einlagengebrauch beeinflusste die Muskelaktivität des Sprunggelenkes nicht. (1b) Für die meisten Konditionen war das sensomotorische Training effektiver bei Personen mit FI als die langfristige Einlagenintervention (erhöhte Aktivität: PL and GM Voraktivität und TA Reflexaktivität beim NW, PL Voraktivität und TA, PL und GM Reflexaktivität beim SC, PL Reflexaktivität beim PW). Jedoch war der langfristige Einlagengebrauch vorteilhafter im Sinne einer erhöhten GM Voraktivität beim SC. Für einige Konditionen war die langfristige Einlagenintervention genauso effektiv wie das sensomotorische Training bei Personen mit FI (erhöhte Aktivität: PL Voraktivität beim PW, TA Voraktivität beim SC, PL and GM Reflexaktivität beim NW). Langanhaltender Einlagengebrauch war auch bei gesunden Personen vorteilhaft (erhöhte Aktivität: PL und GM Voraktivität beim NW und PW, PL Voraktivität beim SC, TA und PL Reflexaktivität beim NW, PL und GM Reflexaktivität beim PW). (2) Die Einlageninterventionsgruppe wies keine höhere Muskelaktivität der Sprunggelenksmuskulatur durch den zusätzlichen kurzzeitigen Einsatz einer In-Schuh-Messeinlage beim Re-test nach der Intervention auf. SCHLUSSFOLGERUNG: Große Variationen für die Reproduzierbarkeit spiegeln die physiologische Variabilität der Muskelaktivität während des Gehens wider und werden daher als akzeptabel erachtet. Die Hauptergebnisse bestätigen das Vorhandensein von sensomotorischen Langzeiteffekten von spezifischen Schuheinlagen bei Gesunden (primär-präventiver Effekt) und Personen mit FI (therapeutischer Effekt). Der neuromuskuläre kompensatorische Feedback- als auch der antizipatorische Feedforward- Anpassungsmechanismus auf die langfristige Einlagennutzung, insbesondere des M. peroneus longus, untermauert die Schlüsselrolle des PL in der Bereitstellung von essentieller dynamischer Sprunggelenksstabilität. Aufgrund seiner Vorteile gegenüber sensomotorischem Training (positives subjektives Feedback hinsichtlich des Komforts, Zeit-und-Kosteneffektivität), kann der langanhaltende Einlagengebrauch als geeignete Therapiealternative in der Behandlung von FI empfohlen werden. Der Langzeiteffekt von Schuheinlagen in einer Population mit FI bedarf einer Validierung mittels höherer Stichprobengrößen und längerer Follow-up-Perioden, um die Verallgemeinerbarkeit der existierenden Studienergebnisse zu belegen. KW - foot orthoses KW - neuromuscular activity KW - electromyography of lower limb KW - chronical ankle instability KW - randomized controlled trial KW - Schuheinlagen KW - neuromuskuläre Aktivität KW - Elektromyografie der unteren Extremität KW - chronische Sprunggelenksinstabilität KW - randomisierte, kontrollierte Studie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104366 ER - TY - THES A1 - Chen, Kejie T1 - Real-time GNSS for fast seismic source inversion and tsunami early warning T1 - Echtzeit-GNSS für schnelle seismischen Quelle Inversion und Tsunami-Frühwarnsystem N2 - Over the past decades, rapid and constant advances have motivated GNSS technology to approach the ability to monitor transient ground motions with mm to cm accuracy in real-time. As a result, the potential of using real-time GNSS for natural hazards prediction and early warning has been exploited intensively in recent years, e.g., landslides and volcanic eruptions monitoring. Of particular note, compared with traditional seismic instruments, GNSS does not saturate or tilt in terms of co-seismic displacement retrieving, which makes it especially valuable for earthquake and earthquake induced tsunami early warning. In this thesis, we focus on the application of real-time GNSS to fast seismic source inversion and tsunami early warning. Firstly, we present a new approach to get precise co-seismic displacements using cost effective single-frequency receivers. As is well known, with regard to high precision positioning, the main obstacle for single-frequency GPS receiver is ionospheric delay. Considering that over a few minutes, the change of ionospheric delay is almost linear, we constructed a linear model for each satellite to predict ionospheric delay. The effectiveness of this method has been validated by an out-door experiment and 2011 Tohoku event, which confirms feasibility of using dense GPS networks for geo-hazard early warning at an affordable cost. Secondly, we extended temporal point positioning from GPS-only to GPS/GLONASS and assessed the potential benefits of multi-GNSS for co-seismic displacement determination. Out-door experiments reveal that when observations are conducted in an adversary environment, adding a couple of GLONASS satellites could provide more reliable results. The case study of 2015 Illapel Mw 8.3 earthquake shows that the biases between co-seismic displacements derived from GPS-only and GPS/GLONASS vary from station to station, and could be up to 2 cm in horizontal direction and almost 3 cm in vertical direction. Furthermore, slips inverted from GPS/GLONASS co-seismic displacements using a layered crust structure on a curved plane are shallower and larger for the Illapel event. Thirdly, we tested different inversion tools and discussed the uncertainties of using real-time GNSS for tsunami early warning. To be exact, centroid moment tensor inversion, uniform slip inversion using a single Okada fault and distributed slip inversion in layered crust on a curved plane were conducted using co-seismic displacements recorded during 2014 Pisagua earthquake. While the inversion results give similar magnitude and the rupture center, there are significant differences in depth, strike, dip and rake angles, which lead to different tsunami propagation scenarios. Even though, resulting tsunami forecasting along the Chilean coast is close to each other for all three models. Finally, based on the fact that the positioning performance of BDS is now equivalent to GPS in Asia-Pacific area and Manila subduction zone has been identified as a zone of potential tsunami hazard, we suggested a conceptual BDS/GPS network for tsunami early warning in South China Sea. Numerical simulations with two earthquakes (Mw 8.0 and Mw 7.5) and induced tsunamis demonstrate the viability of this network. In addition, the advantage of BDS/GPS over a single GNSS system by source inversion grows with decreasing earthquake magnitudes. N2 - In den letzten Jahrzehnten haben schnelle und ständige Fortschritte die GNSS Technologie motiviert, die Fähigkeit zu erreichen, vorübergehende Bodenbewegungen mit einer Genauigkeit von mm bis cm in Echtzeit zu überwachen. Als Ergebnis wurde das Potential der Benutzung von Echtzeit GNSS zur Vorhersage von Naturgefährdungen und Frühwarnungen in den letzten Jahren intensiv ausgenutzt, zum Beispiel beim Beobachten von Hangrutschungen und vulkanischen Eruptionen. Besonders im Vergleich mit traditionellen seismischen Instrumenten tritt bei GNSS bei seismischen Verschiebungen keine Sättigung oder Neigung auf, was es für Erdbeben und durch Erdbeben induzierte Tsunamis besonders wertvoll macht. In dieser Arbeit richtet sich der Fokus auf die Anwendung von Echtzeit GNSS auf schnelle seismische Quelleninversion und Tsunami Frühwarnung. Zuerst präsentieren wir einen neuen Ansatz, um präzise seismische Verschiebungen durch kosteneffiziente Einzelfrequenz-Empfänger zu erhalten. Wie in Bezug auf Hochpräzisions-Positionierung bekannt ist, ist das hauptsächliche Hindernis für Einzelfrequenz-GPS die Verzögerung durch die Ionosphäre. Unter Berücksichtigung der Tatsache, dass die Änderung in der ionosphärischen Verzögerung über mehrere Minuten hinweg linear ist, haben wir ein lineares Modell für jeden Satelliten konstruiert, um die ionosphärische Verzögerung vorherzusagen. Die Effizienz dieser Methode wurde bei einem Freiluft-Experiment und bei dem Tohoku Ereignis 2011 validiert, was die Verwendbarkeit eines dichten GPS Netzwerks für Frühwarnung vor Geo-Gefahren bei vertretbaren Kosten bestätigt. Als Zweites haben wir die zeitliche Punkt-Positionierung von GPS-only zu GPS/GLONASS erweitert und den potentiellen Nutzen von Multi-GPNSS für die Bestimmung seismischer Verschiebungen bewertet. Freiluft-Experimente zeigen, dass zusätzliche GLONASS Satelliten in feindlicher Umgebung verlässlichere Ergebnisse liefern könnten. Die Fallstudie vom 2015 Illapel Erdbeben mit 8,3 Mw zeigt, dass die mit GPS-only und GPS/GLONASS abgeleiteten seismischen Verschiebungen von Station zu Station variieren und bis zu 2 cm in horizontaler Richtung und beinahe 3 cm in vertikaler Richtung betragen könnten. Zudem sind Verwerfungen, die durch GPS/GLONASS seismische Verschiebungen umgekehrt sind und eine geschichtete Krustenstruktur benutzen, auf einer gekrümmten Ebene flacher und größer für das Illapel Ereignis. Als Drittes haben wir verschiedene Inversionstools getestet und die Unsicherheiten der Benutzung von Echtzeit GNSS zur Tsunami Frühwarnung diskutiert. Um genau zu sein, wurden eine Schwerpunkts Momenten-Tensoren-Inversion, eine gleichmäßige Verwerfungsinversion bei Benutzung einer einzelnen Okada Verwerfung und eine verteilte Verwerfungs-Inversion in geschichteter Kruste auf einer gekrümmten Ebene durchgeführt. Dafür wurden seismische Verschiebungen genutzt, die beim Pisagua Erdbeben 2014 aufgezeichnet wurden. Während die Inversionsergebnisse ähnliche Magnituden und Bruchstellen liefern, gibt es signifikante Unterschiede bei Tiefe, Streichen, Einfalls- und Spanwinkel, was zu verschiedenen Tsunami Ausbreitungs-Szenarien führt. Trotzdem ist die resultierende Tsunami Vorhersage entlang der chilenischen Küste allen drei Modellen ähnlich. Schlussendlich und basierend auf der Tatsache, dass die Positionierungsleistung von BDS nun äquivalent zu GPS im Asia-Pazifischen Raum ist und die Manila Subduktionszone als potentielle Tsunami Gefährdungszone identifiziert wurde, schlagen wir ein Konzept für ein BDS/GPS Netzwerk für die Tsunami Frühwarnung im Südchinesischen Meer vor. Numerische Simulationen mit zwei Erdbeben (Mw 8.0 und Mw 7.5) und induzierten Tsunamis demonstrieren die Realisierbarkeit dieses Netzwerks. Zusätzlich wächst der Vorteil von BDS/GPS gegenüber einem einzelnen GNSS Sytem bei steigender Quelleninversion mit abnehmender Erdbebenmagnitude. KW - global navigation satellite systems KW - seismic source inversion KW - tsunami early warning KW - GNSS KW - Quelle Inversion KW - Tsunami-Frühwarnsystem Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93174 ER - TY - THES A1 - Semmo, Amir T1 - Design and implementation of non-photorealistic rendering techniques for 3D geospatial data T1 - Design und Implementierung von nichtfotorealistischen Rendering-Techniken für 3D-Geodaten N2 - Geospatial data has become a natural part of a growing number of information systems and services in the economy, society, and people's personal lives. In particular, virtual 3D city and landscape models constitute valuable information sources within a wide variety of applications such as urban planning, navigation, tourist information, and disaster management. Today, these models are often visualized in detail to provide realistic imagery. However, a photorealistic rendering does not automatically lead to high image quality, with respect to an effective information transfer, which requires important or prioritized information to be interactively highlighted in a context-dependent manner. Approaches in non-photorealistic renderings particularly consider a user's task and camera perspective when attempting optimal expression, recognition, and communication of important or prioritized information. However, the design and implementation of non-photorealistic rendering techniques for 3D geospatial data pose a number of challenges, especially when inherently complex geometry, appearance, and thematic data must be processed interactively. Hence, a promising technical foundation is established by the programmable and parallel computing architecture of graphics processing units. This thesis proposes non-photorealistic rendering techniques that enable both the computation and selection of the abstraction level of 3D geospatial model contents according to user interaction and dynamically changing thematic information. To achieve this goal, the techniques integrate with hardware-accelerated rendering pipelines using shader technologies of graphics processing units for real-time image synthesis. The techniques employ principles of artistic rendering, cartographic generalization, and 3D semiotics—unlike photorealistic rendering—to synthesize illustrative renditions of geospatial feature type entities such as water surfaces, buildings, and infrastructure networks. In addition, this thesis contributes a generic system that enables to integrate different graphic styles—photorealistic and non-photorealistic—and provide their seamless transition according to user tasks, camera view, and image resolution. Evaluations of the proposed techniques have demonstrated their significance to the field of geospatial information visualization including topics such as spatial perception, cognition, and mapping. In addition, the applications in illustrative and focus+context visualization have reflected their potential impact on optimizing the information transfer regarding factors such as cognitive load, integration of non-realistic information, visualization of uncertainty, and visualization on small displays. N2 - Geodaten haben sich zu einem natürlichen Bestandteil in einer steigenden Zahl von Informationssystemen und -diensten in der Wirtschaft, Gesellschaft und im Privatleben entwickelt. Virtuelle 3D-Stadt- und Landschaftsmodelle stellen hierbei insbesondere wertvolle Informationsquellen in einer Vielzahl von Anwendungen dar, wie z. B. in der Stadtplanung, Navigation, Touristeninformation und im Katastrophenschutz. Heutzutage werden diese Modelle oftmals detailliert dargestellt, um ein möglichst realistisches Bild zu vermitteln. Jedoch führt eine fotorealistische Darstellung, hinsichtlich einem effektiven Informationstransfer zum Betrachter, nicht zwangsläufig zu einer hohen Bildqualität, welche eine interaktive und kontextsensitive Hervorhebung von wichtigen oder priorisierten Informationen erfordert. Ansätze in der nichtfotorealistischen Bildsynthese berücksichtigen insbesondere die Aufgabe eines Nutzers und Kameraperspektive, um Aspekte der Expressivität, Wahrnehmung und Kommunikation von wichtigen oder priorisierten Informationen zu optimieren. Das Design und die Umsetzung von Techniken der nichtfotorealistischen Bildsynthese für 3D-Geodaten sind jedoch mit einer Vielzahl von Herausforderungen konfrontiert, besonders dann, wenn die Geometrie, das Erscheinungsbild und thematische Daten interaktiv verarbeitet werden müssen. Infolgedessen stellt die programmierbare Architektur und parallelisierte Datenverarbeitung von Grafik-prozessoren eine vielversprechende technische Grundlage zur Verfügung. Diese Arbeit präsentiert Techniken der nichtfotorealistischen Bildsynthese, die den Abstraktionsgrad von Inhalten raumbezogener 3D-Modelle, entsprechend der Nutzerinteraktion und dynamisch-veränderbaren thematischen Informationen, berechnet und auswählt. Hierzu sind die vorgestellten Techniken in die hardwarebeschleunigte Rendering-Pipeline integriert, unter Verwendung der Shader-Technologie von Grafikprozessoren, um eine Echtzeit-Bildsynthese zu gewährleisten. Dabei werden Prinzipien der künstlerischen Darstellung, Aspekte der kartographischen Generalisierung sowie 3D Semiotik verwendet—im Gegensatz zur fotorealistischen Bildsynthese—um illustrative Darstellungen von raumbezogenen Feature-Typ-Entitäten zu synthetisieren, z. B. von Wasserflächen, Gebäuden und Infrastrukturnetzen. Darüber hinaus stellt diese Arbeit ein generisches System vor, welches die Integration verschiedener Grafikstile—fotorealistisch und nichtfotorealistisch—und ihren nahtlosen Übergang, entsprechend von Nutzeraufgaben, Kameraansichten und Bildauflösungen, ermöglicht. Evaluierungen der in dieser Arbeit vorgestellten Techniken haben ihre Bedeutung im Bereich der Informationsvisualisierung von raumbezogenen Daten aufgezeigt, einschließlich Themengebiete der räumlichen Wahrnehmung, Kognition und Kartierung. Darüber hinaus haben Anwendungen im Bereich der illustrativen Visualisierung und Fokus-&-Kontext Visualisierung den potentiellen Einfluss dieser Techniken, in Bezug auf die Optimierung des Informationstransfers zum Nutzer, demonstriert, z. B. hinsichtlich der kognitiven Last, der Integration nichtrealistischer Informationen, der Visualisierung von Unsicherheiten und der Visualisierung auf kleinen Bildschirmen. KW - non-photorealistic rendering KW - geospatial data KW - 3D visualization KW - GPU KW - image processing KW - stylization KW - 3D semiotics KW - cartographic design KW - Nichtfotorealistische Bildsynthese KW - Geodaten KW - 3D Visualisierung KW - GPU KW - Bildverarbeitung KW - Stilisierung KW - 3D Semiotik KW - Kartografisches Design Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-99525 ER - TY - THES A1 - Gonzalez Camargo, Rodolfo T1 - Insulin resistance in cancer cachexia and metabolic syndrome BT - role of insulin activated macrophages and miRNA-21-5p N2 - The ever-increasing fat content in Western diet, combined with decreased levels of physical activity, greatly enhance the incidence of metabolic-related diseases. Cancer cachexia (CC) and Metabolic syndrome (MetS) are both multifactorial highly complex metabolism related syndromes, whose etiology is not fully understood, as the mechanisms underlying their development are not completely unveiled. Nevertheless, despite being considered “opposite sides”, MetS and CC share several common issues such as insulin resistance and low-grade inflammation. In these scenarios, tissue macrophages act as key players, due to their capacity to produce and release inflammatory mediators. One of the main features of MetS is hyperinsulinemia, which is generally associated with an attempt of the β-cell to compensate for diminished insulin sensitivity (insulin resistance). There is growing evidence that hyperinsulinemia per se may contribute to the development of insulin resistance, through the establishment of low grade inflammation in insulin responsive tissues, especially in the liver (as insulin is secreted by the pancreas into the portal circulation). The hypothesis of the present study was that insulin may itself provoke an inflammatory response culminating in diminished hepatic insulin sensitivity. To address this premise, firstly, human cell line U937 differentiated macrophages were exposed to insulin, LPS and PGE2. In these cells, insulin significantly augmented the gene expression of the pro-inflammatory mediators IL-1β, IL-8, CCL2, Oncostatin M (OSM) and microsomal prostaglandin E2 synthase (mPGES1), and of the anti-inflammatory mediator IL-10. Moreover, the synergism between insulin and LPS enhanced the induction provoked by LPS in IL-1β, IL-8, IL-6, CCL2 and TNF-α gene. When combined with PGE2, insulin enhanced the induction provoked by PGE2 in IL-1β, mPGES1 and COX2, and attenuated the inhibition induced by PGE2 in CCL2 and TNF-α gene expression contributing to an enhanced inflammatory response by both mechanisms. Supernatants of insulin-treated U937 macrophages reduced the insulin-dependent induction of glucokinase in hepatocytes by 50%. Cytokines contained in the supernatant of insulin-treated U937 macrophages also activated hepatocytes ERK1/2, resulting in inhibitory serine phosphorylation of the insulin receptor substrate. Additionally, the transcription factor STAT3 was activated by phosphorylation resulting in the induction of SOCS3, which is capable of interrupting the insulin receptor signal chain. MicroRNAs, non-coding RNAs linked to protein expression regulation, nowadays recognized as active players in the generation of several inflammatory disorders such as cancer and type II diabetes are also of interest. Considering that in cancer cachexia, patients are highly affected by insulin resistance and inflammation, control, non-cachectic and cachectic cancer patients were selected and the respective circulating levels of pro-inflammatory mediators and microRNA-21-5p, a posttranscriptional regulator of STAT3 expression, assessed and correlated. Cachectic patients circulating cytokines IL-6 and IL-8 levels were significantly higher than those of non-cachectic and controls, and the expression of microRNA-21-5p was significantly lower. Additionally, microRNA-21-5p reduced expression correlated negatively with IL-6 plasma levels. These results indicate that hyperinsulinemia per se might contribute to the low grade inflammation prevailing in MetS patients and thereby promote the development of insulin resistance particularly in the liver. Diminished MicroRNA-21-5p expression may enhance inflammation and STAT3 expression in cachectic patients, contributing to the development of insulin resistance. N2 - O teor de gordura cada vez maior na dieta ocidental, combinada com a diminuição dos níveis de atividade física têm marcadamente aumentado à incidência de doenças relacionas ao metabolismo. A caquexia associada ao câncer (CC) e a síndrome metabólica (SM) são síndromes de etiologia complexa e multifatorial, não totalmente compreendida, e com mecanismos subjacentes ao seu desenvolvimento não completamente revelados. No entanto, apesar de serem consideradas "lados opostos", a CC e a MetS apresentam várias características em comum, tais como resistência à insulina e inflamação de baixo grau, com macrófagos teciduais como importantes coadjuvantes, devido à sua capacidade de produzir e liberar mediadores inflamatórios, e microRNAs, descritos como RNAs não-codificantes ligados à regulação da expressão de proteínas e reconhecidos como participantes ativos na geração de várias doenças inflamatórias, tais como o câncer e diabetes tipo II. Uma das principais características da MetS é a hiperinsulinemia, que está geralmente associada com uma tentativa da célula β do pâncreas de compensar a diminuição da sensibilidade à insulina (resistência à insulina). Um número crescente de evidências sugere que a hiperinsulinemia “por si só”, pode contribuir com o desenvolvimento de resistência à insulina através do estabelecimento de um quadro inflamatório de baixo grau, em tecidos sensíveis a insulina, e em particular no fígado, devido ao fato da insulina ser secretada pelo pâncreas na circulação portal. A hipótese do presente estudo foi que a insulina pode induzir uma resposta inflamatória em macrófagos e culminar em diminuição da sensibilidade hepática à insulina. Para confirmar esta hipótese, primeiramente, macrófagos diferenciados da linhagem de células humanas U937 foram expostos à insulina, LPS e PGE2. Nestas células, a insulina aumentou significativamente a expressão gênica dos mediadores pró-inflamatórios IL-1β, IL- 8, CCL2, oncostatina M (OSM) e prostaglandina E2 sintase microssomal (mPGES1), e do mediador anti-inflamatório IL-10. Além disso, o sinergismo entre insulina e LPS aumentou a indução provocada por LPS nos genes da IL-1β, IL-8, IL-6, CCL2 e TNF-α. Quando combinado com PGE2, a insulina aumentou a indução provocada pela PGE2 nos genes da IL-1β, mPGES1 e COX2, e restaurou a inibição induzida pela PGE2 no gene CCL2 e TNF-α.Subsequentemente, sobrenadantes dos macrófagos U937 tratados com insulina modulou negativamente a sinalização da insulina em culturas primárias de hepatócitos de rato, como observado pela atenuação de 50% da indução dependente de insulina da enzima glicoquinase. Citocinas contidas no sobrenadante de macrófagos U937 tratados com insulina também ativaram em hepatócitos ERK1/2, resultando na fosforilação do resíduo de serina inibitório do substrato do receptor de insulina. Adicionalmente, o fator de transcrição STAT3 foi ativado por um elevado grau de fosforilação e a proteína SOCS3, capaz de interromper a via de sinalização do receptor de insulina, foi induzida. Considerando que na caquexia associada ao câncer, pacientes são altamente afetados pela resistência à insulina e inflamação, pacientes controle, não caquéticos e caquéticos foram seleccionados e os respectivos níveis circulantes de mediadores pró-inflamatórios e microRNA-21-5p, um regulador pós-transcricional da expressão de STAT3, avaliados e correlacionados. Pacientes caquéticos exibiram citocinas circulantes IL-6 e IL-8 significativamente maiores do que pacientes não caquéticos e controles, assim como a expressão de microRNA-21-5p significativamente diminuida. Além disso, a reduzida expressão de microRNA-21-5p correlaciona-se negativamente com níveis de IL-6 no plasma. Estes resultados indicam que a hiperinsulinemia pode, por si só contribuir para o desenvolvimento da inflamação de baixo grau prevalente em pacientes com excesso de peso e obesos e, assim, promover o desenvolvimento de resistência à insulina especialmente no fígado e o nível reduzido de miRNA-21-5p pode modular a inflamação e expressão de STAT3 em pacientes caquéticos, contribuindo para o desenvolvimento da resistência à insulina. N2 - Der stetig steigende Fettgehalt in westlicher Ernährung in Kombination mit reduzierter körperlicher Aktivität hat zu einem dramatischen Anstieg der Inzidenz metabolischer Erkrankungen geführt. Tumorkachexie (Cancer cachexia, CC) und Metabolisches Syndrom (MetS) sind sehr komplexe, multifaktorielle metabolische Erkrankungen, deren Ätiologie nicht vollständig verstanden ist. Die molekularen Ursachen, die zu diesen Symptomkomplexen führen, sind noch unzureichend aufgeklärt. Obwohl ihr äußeres Erscheinungsbild stark gegensätzlich ist, haben MetS und CC etliche Gemeinsamkeiten wie zum Beispiel Insulinresistenz und eine chronische unterschwellige Entzündung. Sowohl bei der Entstehung der Insulinresistenz als auch bei der chronischen Entzündung spielen Makrophagen eine Schlüsselrolle, weil sie in der Lage sind pro-inflammatorische Mediatoren zu produzieren und freizusetzen. Eine der hervorstechendsten Auffälligkeiten des MetS ist die Hyperinsulinämie, die durch den Versuch der β-Zelle, die verminderte Insulinsensitivität (Insulinresistenz) zu kompensieren, zustande kommt. Es gibt zunehmend Hinweise darauf, dass die Hyperinsulinämie selber an der Entzündungsentstehung in Insulin-abhängigen Geweben beteiligt ist und dadurch zur Entwicklung und Verstärkung der Insulinresistenz beitragen kann. Dies trifft besonders auf die Leber zu, weil hier die Insulinspiegel besonders hoch sind, da Insulin vom Pankreas direkt in den Pfortaderkeislauf gelangt. Daher wurde in dieser Arbeit die Hypothese geprüft, ob Insulin selber eine Entzündungsantwort auslösen und dadurch die hepatische Insulinsensitivität senken kann. Zu diesem Zweck wurde die humane Zelllinie U937 durch PMA-Behandlung zu Makrophagen differenziert und diese Makrophagen mit Insulin, LPS und PGE2 inkubiert. In diesen Zellen steigerte Insulin die Expression der pro-inflammatorischen Mediatoren IL-1β, IL-8, CCL2, Oncostatin M (OSM) signifikant und induzierte die mikrosomale PGE-Synthase 1 (mPGES1) ebenso wie das antiinflammatorische Cytokin IL-10. Ferner verstärkte Insulin die LPS-abhängige Induktion des IL-1β-, IL-8-, IL-6-, CCL2- und TNFα-Gens. Ebenso verstärkte Insulin die PGE2-abhängige Induktion von IL-1β, mPGES1 und COX2. Im Gegensatz dazu schwächte es die Hemmende Wirkung von PGE2 auf Expression von TNFα und CCL2 ab und trug so auf beide Weisen zu einer Verstärkung der Entzündungsantwort bei. Überstände von Insulin-behandelten U937 Makrophagen reduzierten die Insulin-abhängige Induktion der Glukokinase in Hepatocyten um 50%. Die Cytokine, die im Überstand Insulin-behandelter Makrophagen enthalten waren, aktivierten in Hepatocyten ERK1/2, was zu einer inhibitorischen Serin-Phosphorylierung der Insulin Rezeptor Substrats (IRS) führte. Zusätzlich führten die Cytokine zu einer Phosphorylierung und Aktivierung von STAT3 und einer dadurch bedingten Induktion von SOCS3, das seinerseits die Insulinrezeptor-Signalkette unterbrechen kann. MicroRNAs, nicht-codierende RNAs, die an der Regulation der Proteinexpression beteiligt sind und deren Beteiligung an der Regulation der Entzündungsantwort bei zahlreichen Erkrankungen, unter anderem Tumorerkrankungen und Typ II Diabetes gezeigt wurde, sind auch von Interesse. Unter dem Blickwinkel, dass Tumor-Kachexie Patienten sich durch eine Insulinresistenz und eine systemische Entzündung auszeichnen, wurden in nichtkachektische und tumorkachektische Patienten Plasmaspiegel von pro-inflammatorischen Mediatoren und der microRNA-21-5p bestimmt, von der bekannt ist, dass sie ein posttranskriptioneller Regulator der STAT3 Expression ist. Die Spiegel der proinflammatorischen Mediatoren und der miRNA-21-5p wurden korreliert. In kachektischen Patienten waren die Spiegel der Cytokine IL-6 und IL-8 signifikant höher, die der miRNA-21- 5p signifikant niedriger als in nicht-kachektischen Patienten. Die Plasma IL-6-Spiegel korrelierten negativ mit den miRNA21-5p Spiegeln. Insgesamt zeigen die Ergebnisse, dass eine Hyperinsulinämie selber zu der Entwicklung einer unterschwellingen Entzündung, wie sie in Patienten mit einem MetS vorherrscht, beitragen, und dadurch besonders in der Leber eine Insulinresistenz auslösen oder verstärken kann. Eine verringerte Expression der MicroRNA-21-5p kann in kachektischen Patienten die Entzündungsantwort, im Speziellen die STAT3 Expression, verstärken und dadurch zur Entwicklung einer Insulinresistenz beitragen KW - cachexia KW - metabolic syndrome KW - inflammation KW - insulin resistance KW - microRNAs KW - insulin KW - liver KW - macrophages KW - caquexia KW - síndrome metabólica KW - inflamação KW - resistência à insulina KW - microRNAs KW - insulina KW - fígado KW - macrófagos KW - Kachexie KW - metabolisches Syndrom KW - Entzündung KW - Insulinresistenz KW - MicroRNAs KW - Insulin KW - Leber KW - Makrophagen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100973 ER - TY - THES A1 - Berner, Nadine T1 - Deciphering multiple changes in complex climate time series using Bayesian inference T1 - Bayes'sche Inferenz als diagnostischer Ansatz zur Untersuchung multipler Übergänge in komplexen Klimazeitreihen N2 - Change points in time series are perceived as heterogeneities in the statistical or dynamical characteristics of the observations. Unraveling such transitions yields essential information for the understanding of the observed system’s intrinsic evolution and potential external influences. A precise detection of multiple changes is therefore of great importance for various research disciplines, such as environmental sciences, bioinformatics and economics. The primary purpose of the detection approach introduced in this thesis is the investigation of transitions underlying direct or indirect climate observations. In order to develop a diagnostic approach capable to capture such a variety of natural processes, the generic statistical features in terms of central tendency and dispersion are employed in the light of Bayesian inversion. In contrast to established Bayesian approaches to multiple changes, the generic approach proposed in this thesis is not formulated in the framework of specialized partition models of high dimensionality requiring prior specification, but as a robust kernel-based approach of low dimensionality employing least informative prior distributions. First of all, a local Bayesian inversion approach is developed to robustly infer on the location and the generic patterns of a single transition. The analysis of synthetic time series comprising changes of different observational evidence, data loss and outliers validates the performance, consistency and sensitivity of the inference algorithm. To systematically investigate time series for multiple changes, the Bayesian inversion is extended to a kernel-based inference approach. By introducing basic kernel measures, the weighted kernel inference results are composed into a proxy probability to a posterior distribution of multiple transitions. The detection approach is applied to environmental time series from the Nile river in Aswan and the weather station Tuscaloosa, Alabama comprising documented changes. The method’s performance confirms the approach as a powerful diagnostic tool to decipher multiple changes underlying direct climate observations. Finally, the kernel-based Bayesian inference approach is used to investigate a set of complex terrigenous dust records interpreted as climate indicators of the African region of the Plio-Pleistocene period. A detailed inference unravels multiple transitions underlying the indirect climate observations, that are interpreted as conjoint changes. The identified conjoint changes coincide with established global climate events. In particular, the two-step transition associated to the establishment of the modern Walker-Circulation contributes to the current discussion about the influence of paleoclimate changes on the environmental conditions in tropical and subtropical Africa at around two million years ago. N2 - Im Allgemeinen stellen punktuelle Veränderungen in Zeitreihen (change points) eine Heterogenität in den statistischen oder dynamischen Charakteristika der Observablen dar. Das Auffinden und die Beschreibung solcher Übergänge bietet grundlegende Informationen über das beobachtete System hinsichtlich seiner intrinsischen Entwicklung sowie potentieller externer Einflüsse. Eine präzise Detektion von Veränderungen ist daher für die verschiedensten Forschungsgebiete, wie den Umweltwissenschaften, der Bioinformatik und den Wirtschaftswissenschaften von großem Interesse. Die primäre Zielsetzung der in der vorliegenden Doktorarbeit vorgestellten Detektionsmethode ist die Untersuchung von direkten als auch indirekten Klimaobservablen auf Veränderungen. Um die damit verbundene Vielzahl an möglichen natürlichen Prozessen zu beschreiben, werden im Rahmen einer Bayes’schen Inversion die generischen statistischen Merkmale Zentraltendenz und Dispersion verwendet. Im Gegensatz zu etablierten Bayes’schen Methoden zur Analyse von multiplen Übergängen, die im Rahmen von Partitionsmodellen hoher Dimensionalität formuliert sind und die Spezifikation von Priorverteilungen erfordern, wird in dieser Doktorarbeit ein generischer, Kernel-basierter Ansatz niedriger Dimensionalität mit minimal informativen Priorverteilungen vorgestellt. Zunächst wird ein lokaler Bayes’scher Inversionsansatz entwickelt, der robuste Rückschlüsse auf die Position und die generischen Charakteristika einer einzelnen Veränderung erlaubt. Durch die Analyse von synthetischen Zeitreihen die dem Einfluss von Veränderungen unterschiedlicher Signifikanz, Datenverlust und Ausreißern unterliegen wird die Leistungsfähigkeit, Konsistenz und Sensitivität der Inversionmethode begründet. Um Zeitreihen auch auf multiple Veränderungen systematisch untersuchen zu können, wird die Methode der Bayes’schen Inversion zu einem Kernel-basierten Ansatz erweitert. Durch die Einführung grundlegender Kernel-Maße können die Kernel-Resultate zu einer gewichteten Wahrscheinlichkeit kombiniert werden die als Proxy einer Posterior-Verteilung multipler Veränderungen dient. Der Detektionsalgorithmus wird auf reale Umweltmessreihen vom Nil-Fluss in Aswan und von der Wetterstation Tuscaloosa, Alabama, angewendet, die jeweils dokumentierte Veränderungen enthalten. Das Ergebnis dieser Analyse bestätigt den entwickelten Ansatz als eine leistungsstarke diagnostische Methode zur Detektion multipler Übergänge in Zeitreihen. Abschließend wird der generische Kernel-basierte Bayes’sche Ansatz verwendet, um eine Reihe von komplexen terrigenen Staubdaten zu untersuchen, die als Klimaindikatoren der afrikanischen Region des Plio-Pleistozän interpretiert werden. Eine detaillierte Untersuchung deutet auf multiple Veränderungen in den indirekten Klimaobservablen hin, von denen einige als gemeinsame Übergänge interpretiert werden. Diese gemeinsam auftretenden Ereignisse stimmen mit etablierten globalen Klimaereignissen überein. Insbesondere der gefundene Zwei-Stufen-Übergang, der mit der Ausbildung der modernen Walker-Zirkulation assoziiert wird, liefert einen wichtigen Beitrag zur aktuellen Diskussion über den Einfluss von paläoklimatischen Veränderungen auf die Umweltbedingungen im tropischen und subtropischen Afrika vor circa zwei Millionen Jahren. KW - kernel-based Bayesian inference KW - multi-change point detection KW - direct and indirect climate observations KW - Plio-Pleistocene KW - (sub-) tropical Africa KW - terrigenous dust KW - kernel-basierte Bayes'sche Inferenz KW - Detektion multipler Übergänge KW - direkte und indirekte Klimaobservablen KW - Plio-Pleistozän KW - (sub-) tropisches Afrika KW - terrigener Staub Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100065 ER - TY - THES A1 - Schoellner, Karsten T1 - Towards a Wittgensteinian metaethics T1 - Metaethik nach Wittgenstein N2 - This doctoral thesis seeks to elaborate how Wittgenstein’s very sparse writings on ethics and ethical thought, together with his later work on the more general problem of normativity and his approach to philosophical problems as a whole, can be applied to contemporary meta-ethical debates about the nature of moral thought and language and the sources of moral obligation. I begin with a discussion of Wittgenstein’s early “Lecture on Ethics”, distinguishing the thesis of a strict fact/value dichotomy that Wittgenstein defends there from the related thesis that all ethical discourse is essentially and intentionally nonsensical, an attempt to go beyond the limits of sense. The first chapter discusses and defends Wittgenstein’s argument that moral valuation always goes beyond any ascertaining of fact; the second chapter seeks to draw out the valuable insights from Wittgenstein’s (early) insistence that value discourse is nonsensical while also arguing that this thesis is ultimately untenable and also incompatible with later Wittgensteinian understanding of language. On the basis of this discussion I then take up the writings of the American philosopher Cora Diamond, who has worked out an ethical approach in a very closely Wittgensteinian spirit, and show how this approach shares many of the valuable insights of the moral expressivism and constructivism of contemporary authors such as Blackburn and Korsgaard while suggesting a way to avoid some of the problems and limitations of their approaches. Subsequently I turn to a criticism of the attempts by Lovibond and McDowell to enlist Wittgenstein in the support for a non-naturalist moral realism. A concluding chapter treats the ways that a broadly Wittgensteinian conception expands the subject of metaethics itself by questioning the primacy of discursive argument in moral thought and of moral propositions as the basic units of moral belief. N2 - Die folgende Arbeit verbindet die wenigen Schriften und Bemerkungen Wittgensteins zu Ethik und moralischem Denken, seine späteren Arbeiten zum allgemeineren Problem der Normativität und seine therapeutische Behandlung philosophischer Probleme überhaupt, mit den zeitgenössischen metaethischen Debatten über das Wesen moralischen Denkens und die Quelle des moralischen Sollens. Im Rahmen einer einleitenden Diskussion von Wittgensteins früher Schrift „A Lecture on Ethics” unterscheide ich zwischen der Fakt/Wert-Dichotomie, die er dort vertritt, und der damit verwandten These, moralische Aussagen seien alle wesentlich und absichtlich unsinnig und stellten alle einen Versuch dar, über die Grenzen des Sinnes hinaus zu gelangen. In einem ersten Kapitel erläutere und verteidige ich sein Argument, dass moralische Bewertungen immer über faktische Feststellungen hinausgehen; in einem zweiten Kapitel versuche ich, der These der Unsinnigkeit wichtige und zentrale Einsichten über den moralischen Diskurs abzugewinnen, zeige aber gleichzeitig, dass diese These letztendlich unhaltbar ist und auch mit der späteren wittgensteinschen Sprachauffassung unvereinbar ist. Auf Grundlage dieser Diskussion wende ich mich den moralphilosophischen Arbeiten der amerikanischen Philosophin Cora Diamond zu, die deutlich von Wittgenstein beeinflusst sind; dabei zeigt sich, wie Diamonds wittgensteinscher Ansatz zu moralischen Phänomenen die wichtigsten Einsichten von Expressivismus und Konstruktivismus teilen kann – exemplarisch dargestellt anhand von Simon Blackburn und Christine Korsgaard – und zugleich die Probleme und Beschränkungen dieser Theorien überwinden kann. Danach kritisiere ich die Versuche von Lovibond und McDowell, Wittgenstein für eine Verteidigung eines non-naturalistischen Realismus zu beanspruchen. Ein abschließendes Kapitel diskutiert die Weisen, in denen eine im weitesten Sinne Wittgensteinsche Auffassung der Moral das Thema der Metaethik selber erweitert durch eine Infragestellung des Primats von Argumentation im moralischen Denken und von moralischen Aussagesätze für moralische Überzeugungen. KW - Wittgenstein KW - metaethics KW - Wittgenstein KW - Metaethik KW - Moraltheorie KW - moral theory KW - Cora Diamond KW - Cora Diamond KW - expressivism KW - Expressivismus KW - constructivism KW - Konstruktivismus Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409288 ER - TY - THES A1 - Prokopović, Vladimir Z. T1 - Light-triggered release of bioactive compounds from HA/PLL multilayer films for stimulation of cells T1 - Licht-induzierte Freisetzung von Biomolekülen aus Hyaluronsäure-Poly-L-Lysin-Schichten zur Stimulierung von Zellen N2 - The concept of targeting cells and tissues by controlled delivery of molecules is essential in the field of biomedicine. The layer-by-layer (LbL) technology for the fabrication of polymer multilayer films is widely implemented as a powerful tool to assemble tailor-made materials for controlled drug delivery. The LbL films can as well be engineered to act as mimics of the natural cellular microenvironment. Thus, due to the myriad possibilities such as controlled cellular adhesion and drug delivery offered by LbL films, it becomes easily achievable to direct the fate of cells by growing them on the films. The aim of this work was to develop an approach for non-invasive and precise control of the presentation of bioactive molecules to cells. The strategy is based on employment of the LbL films, which function as support for cells and at the same time as reservoirs for bioactive molecules to be released in a controlled manner. UV light is used to trigger the release of the stored ATP with high spatio-temporal resolution. Both physico-chemical (competitive intermolecular interactions in the film) and biological aspects (cellular response and viability) are addressed in this study. Biopolymers hyaluronic acid (HA) and poly-L-lysine (PLL) were chosen as the building blocks for the LbL film assembly. Poor cellular adhesion to native HA/PLL films as well as significant degradation by cells within a few days were shown. However, coating the films with gold nanoparticles not only improved cellular adhesion and protected the films from degradation, but also formed a size-exclusion barrier with adjustable cut-off in the size range of a few tens of kDa. The films were shown to have high reservoir capacity for small charged molecules (reaching mM levels in the film). Furthermore, they were able to release the stored molecules in a sustained manner. The loading and release are explained by a mechanism based on interactions between charges of the stored molecules and uncompensated charges of the biopolymers in the film. Charge balance and polymer dynamics in the film play the pivotal role. Finally, the concept of light-triggered release from the films has been proven using caged ATP loaded into the films from which ATP was released on demand. ATP induces a fast cellular response, i.e. increase in intracellular [Ca2+], which was monitored in real-time. Limitations of the cellular stimulation by the proposed approach are highlighted by studying the stimulation as a function of irradiation parameters (time, distance, light power). Moreover, caging molecules bind to the film stronger than ATP does, which opens new perspectives for the use of the most diverse chemical compounds as caging molecules. Employment of HA/PLL films as a nouvelle support for cellular growth and hosting of bioactive molecules, along with the possibility to stimulate individual cells using focused light renders this approach highly efficient and unique in terms of precision and spatio-temporal resolution among those previously described. With its high potential, the concept presented herein provides the foundation for the design of new intelligent materials for single cell studies, with the focus on tissue engineering, diagnostics, and other cell-based applications. N2 - Das Konzept des Targetings von Zellen und Geweben mittels kontrollierter Wirkstoffverabreichung ist im Bereich der Biomedizin unerlässlich. Die layer-by-layer (LbL) Technologie ist eine etablierte Methode für die Herstellung von Polyelektrolyt-Multischichten, um intelligente, maßgeschneiderte Materialien für eine kontrollierte Wirkstoffabgabe aufzubauen. Die LbL Filme können das Verhalten einer natürlichen zellulären Mikroumgebung nachahmen. Wegen der unzähligen Möglichkeiten dieser Filme sind nicht nur das Wachstum und die Beeinflussung der Zellen, sondern auch die kontrollierte Wirkstoffabgabe leicht umzusetzen. Das Ziel der vorliegenden Arbeit war die Entwicklung eines nicht-invasiven Systems für die präzise Verabreichung von Biomolekülen an einzelne Zellen. Die Strategie beruht auf LbL Filmen, die einerseits als geeignete Oberfläche für das Zellwachstum dienen, andererseits aber auch die kontrollierte Abgabe von Biomolekülen ermöglichen. Die zeitlich und räumlich präzise Freisetzung von ATP wurde durch UV Bestrahlung eingeleitet/ausgelöst. Sowohl die physiko-chemischen als auch die biologischen Eigenschaften des Verfahrens wurden analysiert. Die LbL Filme wurden auf Basis der biokompatiblen Polymere Hyaluronsäure (HA) und Poly-L-Lysin (PLL) assembliert. Nach der Assemblierung waren die Filme zunächst zellabweisend und wurden von den Zellen innerhalb von ein paar Tagen abgebaut. Die Beschichtigung der Filme mit Gold-Nanopartikeln verbesserte nicht nur die Adhäsion der Zellen, sondern auch den Schutz gegen Abbau. Zudem wurde gezeigt, dass die Beschichtigung eine Molekulargewichtsausschlussgrenze mit verstellbarem cut-off in einem Bereich von nur einigen 10 kDa darstellt. Weiterhin wurde gezeigt, dass die Filme eine enorme Beladungskapazität aufweisen (bis hin zu einer Beladung im mM Bereich). Darüber hinaus konnten die Biomoleküle, die in diese Filme eingebettet wurden, langfristig und nachhaltig freigesetzt werden. Die Beladung und Freisetzung der Moleküle erfolgt durch die Interaktion zwischen eingebetteten Molekülen und freien Ladungen innerhalb des Polymerfilms. Das Ladungsverhältnis und die Polymerdynamik spielen dabei eine zentrale Rolle. Schließlich wurde gezeigt, dass die in Filmen eingebetteten caged-ATP Moleküle gezielt durch einen Laser freigesetzt werden können. ATP verursacht die schnelle zelluläre Antwort durch den Anstieg von intrazellulären Ca2+-Ionen, der in Echtzeit beobachtet werden kann. Um die Limitierungen dieses Ansatzes bei der zellulären Stimulation hervorzuheben, wurden verschiedene Bestrahlungsparameter (Zeit, Abstand, Laserleistung) analysiert. Außerdem binden viele caging-Moleküle stärker an die Polymerfilme als ATP, wodurch eine Vielzahl von chemischen Verbindungen als geeignete Moleküle für die Caging zur Verfügung stehen. Der Einsatz von HA/PLL Filmen als neue Oberfläche für Zellwachstum und als Reservoire für die Einbettung bioaktiver Moleküle samt der Möglichkeit einzelne Zellen mittels fokussierter Laserbestrahlung anzuregen, machen die Methode hoch effizient und einzigartig. Die Vorteile dieser Methode kommen durch die zeitliche und räumliche Präzision zustande. In Zukunft kann das in dieser Arbeit beschriebene Konzept für den Entwurf neuer Materialien für Untersuchungen mit einzelnen Zellen eingesetzt werden; mit dem Fokus auf Tissue Engineering, Diagnostik und anderen Zell- und biomedizinisch-basierten Applikationen. KW - multilayer films KW - light-triggered KW - stimulation of cells KW - drug release KW - Polyelektrolyt-Multischichten KW - Licht-induzierte KW - kontrollierte Freisetzung von Biomolekülen KW - Stimulierung von Zellen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97927 ER - TY - THES A1 - Brauer, Dorothée T1 - Chemo-kinematic constraints on Milky Way models from the spectroscopic surveys SEGUE & RAVE T1 - Beschränkungen von Modellen der Milchstraße auf Basis der chemisch-kinematischen Analyse von Beobachtungsdaten der spektroskopischen Himmelsdurchmusterungen SEGUE und RAVE N2 - The Milky Way is only one out of billions of galaxies in the universe. However, it is a special galaxy because it allows to explore the main mechanisms involved in its evolution and formation history by unpicking the system star-by-star. Especially, the chemical fingerprints of its stars provide clues and evidence of past events in the Galaxy’s lifetime. These information help not only to decipher the current structure and building blocks of the Milky Way, but to learn more about the general formation process of galaxies. In the past decade a multitude of stellar spectroscopic Galactic surveys have scanned millions of stars far beyond the rim of the solar neighbourhood. The obtained spectroscopic information provide unprecedented insights to the chemo-dynamics of the Milky Way. In addition analytic models and numerical simulations of the Milky Way provide necessary descriptions and predictions suited for comparison with observations in order to decode the physical properties that underlie the complex system of the Galaxy. In the thesis various approaches are taken to connect modern theoretical modelling of galaxy formation and evolution with observations from Galactic stellar surveys. With its focus on the chemo-kinematics of the Galactic disk this work aims to determine new observational constraints on the formation of the Milky Way providing also proper comparisons with two different models. These are the population synthesis model TRILEGAL based on analytical distribution functions, which aims to simulate the number and distribution of stars in the Milky Way and its different components, and a hybrid model (MCM) that combines an N-body simulation of a Milky Way like galaxy in the cosmological framework with a semi-analytic chemical evolution model for the Milky Way. The major observational data sets in use come from two surveys, namely the “Radial Velocity Experiment” (RAVE) and the “Sloan Extension for Galactic Understanding and Exploration” (SEGUE). In the first approach the chemo-kinematic properties of the thin and thick disk of the Galaxy as traced by a selection of about 20000 SEGUE G-dwarf stars are directly compared to the predictions by the MCM model. As a necessary condition for this, SEGUE's selection function and its survey volume are evaluated in detail to correct the spectroscopic observations for their survey specific selection biases. Also, based on a Bayesian method spectro-photometric distances with uncertainties below 15% are computed for the selection of SEGUE G-dwarfs that are studied up to a distance of 3 kpc from the Sun. For the second approach two synthetic versions of the SEGUE survey are generated based on the above models. The obtained synthetic stellar catalogues are then used to create mock samples best resembling the compiled sample of observed SEGUE G-dwarfs. Generally, mock samples are not only ideal to compare predictions from various models. They also allow validation of the models' quality and improvement as with this work could be especially achieved for TRILEGAL. While TRILEGAL reproduces the statistical properties of the thin and thick disk as seen in the observations, the MCM model has shown to be more suitable in reproducing many chemo-kinematic correlations as revealed by the SEGUE stars. However, evidence has been found that the MCM model may be missing a stellar component with the properties of the thick disk that the observations clearly show. While the SEGUE stars do indicate a thin-thick dichotomy of the stellar Galactic disk in agreement with other spectroscopic stellar studies, no sign for a distinct metal-poor disk is seen in the MCM model. Usually stellar spectroscopic surveys are limited to a certain volume around the Sun covering different regions of the Galaxy’s disk. This often prevents to obtain a global view on the chemo-dynamics of the Galactic disk. Hence, a suitable combination of stellar samples from independent surveys is not only useful for the verification of results but it also helps to complete the picture of the Milky Way. Therefore, the thesis closes with a comparison of the SEGUE G-dwarfs and a sample of RAVE giants. The comparison reveals that the chemo-kinematic relations agree in disk regions where the samples of both surveys show a similar number of stars. For those parts of the survey volumes where one of the surveys lacks statistics they beautifully complement each other. This demonstrates that the comparison of theoretical models on the one side, and the combined observational data gathered by multiple surveys on the other side, are key ingredients to understand and disentangle the structure and formation history of the Milky Way. N2 - Die Milchstraße ist nur eine unter Milliarden von Galaxien im Universum, dennoch ist sie besonders. Sie bietet die einzigartige Möglichkeit anhand ihrer einzeln auflösbaren Sterne und deren im Detail beobachtbaren Eigenschaften die Mechanismen ihrer Evolutions- und Entstehungsgeschichte genau zu studieren und damit Rückschlüsse auf die Entwicklungsprozesse von Galaxien im Allgemeinen zu ziehen. Insbesondere der chemische Fingerabdruck ihrer Sterne liefert dabei Indizien und Beweise für Ereignisse im Leben der Galaxie. In den letzten 15 Jahren wurden daher in einer Vielzahl von Himmeldurchmusterungen Millionen von Sternen in der Milchstraße spektroskopisch beobachtet. Die so gewonnenen Informationen bieten detaillierte Einblicke in die Substrukturen unserer Galaxie und deren chemisch-kinematische Struktur. Ergänzend dazu liefern analytische Modelle und numerische Simulationen der Milchstraße wichtige Beschreibungen, die sich zum Vergleich mit Beobachtungen eignen, um die dem komplexen System der Galaxie zugrunde liegenden exakten physikalischen Eigenschaften entschlüsseln zu können. Die vorliegende Arbeit nutzt verschiedene Ansätze, um moderne theoretische Modelle der Galaxienentstehung und -evolution mit Daten aus stellaren Beobachtungskampagnen zu vergleichen. Die dazu analysierten Beobachtungsdatensätze stammen aus zwei großen Himmelsdurchmusterungen, dem „Radial Velocity Experiment“ (RAVE) und dem „Sloan Extension for Galactic Understanding and Exploration“ (SEGUE). Mit dem Fokus auf der chemisch-kinematischen Struktur der galaktischen Scheibe geht es im Wesentlichen darum, zwei Modelle der Milchstraße zu testen, nämlich ein Populationssynthesemodell (TRILEGAL) und ein Hybridmodell (MCM). Während TRILEGAL auf analytischen Verteilungsfunktionen basiert und zum Ziel hat, die Anzahl und Verteilung der Sterne innerhalb der Galaxie und ihrer unterschiedlichen Komponenten zu simulieren, verbindet das MCM Modell eine kosmologische N-Körper Simulation einer der Milchstraße ähnlichen Galaxie mit einem semi-analytischen Modell zur Beschreibung der chemischen Evolution der Milchstraße. Auf Grundlage einer Auswahl von etwa 20000 SEGUE G-Zwergsternen werden in einem ersten Ansatz die aus den Messdaten gewonnenen chemisch-kinematischen Eigenschaften der dünnen und dicken Scheibe der Milchstraße mit den direkten Vorhersagen des MCM Modells verglichen. Eine notwendige Bedingung dafür ist die Korrektur der Beobachtungsdaten für systematische Fehler bei der Objektauswahl der Beobachtungskampagne. Zudem werden mittels einer Bayesischen Methode spektro-photometrische Distanzen mit Fehlern kleiner als 15% für die Auswahl an SEGUE Sternen berechnet, die sich in einer Entfernung von bis zu 3 kpc von der Sonne befinden. Für den zweiten Ansatz werden basierend auf den oben genannten Modellen zwei synthetische Versionen der SEGUE Himmelsdurchmusterung generiert. Diese künstlichen stellaren Kataloge werden dann verwendet, um Vergleichspseudodatensätze für die verwendeten Zwergsterndaten anzufertigen. Solche synthetischen Testdatensätze eignen sich nicht nur, um die Vorhersagen verschiedener Modelle zu vergleichen, sie können auch zur Validierung der Qualität einzelner Modelle herangezogen werden. Während sich in der Analyse zeigt, dass TRILEGAL sich besonders gut eignet, statistische Eigenschaften der dünnen und dicken galaktischen Scheibe zu reproduzieren, spiegelt das MCM Modell viele der in der Milchstraße beobachtbaren chemisch-kinematischen Korrelationen gut wieder. Trotzdem finden sich Beweise dafür, dass dem MCM Modell eine stellare Komponente fehlt, deren Eigenschaften der in den Beobachtungen sichtbaren dicken Scheibe ähnlich sind. Meist sind spektroskopische Beobachtungskampagnen auf ein bestimmtes Volumen um die Sonne beschränkt. Oftmals verhindert dies die Möglichkeit einen globalen Blick auf die chemisch-kinematischen Eigenschaften der galaktischen Scheibe zu erlangen. Die Kombination von stellaren Daten unabhängiger Kampagnen ist daher nicht nur nützlich für die Verifikation von Ergebnissen, es hilft auch ein ganzheitlicheres Bild der Galaxie zu erlangen. Die vorliegende Arbeit schließt daher mit einem Vergleich der SEGUE G-Zwergsterne und einer Auswahl von RAVE Riesensternen. Es zeigt sich eine gute Übereinstimmung bzgl. der chemisch-kinematischen Struktur der galaktischen Scheibe besonders in denjenigen Regionen, die von einer Vielzahl von SEGUE und RAVE Objekten abgedeckt werden. Für Regionen des Beobachtungsvolumens, in dem die eine oder die andere der beiden Beobachtungskampagnen eine geringere Statistik von beobachteten Sternen aufweist, ergänzen sich RAVE und SEGUE gut. Dies zeigt, dass nicht nur der Vergleich von Beobachtungen und theoretischen Modellen, sondern auch die Kombination von Messdaten aus verschiedenen Himmelsdurchmusterungen wichtig ist, um die Struktur und die Entstehungsgeschichte der Milchstraße zu verstehen und zu entschlüsseln. KW - galaktische Astronomie KW - galactic astronomy KW - Entstehung der Milchstraße KW - Milky Way formation KW - Evolution der Milchstraße KW - Milky Way evolution KW - Milky Way chemo-kinematics KW - Chemokinematik der Milchstraße KW - SEGUE survey KW - SEGUE Beobachtungskampagne KW - RAVE survey KW - RAVE Beobachtungskampagne KW - mock data catalogues KW - Pseudodatensätze Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403968 ER - TY - THES A1 - Vacogne, Charlotte D. T1 - New synthetic routes towards well-defined polypeptides, morphologies and hydrogels T1 - Neue Syntheserouten zu wohldefinierten Polypeptiden, Morphologien und Hydrogelen N2 - Proteins are natural polypeptides produced by cells; they can be found in both animals and plants, and possess a variety of functions. One of these functions is to provide structural support to the surrounding cells and tissues. For example, collagen (which is found in skin, cartilage, tendons and bones) and keratin (which is found in hair and nails) are structural proteins. When a tissue is damaged, however, the supporting matrix formed by structural proteins cannot always spontaneously regenerate. Tailor-made synthetic polypeptides can be used to help heal and restore tissue formation. Synthetic polypeptides are typically synthesized by the so-called ring opening polymerization (ROP) of α-amino acid N-carboxyanhydrides (NCA). Such synthetic polypeptides are generally non-sequence-controlled and thus less complex than proteins. As such, synthetic polypeptides are rarely as efficient as proteins in their ability to self-assemble and form hierarchical or structural supramolecular assemblies in water, and thus, often require rational designing. In this doctoral work, two types of amino acids, γ-benzyl-L/D-glutamate (BLG / BDG) and allylglycine (AG), were selected to synthesize a series of (co)polypeptides of different compositions and molar masses. A new and versatile synthetic route to prepare polypeptides was developed, and its mechanism and kinetics were investigated. The polypeptide properties were thoroughly studied and new materials were developed from them. In particular, these polypeptides were able to aggregate (or self-assemble) in solution into microscopic fibres, very similar to those formed by collagen. By doing so, they formed robust physical networks and organogels which could be processed into high water-content, pH-responsive hydrogels. Particles with highly regular and chiral spiral morphologies were also obtained by emulsifying these polypeptides. Such polypeptides and the materials derived from them are, therefore, promising candidates for biomedical applications. N2 - Proteine, auch Polypeptide genannt, sind große Biomoleküle, die aus kleineren Aminosäuren bestehen. Diese sind zu langen Ketten miteinander verbunden, wie die Perlen auf einer Perlenkette. Sie werden in Zellen produziert, können in Tieren und Pflanzen gefunden werden und haben vielfältige Funktionen. Eine dieser Funktionen ist es, die umgebenen Zellen und Gewebe wie ein Gerüst zu stützen. Kollagen (welches in Haut, Knorpel, Sehnen und Knochen zu finden ist) und Keratin (welches in Haaren und Nägeln vorkommt) gehören zu diesen Strukturproteinen. Jedoch wenn ein Gewebe beschädigt ist, beispielsweise als Folge eines Unfalls, kann sich das Grundgerüst aus diesen Strukturproteinen manchmal nicht mehr selbst regenerieren. Maßgefertigte synthetische Polypeptide, können dafür verwendet werden, die Heilung und Wiederherstellung des Gewebes zu Unterstützen. Diese Polypeptide werden mit einer Reihe an chemischen Reaktionen synthetisiert, welche hauptsächlich darauf abzielen Aminosäuren miteinander zu verknüpfen. Synthetische Polypeptide sind weniger Komplex als die von Zellen hergestellten, natürlichen Polypeptide (Proteine). Während in den natürlichen Polypeptiden die Aminosäuren in einer von der DNA definierten Reihenfolge, welche als Sequenz bezeichnet wird, angeordnet sind, sind sie in synthetischen Polypeptiden zumeist zufällig verteilt. Die Konsequenz daraus ist, dass synthetische Polypeptide nicht immer so Leistungsfähig sind wie natürliche Proteine und ein durchdachtes Design benötigen. Zwei Aminosäuren wurden in dieser Dissertation sorgfältig ausgewählt und verwendet um eine Serie an Polypeptiden mit unterschiedlicher Zusammensetzung und Länge zu synthetisieren. Ein neuer und vielseitiger Syntheseweg wurde ebenfalls entwickelt und der zugrundeliegende Mechanismus untersucht. Die Polypeptide wurden gründlich analysiert und neue Materialien wurden aus ihnen entwickelt. In Lösung gebracht formten diese Fasern, ähnlich denen von Kollagen, welche sich wiederum zu robusten Netzwerken anordneten. Aus diesen Netzwerken ließen sich Hydrogele herstellen, welche in der Lage waren große Mengen an Wasser aufzunehmen. Diese Hydrogele wiederum stellen vielversprechende Kandidaten für biomedizinische Anwendungen dar. KW - polymer KW - chemistry KW - biomaterial KW - polymerization KW - kinetics KW - polypeptide KW - colloid KW - gelation KW - hydrogel KW - organogel KW - secondary structure KW - physical KW - NCA KW - N-carboxyanhydride KW - Polymer KW - Chemie KW - Biomaterial KW - Polymerisation KW - Kinetik KW - Polypeptid KW - Kolloid KW - Gelieren KW - Hydrogel KW - Organogel KW - Sekundärstruktur KW - physikalisch KW - NCA KW - N-carboxyanhydrid Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396366 ER - TY - THES A1 - Prinz, Julia T1 - DNA origami substrates as a versatile tool for surface-enhanced Raman scattering (SERS) T1 - DNA Origami-Substrate als ein vielseitiges Werkzeug für die oberflächenverstärkte Raman-Streuung (SERS) N2 - Surface-enhanced Raman scattering (SERS) is a promising tool to obtain rich chemical information about analytes at trace levels. However, in order to perform selective experiments on individual molecules, two fundamental requirements have to be fulfilled. On the one hand, areas with high local field enhancement, so-called “hot spots”, have to be created by positioning the supporting metal surfaces in close proximity to each other. In most cases hot spots are formed in the gap between adjacent metal nanoparticles (NPs). On the other hand, the analyte has to be positioned directly in the hot spot in order to profit from the highest signal amplification. The use of DNA origami substrates provides both, the arrangement of AuNPs with nm precision as well as the ability to bind analyte molecules at predefined positions. Consequently, the present cumulative doctoral thesis aims at the development of a novel SERS substrate based on a DNA origami template. To this end, two DNA-functionalized gold nanoparticles (AuNPs) are attached to one DNA origami substrate resulting in the formation of a AuNP dimer and thus in a hot spot within the corresponding gap. The obtained structures are characterized by correlated atomic force microscopy (AFM) and SERS imaging which allows for the combination of structural and chemical information. Initially, the proof-of principle is presented which demonstrates the potential of the novel approach. It is shown that the Raman signal of 15 nm AuNPs coated with dye-modified DNA (dye: carboxytetramethylrhodamine (TAMRA)) is significantly higher for AuNP dimers arranged on a DNA origami platform in comparison to single AuNPs. Furthermore, by attaching single TAMRA molecules in the hot spot between two 5 nm AuNPs and optimizing the size of the AuNPs by electroless gold deposition, SERS experiments at the few-molecule level are presented. The initially used DNA origami-AuNPs design is further optimized in many respects. On the one hand, larger AuNPs up to a diameter of 60 nm are used which are additionally treated with a silver enhancement solution to obtain Au-Ag-core-shell NPs. On the other hand, the arrangement of both AuNPs is altered to improve the position of the dye molecule within the hot spot as well as to decrease the gap size between the two particles. With the optimized design the detection of single dye molecules (TAMRA and cyanine 3 (Cy3)) by means of SERS is demonstrated. Quantitatively, enhancement factors up to 10^10 are estimated which is sufficiently high to detect single dye molecules. In the second part, the influence of graphene as an additional component of the SERS substrate is investigated. Graphene is a two-dimensional material with an outstanding combination of electronical, mechanical and optical properties. Here, it is demonstrated that single layer graphene (SLG) replicates the shape of underlying non-modified DNA origami substrates very well, which enables the monitoring of structural alterations by AFM imaging. In this way, it is shown that graphene encapsulation significantly increases the structural stability of bare DNA origami substrates towards mechanical force and prolonged exposure to deionized water. Furthermore, SLG is used to cover DNA origami substrates which are functionalized with a 40 nm AuNP dimer. In this way, a novel kind of hybrid material is created which exhibits several advantages compared to the analogue non-covered SERS substrates. First, the fluorescence background of dye molecules that are located in between the AuNP surface and SLG is efficiently reduced. Second, the photobleaching rate of the incorporated dye molecules is decreased up to one order of magnitude. Third, due to the increased photostability of the investigated dye molecules, the performance of polarization-dependent series measurements on individual structures is enabled. This in turn reveals extensive information about the dye molecules in the hot spot as well as about the strain induced within the graphene lattice. Although SLG can significantly influence the SERS substrate in the aforementioned ways, all those effects are strongly related to the extent of contact with the underlying AuNP dimer. N2 - Desoxyribonukleinsäure (engl. deoxyribonucleic acid (DNA)) ist nicht nur Träger der Erbinformation, sondern wird auch seit den frühen 80er Jahren als Gerüstmaterial in der Nanotechnologie verwendet. Im Jahr 2006 wurde die bis dato entwickelte DNA-Nanotechnologie durch die Erfindung der sogenannten DNA Origami-Technik weiter revolutioniert. Diese erlaubt die Konstruktion vielfältiger zwei- und dreidimensionaler Strukturen durch gezielte DNA-Selbstassemblierung. Basierend auf der grundlegenden Watson-Crick Basenpaarung innerhalb eines DNA-Doppelstrangs können die gewünschten Zielstrukturen dabei mit hoher Genauigkeit vorhergesagt werden. Neben der Entwicklung vielfältiger DNA-Konstrukte eignen sich DNA Origami-Substrate zudem hervorragend zur Bindung funktionaler Einheiten mit der Präzision im Bereich von Nanometern. Somit lassen sich beispielsweise Goldnanopartikel (AuNPs) präzise anordnen. Dies ist von höchstem Interesse im Zusammenhang mit der oberflächenverstärkten Ramanstreuung (engl. surface-enhanced Raman scattering (SERS)). SERS basiert darauf, die naturgemäß schwache Ramanstreuung eines Analyten um mehrere Größenordnungen zu verstärken, indem der Analyt nahe einer Metalloberfläche positioniert wird. Die Verstärkung der Ramanstreuung beruht hierbei hauptsächlich auf der Wechselwirkung des Analyten mit dem elektromagnetischen Feld der Metalloberfläche und kann im Zwischenraum zweier benachbarter Metallstrukturen besonders stark ausgeprägt sein. Die vorliegende kumulative Dissertation beschäftigt sich mit der Entwicklung einer DNA Origami-basierten Sensoroberfläche für die Anwendung von SERS-Experimenten. Hierbei werden jeweils zwei AuNPs in gezieltem Abstand an ein DNA Origami-Substrat gebunden und das verstärkte Ramansignal eines Analyten im Zwischenraum des AuNP-Dimers detektiert. Zunächst wird das allgemeine Prinzip in Form eines Wirksamkeitsnachweises vorgestellt, in welchem der Farbstoff Carboxytetramethylrhodamin (TAMRA) als Analyt verwendet wird. Die darauf aufbauenden Experimente zielen auf eine Verringerung der Nachweisgrenze bis hin zur Einzelmoleküldetektion ab. Im Zuge dessen werden vielseitige Optimierungsschritte durchgeführt, die die Größe, die Anordnung sowie die Ummantelung der AuNPs mit einer dünnen Silberschicht betreffen. Es wird gezeigt, dass durch die Optimierung aller Parameter die Detektion einzelner TAMRA- und Cyanin 3 (Cy3)-Moleküle mittels SERS möglich ist. Weiterhin wird Graphen, ein erst im Jahr 2004 entdecktes Material bestehend aus einer einzigen Schicht Kohlenstoffatome, als weiterer Bestandteil der untersuchten Nanostrukturen eingeführt. Graphen zeichnet sich durch eine bislang einzigartige Kombination aus optischen, elektronischen und mechanischen Eigenschaften aus und hat sich daher innerhalb kürzester Zeit zu einem vielfältigen Forschungsschwerpunkt entwickelt. In der vorliegenden Dissertation wird zunächst die erhöhte strukturelle Stabilität von Graphen bedeckten DNA Origami-Substraten im Hinblick auf mechanische Beanspruchung sowie auf die Inkubation in deionisiertem Wasser demonstriert. In weiterführenden Betrachtungen werden auch DNA Origami-Substrate, die mit AuNP-Dimeren funktionalisiert sind, mit Graphen bedeckt, und somit eine neuartige Hybridstruktur erzeugt. Es wird gezeigt, dass Graphen den Fluoreszenzuntergrund der untersuchten Farbstoffmoleküle deutlich reduziert und zusätzlich deren Photostabilität gegenüber der eintreffenden Laserstrahlung effektiv verbessert. KW - DNA origami KW - surface-enhanced Raman scattering KW - DNA nanostructures KW - graphene KW - single-molecule detection KW - DNA Origami KW - oberflächenverstärkte Raman-Streuung KW - DNA Nanostrukturen KW - Graphen KW - Einzelmoleküldetektion Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104089 ER - TY - THES A1 - Pampel, Jonas T1 - Ionothermal carbon materials T1 - Ionothermale Kohlenstoffmaterialien BT - advanced synthesis and electrochemical applications BT - erweiterte Synthese und elektrochemische Anwendungen N2 - Alternative concepts for energy storage and conversion have to be developed, optimized and employed to fulfill the dream of a fossil-independent energy economy. Porous carbon materials play a major role in many energy-related devices. Among different characteristics, distinct porosity features, e.g., specific surface area (SSA), total pore volume (TPV), and the pore size distribution (PSD), are important to maximize the performance in the final device. In order to approach the aim to synthesize carbon materials with tailor-made porosity in a sustainable fashion, the present thesis focused on biomass-derived precursors employing and developing the ionothermal carbonization. During the ionothermal carbonization, a salt melt simultaneously serves as solvent and porogen. Typically, eutectic mixtures containing zinc chloride are employed as salt phase. The first topic of the present thesis addressed the possibility to precisely tailor the porosity of ionothermal carbon materials by an experimentally simple variation of the molar composition of the binary salt mixture. The developed pore tuning tool allowed the synthesis of glucose derived carbon materials with predictable SSAs in the range of ~ 900 to ~ 2100 m2 g-1. Moreover, the nucleobase adenine was employed as precursor introducing nitrogen functionalities in the final material. Thereby, the chemical properties of the carbon materials are varied leading to new application fields. Nitrogen doped carbons (NDCs) are able to catalyze the oxygen reduction reaction (ORR) which takes place on the cathodic site of a fuel cell. The herein developed porosity tailoring allowed the synthesis of adenine derived NDCs with outstanding SSAs of up to 2900 m2 g-1 and very large TPV of 5.19 cm3 g-1. Furthermore, the influence of the porosity on the ORR could be directly investigated enabling the precise optimization of the porosity characteristics of NDCs for this application. The second topic addressed the development of a new method to investigate the not-yet unraveled mechanism of the oxygen reduction reaction using a rotating disc electrode setup. The focus was put on noble-metal free catalysts. The results showed that the reaction pathway of the investigated catalysts is pH-dependent indicating different active species at different pH-values. The third topic addressed the expansion of the used salts for the ionothermal approach towards hydrated calcium and magnesium chloride. It was shown that hydrated salt phases allowed the introduction of a secondary templating effect which was connected to the coexistence of liquid and solid salt phases. The method enabled the synthesis of fibrous NDCs with SSAs of up to 2780 m2 g-1 and very large TPV of 3.86 cm3 g-1. Moreover, the concept of active site implementation by a facile low-temperature metalation employing the obtained NDCs as solid ligands could be shown for the first time in the context of ORR. Overall, the thesis may pave the way towards highly porous carbon with tailor-made porosity materials prepared by an inexpensive and sustainable pathway, which can be applied in energy related field thereby supporting the needed expansion of the renewable energy sector. N2 - Alternative Konzepte für Energiespeicherung und –umwandlung müssen entwickelt, optimiert und praktisch angewendet werden, um den Traum einer erdölunabhängigen Energiewirtschaft zu realisieren. Poröse Kohlenstoffmaterialien spielen eine bedeutende Rolle in vielen energierelevanten Anwendungen. Speziell die porösen Eigenschaften des Kohlenstoffs, wie die spezifische Oberfläche (engl. specific surface area: SSA), das totale Porenvolumen (engl. total pore volume: TPV) und die Porengrößenverteilung, sind von großer Bedeutung für eine Maximierung der Leistung in der Endanwendung. Die vorliegende Arbeit konzentrierte sich auf den Einsatz und die Weiterentwicklung der ionothermalen Karbonisierung ausgehend von biomassebasierten Präkursoren, um eine nachhaltige Synthese hochporöser Kohlenstoffe mit einstellbarer Porosität zu ermöglichen. In der ionothermalen Synthese fungieren Salzschmelzen simultan als Lösungsmittel und Porogen während der Karbonisierung. Als Salzphase werden hierbei häufig eutektische Zinkchloridhaltige binäre Salzmischungen verwendet. In der vorliegenden Arbeit wurde im ersten Schritt die Variation der molaren Zusammensetzung der binären Salzphase als neue Methode eingeführt, um eine kontinuierliche Veränderung der Porosität des synthetisierten Kohlenstoffs zu bewirken. Diese Methode erlaubte die Synthese von Glukose-basierten Kohlenstoffen mit einstellbarer SSA zwischen ~ 900 und ~ 2100 m2 g-1. Des Weiteren wurde die Nukleinbase Adenin als Präkursor verwendet, wodurch eine Stickstoffdotierung des finalen Kohlenstoffmaterials erreicht wurde. Die damit einhergehende Veränderung der chemischen Eigenschaften des Materials führt zu neuen Anwendungsbereichen. Stickstoffdotierte Kohlen (engl. nitrogen doped carbons: NDCs) können beispielsweise die Sauerstoffreduktion katalysieren, welche auf der Kathodenseite der Brennstoffzelle abläuft. Das entwickelte Verfahren zur Einstellung der Porosität erlaubte einerseits die Synthese von Adenin-basierten NDCs mit beeindruckenden SSAs von bis zu 2900 m2 g-1 und extrem hohen TPVs von bis zu 5,19 cm3 g-1. Andererseits konnte der Einfluss der Porosität auf die Sauerstoffreduktion direkt untersucht und infolge dessen die Porosität der NDCs für diese Anwendung optimiert werden. Im zweiten Schritt wurde ein neues Verfahren entwickelt, um mittels der rotierenden Scheibenelektrode den noch nicht geklärten Mechanismus der Sauerstoffreduktion zu untersuchen, vor allem in Bezug auf edelmetallfreie Katalysatoren. Die Ergebnisse zeigten, dass der Reaktionsverlauf der Sauerstoffreduktion pH-Wert abhängig ist. Diese deutet auf verschiedene aktive Spezies in Abhängigkeit des pH-Werts hin. Im dritten Schritt wurde der gezielte Einsatz von hydrierten Salzen (Magnesium- und Calciumchlorid) als Salzphase für die ionothermale Synthese untersucht. Es konnte gezeigt werden, dass Hydrate einen sekundären Templatierungseffekt erlauben, was anhand der Koexistenz von flüssigen und festen Salzphasen erklärt werden konnte. Hierdurch konnten faserartige NDC-Materialien mit SSAs von bis zu 2780 m2 g-1 und TPVs von bis zu 3,86 cm3 g-1 synthetisiert werden. Des Weiteren wurde anhand dieser NDC-Materialien erfolgreich gezeigt, dass es möglich ist sauerstoffreduktionsaktive Spezies durch einfache Metallierung mit Eisenionen bei niedrigen Temperaturen einzuführen. Zusammenfassend konnte die vorliegende Arbeit die kostengünstige und nachhaltige Synthese hochporöser Materialien mit einstellbarer Porosität zeigen, welche in energierelevanten Bereichen eingesetzt werden können. Hierdurch kann die notwendige Erweiterung des Sektors der erneuerbaren Energien unterstützt werden. KW - porous materials KW - nitrogen doped carbons KW - ORR KW - oxygen reduction reaction KW - electrocatalysis KW - poröse Materialien KW - stickstoffdotierte Kohlenstoffe KW - ORR KW - Sauerstoff Reduktion KW - Elektrokatalyse KW - ionothermal synthesis KW - ionothermale Synthese Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-101323 ER - TY - THES A1 - Steeples, Elliot T1 - Amino acid-derived imidazolium salts: platform molecules for N-Heterocyclic carbene metal complexes and organosilica materials T1 - Imidazolium-Salze aus Aminosäure: Bausteine für N-Heterozyklische-Carben Metallkomplexe und Organosilicamaterialien N2 - In the interest of producing functional catalysts from sustainable building-blocks, 1, 3-dicarboxylate imidazolium salts derived from amino acids were successfully modified to be suitable as N-Heterocyclic carbene (NHC) ligands within metal complexes. Complexes of Ag(I), Pd(II), and Ir(I) were successfully produced using known procedures using ligands derived from glycine, alanine, β-alanine and phenylalanine. The complexes were characterized in solid state using X-Ray crystallography, which allowed for the steric and electronic comparison of these ligands to well-known NHC ligands within analogous metal complexes. The palladium complexes were tested as catalysts for aqueous-phase Suzuki-Miyaura cross-coupling. Water-solubility could be induced via ester hydrolysis of the N-bound groups in the presence of base. The mono-NHC–Pd complexes were seen to be highly active in the coupling of aryl bromides with phenylboronic acid; the active catalyst of which was determined to be mostly Pd(0) nanoparticles. Kinetic studies determined that reaction proceeds quickly in the coupling of bromoacetophenone, for both pre-hydrolyzed and in-situ hydrolysis catalyst dissolution. The catalyst could also be recycled for an extra run by simply re-using the aqueous layer. The imidazolium salts were also used to produce organosilica hybrid materials. This was attempted via two methods: by post-grafting onto a commercial organosilica, and co-condensation of the corresponding organosilane. The co-condensation technique harbours potential for the production of solid-support catalysts. N2 - Um Katalysatoren aus nachhaltigen Chemikalien herzustellen, wurden 1,3-Dicarbonsäure-Imidazolium-Salze, welche aus Aminosäuren synthetisiert wurden als N-heterozyklische-Carben-Liganden (NHC) in Metallkomplexen modifiziert. Liganden aus Glycin, Alanin, β-Alanin und Phenylalanin wurden wiederum genutzt, um Metallkomplexe aus Silber(I), Palladium(II) und Iridium(I) darzustellen. Alle Komplexverbindungen wurden mit Röntgenkristallographie charakterisiert. Die Palladiumkomplexe wurden als Katalysatoren in der Suzuki-Miyaura Reaktion eingesetzt. Durch zusätzliche Hydrolyse der Ester-Gruppen konnte eine gute Wasserlöslichkeit erreicht werden. Die hohe Aktivität der Mono-NHC–Palladium-Komplexe konnte bei der Kupplung von Arylbromiden mit Phenylboronsäuren aufgezeigt werden. Die aktive Spezies wurde hauptsächlich Pd(0) Nanopartikeln zugeschrieben. Nach erfolgreichem Recycling konnte der Katalysator noch einmal wiederverwendet werden. Die Imidazolium-Salze wurden ebenfalls herangezogen, um Organosilicamaterialien zu synthetisieren. Die Herstellung wurde durch zwei Methoden erreicht. Zum einen durch nachträgliches Aufbringen auf kommerzielle Siliziummaterialien, sowie durch Co-Kondensation auf das entsprechende Organosilan. Diese Co-Kondensation birgt Potential zur Herstellung von festen Trägerkatalysatoren. KW - synthesis KW - Synthese KW - sustainable chemistry KW - nachhaltige Chemie KW - organometallics KW - Metallorganischen KW - water KW - Wasser Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-101861 ER - TY - THES A1 - Ledendecker, Marc T1 - En route towards advanced catalyst materials for the electrocatalytic water splitting reaction T1 - Innovative Katalysatormaterialien für die elektrokatalytische Wasserspaltung BT - mechanistic insights into the formation of metal carbides, phosphides, sulfides and nitrides BT - mechanistische Einblicke in die Bildung von Metallcarbiden, -phosphiden, -sulfiden und –nitriden N2 - The thesis on hand deals with the development of new types of catalysts based on pristine metals and ceramic materials and their application as catalysts for the electrocatalytic water splitting reaction. In order to breathe life into this technology, cost-efficient, stable and efficient catalysts are imploringly desired. In this manner, the preparation of Mn-, N-, S-, P-, and C-containing nickel materials has been investigated together with the theoretical and electrochemical elucidation of their activity towards the hydrogen (and oxygen) evolution reaction. The Sabatier principle has been used as the principal guideline towards successful tuning of catalytic sites. Furthermore, two pathways have been chosen to ameliorate the electrocatalytic performance, namely, the direct improvement of intrinsic properties through appropriate material selection and secondly the increase of surface area of the catalytic material with an increased amount of active sites. In this manner, bringing materials with optimized hydrogen adsorption free energy onto high surface area support, catalytic performances approaching the golden standards of noble metals were feasible. Despite varying applied synthesis strategies (wet chemistry in organic solvents, ionothermal reaction, gas phase reaction), one goal has been systematically pursued: to understand the driving mechanism of the growth. Moreover, deeper understanding of inherent properties and kinetic parameters of the catalytic materials has been gained. N2 - Wasserstoff ist einer der vielversprechendsten Energieträger aufgrund seiner hohen massenbezogenen Energiedichte. In diesem Zusammenhang erlaubt die elektrokatalytische Wasserspaltung die einfache und saubere Herstellung von Wasserstoff. Allerdings erfordert die Trennung der relativ starken Wasserstoff-Sauerstoff Bindungen beträchtliche Energie und teure Edelmetalle wie Platin oder Iridium zeigen die höchste katalytische Aktivität mit geringer Überspannung und hohen Stromdichten was zu einem guten Wirkungsgrad führt. Aus dieser Motivation heraus befasst sich die vorliegende Arbeit mit der Entwicklung neuer Katalysatoren, die auf Metalllegierungen und Keramiken basieren, sowie ihrer Anwendung für die elektrokatalytische Wasserspaltung. Besonderes Augenmerk wurde auf die Herstellung von kostengünstigen mangan-, stickstoff-, schwefel-, phosphor- und kohlenstoffhaltigen Nickelwerkstoffen gelegt und deren Aktivität experimentell und theoretisch erforscht. Nickel wurde aufgrund seines relativ günstigen Preises und hohen Vorkommens gewählt. Das Prinzip von Sabatier – die Wechselwirkung zwischen Adsorbat und Substrat sollte weder zu stark noch zu schwach sein – wurde als Leitfaden für die Entwicklung effizienter Katalysatoren benutzt. Trotz unterschiedlich angewendeter Synthesestrategien (Synthese in organischen Lösungsmitteln, ionothermale Reaktion oder Gasphasenreaktion), wurde zusätzlich systematisch ein weiteres Ziel verfolgt: Die Wachstums- und Entstehungsmechanismen dieser Materialen zu ergründen. Darüber hinaus wurde ein tieferes Verständnis der inhärenten Eigenschaften und kinetischen Parameter der katalytischen Materialien gewonnen. KW - Wasserspaltung KW - Katalysatoren KW - Keramik KW - Legierungen KW - Materialwissenschaft KW - HER KW - OER KW - water splitting reaction KW - ceramics KW - metal alloys KW - material science KW - HER KW - OER Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93296 ER - TY - THES A1 - Cajar, Anke T1 - Eye-movement control during scene viewing T1 - Blicksteuerung bei der Betrachtung natürlicher Szenen BT - the roles of central and peripheral vision BT - die Rollen des zentralen und peripheren Sehens N2 - Eye movements serve as a window into ongoing visual-cognitive processes and can thus be used to investigate how people perceive real-world scenes. A key issue for understanding eye-movement control during scene viewing is the roles of central and peripheral vision, which process information differently and are therefore specialized for different tasks (object identification and peripheral target selection respectively). Yet, rather little is known about the contributions of central and peripheral processing to gaze control and how they are coordinated within a fixation during scene viewing. Additionally, the factors determining fixation durations have long been neglected, as scene perception research has mainly been focused on the factors determining fixation locations. The present thesis aimed at increasing the knowledge on how central and peripheral vision contribute to spatial and, in particular, to temporal aspects of eye-movement control during scene viewing. In a series of five experiments, we varied processing difficulty in the central or the peripheral visual field by attenuating selective parts of the spatial-frequency spectrum within these regions. Furthermore, we developed a computational model on how foveal and peripheral processing might be coordinated for the control of fixation duration. The thesis provides three main findings. First, the experiments indicate that increasing processing demands in central or peripheral vision do not necessarily prolong fixation durations; instead, stimulus-independent timing is adapted when processing becomes too difficult. Second, peripheral vision seems to play a prominent role in the control of fixation durations, a notion also implemented in the computational model. The model assumes that foveal and peripheral processing proceed largely in parallel and independently during fixation, but can interact to modulate fixation duration. Thus, we propose that the variation in fixation durations can in part be accounted for by the interaction between central and peripheral processing. Third, the experiments indicate that saccadic behavior largely adapts to processing demands, with a bias of avoiding spatial-frequency filtered scene regions as saccade targets. We demonstrate that the observed saccade amplitude patterns reflect corresponding modulations of visual attention. The present work highlights the individual contributions and the interplay of central and peripheral vision for gaze control during scene viewing, particularly for the control of fixation duration. Our results entail new implications for computational models and for experimental research on scene perception. N2 - Blickbewegungen stellen ein Fenster in aktuelle visuell-kognitive Prozesse dar und können genutzt werden um zu untersuchen wie Menschen natürliche Szenen wahrnehmen. Eine zentrale Frage ist, welche Rollen zentrales und peripheres Sehen für die Blicksteuerung in Szenen spielen, da sie Information unterschiedlich verarbeiten und auf verschiedene Aufgaben spezialisiert sind (Objektidentifikation bzw. periphere Zielauswahl). Jedoch ist kaum bekannt, welche Beiträge zentrale und periphere Verarbeitung für die Blicksteuerung in Szenen leisten und wie sie während der Fixation koordiniert werden. Des Weiteren wurden Einflussfaktoren auf Fixationsdauern bisher vernachlässigt, da die Forschung zur Szenenwahrnehmung hauptsächlich auf Einflussfaktoren auf Fixationsorte fokussiert war. Die vorliegende Arbeit hatte zum Ziel, das Wissen über die Beiträge des zentralen und peripheren Sehens zu räumlichen, aber vor allem zu zeitlichen Aspekten der Blicksteuerung in Szenen zu erweitern. In einer Serie von fünf Experimenten haben wir die Verarbeitungsschwierigkeit im zentralen oder peripheren visuellen Feld durch die Abschwächung selektiver Raumfrequenzanteile innerhalb dieser Regionen variiert. Des Weiteren haben wir ein computationales Modell zur Koordination von fovealer und peripherer Verarbeitung für die Kontrolle von Fixationsdauern entwickelt. Die Arbeit liefert drei Hauptbefunde. Erstens zeigen die Experimente, dass erhöhte Verarbeitungsanforderungen im zentralen oder peripheren visuellen Feld nicht zwangsläufig zu längeren Fixationsdauern führen; stattdessen werden Fixationsdauern stimulus-unabhängig gesteuert, wenn die Verarbeitung zu schwierig wird. Zweitens scheint peripheres Sehen eine entscheidene Rolle für die Kontrolle von Fixationsdauern zu spielen, eine Idee, die auch im computationalen Modell umgesetzt wurde. Das Modell nimmt an, dass foveale und periphere Verarbeitung während der Fixation weitgehend parallel und unabhängig ablaufen, aber interagieren können um Fixationsdauern zu modulieren. Wir schlagen somit vor, dass Änderungen in Fixationsdauern zum Teil auf die Interaktion von zentraler und peripherer Verarbeitung zurückgeführt werden können. Drittens zeigen die Experimente, dass räumliches Blickverhalten sich weitgehend an Verarbeitungsanforderungen anpasst und Betrachter Szenenregionen mit Raumfrequenzfilterung als Sakkadenziele vermeiden. Wir zeigen, dass diese Sakkadenamplitudeneffekte entsprechende Modulationen der visuellen Aufmerksamkeit reflektieren. Die vorliegende Arbeit hebt die einzelnen Beiträge und das Zusammenspiel zentralen und peripheren Sehens für die Blicksteuerung in der Szenenwahrnehmung hervor, besonders für die Kontrolle von Fixationsdauern. Unsere Ergebnisse geben neue Implikationen für computationale Modelle und experimentelle Forschung zur Szenenwahrnehmung. KW - psychology KW - eye movements KW - scene perception KW - Psychologie KW - Blickbewegungen KW - Szenenwahrnehmung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395536 ER - TY - THES A1 - Riebe, Daniel T1 - Experimental and theoretical investigations of molecular ions by spectroscopy as well as ion mobility and mass spectrometry T1 - Experimentelle und theoretische Untersuchungen molekularer Ionen durch Spektroskopie sowie Ionenmobilitäts- und Massenspektrometrie N2 - The aim of this thesis was the elucidation of different ionization methods (resonance-enhanced multiphoton ionization – REMPI, electrospray ionization – ESI, atmospheric pressure chemical ionization – APCI) in ion mobility (IM) spectrometry. In order to gain a better understanding of the ionization processes, several spectroscopic, mass spectrometric and theoretical methods were also used. Another focus was the development of experimental techniques, including a high resolution spectrograph and various combinations of IM and mass spectrometry. The novel high resolution 2D spectrograph facilitates spectroscopic resolutions in the range of commercial echelle spectrographs. The lowest full width at half maximum of a peak achieved was 25 pm. The 2D spectrograph is based on the wavelength separation of light by the combination of a prism and a grating in one dimension, and an etalon in the second dimension. This instrument was successfully employed for the acquisition of Raman and laser-induced breakdown spectra. Different spectroscopic methods (light scattering and fluorescence spectroscopy) permitting a spatial as well as spectral resolution, were used to investigate the release of ions in the electrospray. The investigation is based on the 50 nm shift of the fluorescence band of rhodamine 6G ions of during the transfer from the electrospray droplets to the gas phase. A newly developed ionization chamber operating at reduced pressure (0.5 mbar) was coupled to a time-of-flight mass spectrometer. After REMPI of H2S, an ionization chemistry analogous to H2O was observed with this instrument. Besides H2S+ and its fragments, H3S+ and protonated analyte ions could be observed as a result of proton-transfer reactions. For the elucidation of the peaks in IM spectra, a combination of IM spectrometer and linear quadrupole ion trap mass spectrometer was developed. The instrument can be equipped with various ionization sources (ESI, REMPI, APCI) and was used for the characterization of the peptide bradykinin and the neuroleptic promazine. The ionization of explosive compounds in an APCI source based on soft x-radiation was investigated in a newly developed ionization chamber attached to the ion trap mass spectrometer. The major primary and secondary reactions could be characterized and explosive compound ions could be identified and assigned to the peaks in IM spectra. The assignment is based on the comparison of experimentally determined and calculated IM. The methods of calculation currently available exhibit large deviations, especially in the case of anions. Therefore, on the basis of an assessment of available methods, a novel hybrid method was developed and characterized. N2 - Ziel dieser Arbeit war die Aufklärung unterschiedlicher Ionisationsmethoden (Resonanz-verstärkte Mehrphotonenionisation – REMPI, Elektrosprayionisation – ESI, chemische Ionisation bei Atmosphärendruck – APCI) in der Ionenmobilitäts (IM)-Spektrometrie. Um ein besseres Verständnis der Ionisationsprozesse zu erhalten, wurden zusätzlich ver¬schiedene spektroskopische, massenspektrometrische und theoretische Methoden eingesetzt. Ein weiterer Schwerpunkt war die Entwicklung neuer experimenteller Techniken, darunter ein hochauflösender Spektrograph und verschiedene Kombinationen von IM- und Massenspektrometern. Der neuartige, hochauflösende 2D Spektrograph ermöglicht spektroskopische Auflösungen im Bereich kommerzieller Echelle-Spektrographen. Die geringste erreichte Halbwertsbreite eines Peaks betrug 25 pm. Der 2D Spektrograph beruht auf der Wellenlängenseparation von Licht durch eine Kombination aus einem Prisma und einem Gitter in der einen Dimension und einem Etalon in der zweiten Dimension. Das Instrument wurde erfolgreich zur Aufnahme von Raman- und laserinduzierten Plasmaspektren ein¬gesetzt. Verschiedene spektroskopische Methoden (Lichtstreuung und Fluoreszenzspektroskopie), die sowohl eine räumliche, als auch eine spektrale Auflösung erlauben, wurden zur Untersuchung der Freisetzung der Ionen im Elektrospray angewandt. Die Untersuchung beruht auf der Verschiebung der Fluoreszenzbande von Rhodamin 6G-Ionen um 50 nm beim Übergang aus den Elektrospray-Tropfen in die Gasphase. Eine neuent¬wickelte Ionisationskammer bei reduziertem Druck (0,5 mbar) wurde an ein Flugzeit-Massenspektrometer gekoppelt. Darin wurde nach REMPI von H2S eine zum H2O analoge Ionisationschemie beobachtet. Neben H2S+ und seinen Fragmenten wurden als Ergebnis von Proto-nen-Transferreaktionen H3S+ und protonierte Analytionen beobachtet. Zur Aufklärung der Peaks in IM-Spektren wurde eine Kopplung von IM-Spektrometer und linearem Quadrupol-Ionenfallen-Massenspektrometer entwickelt. Die Kopplung kann mit verschiedenen Ionisationsquellen (ESI, REMPI, APCI) ausgestattet werden und wurde zur Charakterisierung des Peptids Bradykinin und des Neuroleptikums Promazin angewendet. Die Ionisation von Sprengstoffen in einer APCI-Quelle, die auf weicher Röntgenstrahlung beruht, wurde in einer neu entwickelten, an das Ionenfallen-Massenspektrometer gekoppelten Ionisationskammer untersucht. Dabei konnten die wichtigsten Primär- und Sekundärreaktionen charakterisiert, sowie Sprengstoffionen identifiziert und den Peaks in den IM-Spektren zugeordnet werden. Diese Zuordnung beruht auf dem Vergleich von experimentell bestimmten und berechneten IM. Da die aktuell verfügbaren Berechnungsmethoden insbesondere für Anionen zu große Abweichungen zu den experimentell bestimmten IM aufweisen, wurde auf Basis der Bewertung verfügbarer Methoden eine neue Hybridmethode entwickelt und charakterisiert. KW - ion mobility spectrometry KW - mass spectrometry KW - explosives KW - X-ray KW - photoionization KW - ion mobility calculations KW - Ionenmobilitätsspektrometrie KW - Massenspektrometrie KW - Sprengstoffe KW - Röntgenstrahlung KW - Photoionisation KW - Ionenmobilitäts-Berechnungen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94632 ER - TY - THES A1 - Ulaganathan, Vamseekrishna T1 - Molecular fundamentals of foam fractionation T1 - Molekulare Grundlagen der Schaumfraktionierung N2 - Foam fractionation of surfactant and protein solutions is a process dedicated to separate surface active molecules from each other due to their differences in surface activities. The process is based on forming bubbles in a certain mixed solution followed by detachment and rising of bubbles through a certain volume of this solution, and consequently on the formation of a foam layer on top of the solution column. Therefore, systematic analysis of this whole process comprises of at first investigations dedicated to the formation and growth of single bubbles in solutions, which is equivalent to the main principles of the well-known bubble pressure tensiometry. The second stage of the fractionation process includes the detachment of a single bubble from a pore or capillary tip and its rising in a respective aqueous solution. The third and final stage of the process is the formation and stabilization of the foam created by these bubbles, which contains the adsorption layers formed at the growing bubble surface, carried up and gets modified during the bubble rising and finally ends up as part of the foam layer. Bubble pressure tensiometry and bubble profile analysis tensiometry experiments were performed with protein solutions at different bulk concentrations, solution pH and ionic strength in order to describe the process of accumulation of protein and surfactant molecules at the bubble surface. The results obtained from the two complementary methods allow understanding the mechanism of adsorption, which is mainly governed by the diffusional transport of the adsorbing protein molecules to the bubble surface. This mechanism is the same as generally discussed for surfactant molecules. However, interesting peculiarities have been observed for protein adsorption kinetics at sufficiently short adsorption times. First of all, at short adsorption times the surface tension remains constant for a while before it decreases as expected due to the adsorption of proteins at the surface. This time interval is called induction time and it becomes shorter with increasing protein bulk concentration. Moreover, under special conditions, the surface tension does not stay constant but even increases over a certain period of time. This so-called negative surface pressure was observed for BCS and BLG and discussed for the first time in terms of changes in the surface conformation of the adsorbing protein molecules. Usually, a negative surface pressure would correspond to a negative adsorption, which is of course impossible for the studied protein solutions. The phenomenon, which amounts to some mN/m, was rather explained by simultaneous changes in the molar area required by the adsorbed proteins and the non-ideality of entropy of the interfacial layer. It is a transient phenomenon and exists only under dynamic conditions. The experiments dedicated to the local velocity of rising air bubbles in solutions were performed in a broad range of BLG concentration, pH and ionic strength. Additionally, rising bubble experiments were done for surfactant solutions in order to validate the functionality of the instrument. It turns out that the velocity of a rising bubble is much more sensitive to adsorbing molecules than classical dynamic surface tension measurements. At very low BLG or surfactant concentrations, for example, the measured local velocity profile of an air bubble is changing dramatically in time scales of seconds while dynamic surface tensions still do not show any measurable changes at this time scale. The solution’s pH and ionic strength are important parameters that govern the measured rising velocity for protein solutions. A general theoretical description of rising bubbles in surfactant and protein solutions is not available at present due to the complex situation of the adsorption process at a bubble surface in a liquid flow field with simultaneous Marangoni effects. However, instead of modelling the complete velocity profile, new theoretical work has been started to evaluate the maximum values in the profile as characteristic parameter for dynamic adsorption layers at the bubble surface more quantitatively. The studies with protein-surfactant mixtures demonstrate in an impressive way that the complexes formed by the two compounds change the surface activity as compared to the original native protein molecules and therefore lead to a completely different retardation behavior of rising bubbles. Changes in the velocity profile can be interpreted qualitatively in terms of increased or decreased surface activity of the formed protein-surfactant complexes. It was also observed that the pH and ionic strength of a protein solution have strong effects on the surface activity of the protein molecules, which however, could be different on the rising bubble velocity and the equilibrium adsorption isotherms. These differences are not fully understood yet but give rise to discussions about the structure of protein adsorption layer under dynamic conditions or in the equilibrium state. The third main stage of the discussed process of fractionation is the formation and characterization of protein foams from BLG solutions at different pH and ionic strength. Of course a minimum BLG concentration is required to form foams. This minimum protein concentration is a function again of solution pH and ionic strength, i.e. of the surface activity of the protein molecules. Although at the isoelectric point, at about pH 5 for BLG, the hydrophobicity and hence the surface activity should be the highest, the concentration and ionic strength effects on the rising velocity profile as well as on the foamability and foam stability do not show a maximum. This is another remarkable argument for the fact that the interfacial structure and behavior of BLG layers under dynamic conditions and at equilibrium are rather different. These differences are probably caused by the time required for BLG molecules to adapt respective conformations once they are adsorbed at the surface. All bubble studies described in this work refer to stages of the foam fractionation process. Experiments with different systems, mainly surfactant and protein solutions, were performed in order to form foams and finally recover a solution representing the foamed material. As foam consists to a large extent of foam lamella – two adsorption layers with a liquid core – the concentration in a foamate taken from foaming experiments should be enriched in the stabilizing molecules. For determining the concentration of the foamate, again the very sensitive bubble rising velocity profile method was applied, which works for any type of surface active materials. This also includes technical surfactants or protein isolates for which an accurate composition is unknown. N2 - Die Fraktionierung ist ein Trennprozess, bei dem verschiedene Materialien auf Grund ihrer Eigenschaften voneinander getrennt werden. Bei der Sedimentation von Teilchen in einer Flüssigkeit dient deren unterschiedliche Dichte zu ihrer Trennung, da schwere Teilchen schneller auf den Boden des Gefäßes sinken als leichtere. Bei der Schaumfraktionierung als Trennprozess dient zur Trennung verschiedener Moleküle in einer Lösung deren Grenzflächenaktivität, d.h. das unterschiedliche Vermögen der Moleküle, sich an der Oberfläche von Gasblasen anzureichern. Durch das Aufsteigen der Blasen in der Flüssigkeit werden daher die Moleküle mit der höheren Grenzflächenaktivität stärker in der Schaumschicht angereichert als die weniger stark grenzflächenaktiven Komponenten. Ziel der vorliegenden Dissertation ist es, den Prozess der Schaumfraktionierung hinsichtlich der Trennung von grenzflächenaktiven Molekülen zu analysieren. Die Bildung von Blasen und deren anschließendes Aufsteigen in der Lösung kann als wichtigstes Element in diesem Prozess angesehen werden. Es ist bekannt, dass die Geschwindigkeit aufsteigender Luftblasen in Wasser eine charakteristische Größe ist, die durch die Anwesenheit grenzflächenaktiver Stoffe (Tenside, Proteine) stark verringert wird. Die vorliegende Dissertation zeigt für das ausgewählte Protein ß-Lactoglobulin und für verschiedene Lebensmittel-Tenside, dass die Messung der Aufstiegsgeschwindigkeit von Luftblasen zur Beurteilung der Anreicherung dieser Moleküle an der Blasenoberfläche ausgezeichnet geeignet ist. Die experimentellen Ergebnisse bei verschiedenen Lösungsbedingungen, wie Konzentration von Protein bzw. Tensid, pH-Wert und Ionenstärke der Lösung, zeigen deutlich, dass die Anreicherung der Proteinmoleküle wesentlich stärker ist als die von Tensiden. Dies gilt auch für Tenside mit einer sehr hohen Grenzflächenaktivität, was im Wesentlichen durch die extrem feste (nahezu irreversible) Anreicherung der Proteinmoleküle zu erklären ist. Die erzielten experimentellen Ergebnisse dienen jetzt als Grundlage für die Weiterentwicklung der Theorie aufsteigender Blasen, die besonders von der Dynamik der Anreicherung der Moleküle geprägt ist. Neueste Untersuchungen haben gezeigt, dass auf der Grundlage dieser experimentellen Ergebnisse erstmals die Geschwindigkeitskonstanten der Anreicherung (Adsorption und Desorption) unabhängig voneinander ermittelt werden können. KW - adsorption KW - air-water interface KW - protein KW - foam KW - rising bubble KW - Adsorption KW - Wasser/Luft Grenzflächen KW - steigende Blasen KW - Schaum KW - Beta-Lactoglobulin Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94263 ER - TY - THES A1 - Bendre, Abhijit B. T1 - Growth and saturation of dynamo in spiral galaxies via direct simulations T1 - Wachstum und Sättigung des Dynamos in Spiralgalaxien mit direkten Simulationen N2 - We do magnetohydrodynamic (MHD) simulations of local box models of turbulent Interstellar Medium (ISM) and analyse the process of amplification and saturation of mean magnetic fields with methods of mean field dynamo theory. It is shown that the process of saturation of mean fields can be partially described by the prolonged diffusion time scales in presence of the dynamically significant magnetic fields. However, the outward wind also plays an essential role in the saturation in higher SN rate case. Algebraic expressions for the back reaction of the magnetic field onto the turbulent transport coefficients are derived, which allow a complete description of the nonlinear dynamo. We also present the effects of dynamically significant mean fields on the ISM configuration and pressure distribution. We further add the cosmic ray component in the simulations and investigate the kinematic growth of mean fields with a dynamo perspective. N2 - Wir fuehren magnetohydrodynamische (MHD) Simulationen des turbulenten interstellaren Mediums (ISM) in lokalen Boxen durch und analysieren darin den Prozess der Verstaerkung und Saturation der mittleren Magnetfelder mit Methoden der Dynamotheorie mittlerer Felder. Es wird gezeigt, dass der Prozess der Saturation mittlerer Felder teilweise durch eine verlaengerte Diffusionzeit in Gegenwart dynamisch signifikanter Magnetfelder erklaert werden kann. Fuer hoehere Supernovae-Raten spielt auch der nach aussen treibende Wind eine essenzielle Rolle fuer die Saturation. Aus den Simulationen konnten algebraische Formeln fuer die Rueckwirkung des Magnetfeldes auf die turbulenten Transportkoeffizienten abgeleitet werden, die eine vollstaendige Beschreibung des nichtlinearen Dynamos erlauben. Wir praesentieren zudem den Einfluss signifikanter mittlerer Magnetfelder auf die ISM-Konfiguration und Druckverteilung. Wir fuegen der Simulation ausserdem kosmische Strahlung als Komponente hinzu und untersuchen das kinematische Wachstum mittlerer Felder aus einer Dynamo-Perspektive. KW - magnetohydrodynamics KW - ISM: Turbulence KW - spiral galaxies: magnetic fields KW - nonliear dynamo KW - cosmic ray dynamo KW - Magnetohydrodynamik KW - ISM: Turbulenz KW - Spiralgalaxien: Magnetfelder KW - nichtlineare Dynamo KW - kosmische Strahlung Dynamo Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407517 ER - TY - THES A1 - Renans, Agata Maria T1 - Exhaustivity T1 - Exhaustivität BT - on exclusive particles, clefts, and progressive aspect in Ga (Kwa) BT - über exklusive Partikel, Spaltsätze und progressiven Aspekt im Ga (Kwa) N2 - The dissertation proposes an answer to the question of how to model exhaustive inferences and what the meaning of the linguistic material that triggers these inferences is. In particular, it deals with the semantics of exclusive particles, clefts, and progressive aspect in Ga, an under-researched language spoken in Ghana. Based on new data coming from the author’s original fieldwork in Accra, the thesis points to a previously unattested variation in the semantics of exclusives in a cross-linguistic perspective, analyzes the connections between exhaustive interpretation triggered by clefts and the aspectual interpretation of the sentence, and identifies a cross-categorial definite determiner. By that it sheds new light on several exhaustivity-related phenomena in both the nominal and the verbal domain and shows that both domains are closely connected. N2 - Die Dissertation schlägt eine Antwort auf die Frage vor, wie exhaustive Inferenzen modelliert werden können und was die Bedeutung des sprachlichen Materials ist, das diese Inferenzen auslöst. Insbesondere geht es um die Semantik von exklusiven Partikeln, Spaltsätzen und progressivem Aspekt im Ga, einer bisher wenig untersuchten Sprache, die in Ghana gesprochen wird. Basierend auf neuen Daten aus der Feldforschungsarbeit der Autorin verweist die Dissertation auf zuvor nicht attestierte sprachübergreifende Variation in der Semantik exklusiver Partikel, analysiert die Beziehung zwischen exhaustiver Interpretation von Spaltsätzen und Aspektinterpretation und identifiziert einen kategorieübergreifenden definiten Artikel. Die Arbeit wirft somit neues Licht auf mehrere exhaustivitätsbezogene Phänomene sowohl in der nominalen als auch in der verbalen Domäne und zeigt, dass beide Domänen eng miteinander verbunden sind. KW - formal semantics KW - fieldwork KW - exclusive particles KW - clefts KW - progressive aspect KW - defintie determiner KW - formale Semantik KW - Feldforschung KW - exklusive Partikel KW - Spaltssatz KW - progressiver Aspekt KW - Ga (Kwa) Sprache KW - Ga (Kwa) language Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-89501 ER - TY - THES A1 - Markova, Mariya T1 - Metabolic and molecular effects of two different isocaloric high protein diets in subjects with type 2 diabetes T1 - Metabolische und molekulare Effekte zweier isokalorischer Hochproteindiäten unterschiedlicher Herkunft bei Probanden mit Typ-2-Diabetes N2 - Ernährung stellt ein wichtiger Faktor in der Prävention und Therapie von Typ-2-Diabetes dar. Frühere Studien haben gezeigt, dass Hochproteindiäten sowohl positive als auch negative Effekte auf den Metabolismus hervorrufen. Jedoch ist unklar, ob die Herkunft des Proteins dabei eine Rolle spielt. In der LeguAN-Studie wurden die Effekte von zwei unterschiedlichen Hochproteindiäten, entweder tierischer oder pflanzlicher Herkunft, bei Typ-2-Diabetes Patienten untersucht. Beide Diäten enthielten 30 EN% Proteine, 40 EN% Kohlenhydrate und 30 EN% Fette. Der Anteil an Ballaststoffen, der glykämischer Index und die Fettkomposition waren in beiden Diäten ähnlich. Die Proteinaufnahme war höher, während die Fettaufnahme niedriger im Vergleich zu den früheren Ernährungsgewohnheiten der Probanden war. Insgesamt führten beide Diätinterventionen zu einer Verbesserung der glykämischen Kontrolle, der Insulinsensitivität, des Leberfettgehalts und kardiovaskulärer Risikomarkern ohne wesentliche Unterschiede zwischen den Proteintypen. In beiden Interventionsgruppen wurden die nüchternen Glukosewerte zusammen mit Indizes von Insulinresistenz in einem unterschiedlichen Ausmaß, jedoch ohne signifikante Unterschiede zwischen beiden Diäten verbessert. Die Reduktion von HbA1c war ausgeprägter in der pflanzlichen Gruppe, während sich die Insulinsensitivität mehr in der tierischen Gruppe erhöhte. Die Hochproteindiäten hatten nur einen geringfügigen Einfluss auf den postprandialen Metabolismus. Dies zeigte sich durch eine leichte Verbesserung der Indizes für Insulinsekretion, -sensitivität und –degradation sowie der Werte der freien Fettsäuren. Mit Ausnahme des Einflusses auf die GIP-Sekretion riefen die tierische und die pflanzliche Testmahlzeit ähnliche metabolische und hormonelle Antworten, trotz unterschiedlicher Aminosäurenzusammensetzung. Die tierische Hochproteindiät führte zu einer selektiven Zunahme der fettfreien Masse und Abnahme der Fettmasse, was nicht signifikant unterschiedlich von der pflanzlichen Gruppe war. Darüber hinaus reduzierten die Hochproteindiäten den Leberfettgehalt um durchschnittlich 42%. Die Reduktion des Leberfettgehaltes ging mit einer Verminderung der Lipogenese, der Lipolyse und des freien Fettsäure Flux einher. Beide Interventionen induzierten einen moderaten Abfall von Leberenzymen im Blut. Die Reduktion des Leberfetts war mit einer verbesserten Glukosehomöostase und Insulinsensitivität assoziiert. Blutlipide sanken in allen Probanden, was eventuell auf die niedrigere Fettaufnahme zurückzuführen war. Weiterhin waren die Spiegel an Harnsäure und Inflammationsmarkern erniedrigt unabhängig von der Proteinquelle. Die Werte des systolischen und diastolischen Blutdrucks sanken nur in der pflanzlichen Gruppe, was auf eine potentielle Rolle von Arginin hinweist. Es wurden keine Hinweise auf eine beeinträchtigte Nierenfunktion durch die 6-wöchige Hochproteindiäten beobachtet unabhängig von der Herkunft der Proteine. Serumkreatinin war nur in der pflanzlichen Gruppe signifikant reduziert, was eventuell an dem geringen Kreatingehalt der pflanzlichen Nahrungsmittel liegen könnte. Jedoch sind längere Studien nötig, um die Sicherheit von Hochproteindiäten vollkommen aufklären zu können. Des Weiteren verursachte keine der Diäten eine Induktion des mTOR Signalwegs weder im Fettgewebe noch in Blutzellen. Die Verbesserung der Ganzkörper-Insulinsensitivität deutete auch auf keine Aktivierung von mTOR und keine Verschlechterung der Insulinsensitivität im Skeletmuskel hin. Ein nennenswerter Befund war die erhebliche Reduktion von FGF21, einem wichtigen Regulator metabolischer Prozesse, um ungefähr 50% bei beiden Proteinarten. Ob hepatischer ER-Stress, Ammoniumniveau oder die Makronährstoffpräferenz hinter dem paradoxen Ergebnis stehen, sollte weiter im Detail untersucht werden. Entgegen der anfänglichen Erwartung und der bisherigen Studienlage zeigte die pflanzlich-betonte Hochproteindiät keine klaren Vorteile gegenüber der tierischen Diät. Der ausgeprägte günstige Effekt des tierischen Proteins auf Insulinhomöostase trotz des hohen BCAA-Gehaltes war sicherlich unerwartet und deutet darauf hin, dass bei dem längeren Verzehr andere komplexe metabolische Adaptationen stattfinden. Einen weiteren Aspekt stellt der niedrigere Fettverzehr dar, der eventuell auch zu den Verbesserungen in beiden Gruppen beigetragen hat. Zusammenfassend lässt sich sagen, dass eine 6-wöchige Diät mit 30 EN% Proteinen (entweder pflanzlich oder tierisch), 40 EN% Kohlenhydraten und 30 EN% Fetten mit weniger gesättigten Fetten zu metabolischen Verbesserungen bei Typ-2-Diabetes Patienten unabhängig von Proteinherkunft führt. N2 - Dietary approaches contribute to the prevention and treatment of type 2 diabetes. High protein diets were shown to exert beneficial as well as adverse effects on metabolism. However, it is unclear whether the protein origin plays a role in these effects. The LeguAN study investigated in detail the effects of two high protein diets, either from plant or animal origin, in type 2 diabetic patients. Both diets contained 30 EN% protein, 40 EN% carbohydrates, and 30 EN% fat. Fiber content, glycemic index, and composition of dietary fats were similar in both diets. In comparison to previous dietary habits, the fat content was exchanged for protein, while the carbohydrate intake was not modified. Overall, both high protein diets led to improvements of glycemic control, insulin sensitivity, liver fat, and cardiovascular risk markers without remarkable differences between the protein types. Fasting glucose together with indices of insulin resistance were ameliorated by both interventions to varying extents but without significant differences between protein types. The decline of HbA1c was more pronounced in the plant protein group, whereby the improvement of insulin sensitivity in the animal protein group. The high protein intake had only slight influence on postprandial metabolism seen for free fatty acids and indices of insulin secretion, sensitivity and degradation. Except for GIP release, ingestion of animal and plant meals did not provoke differential metabolic and hormonal responses despite diverse circulating amino acid levels. The animal protein diets led to a selective increase of fat-free mass and decrease of total fat mass, which was not significantly different from the plant protein diet. Moreover, the high protein diets potently decreased liver fat content by 42% on average which was linked to significantly diminished lipogenesis, free fatty acids flux and lipolysis in adipose tissue. Moderate decline of circulating liver enzymes was induced by both interventions. The liver fat reduction was associated with improved glucose homeostasis and insulin sensitivity which underlines the protective effect of the diets. Blood lipid profile improved in all subjects and was probably related to the lower fat intake. Reductions in uric acid and markers of inflammation further argued for metabolic benefits of both high protein diets. Systolic and diastolic blood pressure declined only in the PP group pointing a possible role of arginine. Kidney function was not altered by high protein consumption over 6 weeks. The rapid decrease of serum creatinine in the PP group was noteworthy and should be further investigated. Protein type did not seem to play a role but long-term studies are warranted to fully elucidate safety of high protein regimen. Varying the source of dietary proteins did not affect the mTOR pathway in adipose tissue and blood cells under neither acute nor chronic settings. Enhancement of whole-body insulin sensitivity suggested also no alteration of mTOR and no impairment of insulin sensitivity in skeletal muscle. A remarkable outcome was the extensive reduction of FGF21, critical regulator of metabolic processes, by approximately 50% independently of protein type. Whether hepatic ER-stress, ammonia flux or rather macronutrient preferences is behind this paradoxical finding remains to be investigated in detail. Unlike initial expectations and previous reports plant protein based diet had no clear advantage over animal proteins. The pronounced beneficial effect of animal protein on insulin homeostasis despite high BCAA and methionine intake was certainly unexpected assuming more complex metabolic adaptations occurring upon prolonged consumption. In addition, the reduced fat intake may have also contributed to the overall improvements in both groups. Taking into account the above observed study results, a short-term diet containing 30 EN% protein (either from plant or animal origin), 40 EN% carbohydrates, and 30 EN% fat with lower SFA amount leads to metabolic improvements in diabetic patients, regardless of protein source. KW - type 2 diabetes KW - nutrition KW - protein KW - Typ-2-Diabetes KW - Ernährung KW - high protein diet Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394310 ER - TY - THES A1 - Breitling, Frank T1 - Propagation of energetic electrons in the solar corona observed with LOFAR T1 - Ausbreitung energiereicher Elektronen in der Sonnenkorona beobachtet mit LOFAR N2 - This work reports about new high-resolution imaging and spectroscopic observations of solar type III radio bursts at low radio frequencies in the range from 30 to 80 MHz. Solar type III radio bursts are understood as result of the beam-plasma interaction of electron beams in the corona. The Sun provides a unique opportunity to study these plasma processes of an active star. Its activity appears in eruptive events like flares, coronal mass ejections and radio bursts which are all accompanied by enhanced radio emission. Therefore solar radio emission carries important information about plasma processes associated with the Sun’s activity. Moreover, the Sun’s atmosphere is a unique plasma laboratory with plasma processes under conditions not found in terrestrial laboratories. Because of the Sun’s proximity to Earth, it can be studied in greater detail than any other star but new knowledge about the Sun can be transfer to them. This “solar stellar connection” is important for the understanding of processes on other stars. The novel radio interferometer LOFAR provides imaging and spectroscopic capabilities to study these processes at low frequencies. Here it was used for solar observations. LOFAR, the characteristics of its solar data and the processing and analysis of the latter with the Solar Imaging Pipeline and Solar Data Center are described. The Solar Imaging Pipeline is the central software that allows using LOFAR for solar observations. So its development was necessary for the analysis of solar LOFAR data and realized here. Moreover a new density model with heat conduction and Alfvén waves was developed that provides the distance of radio bursts to the Sun from dynamic radio spectra. Its application to the dynamic spectrum of a type III burst observed on March 16, 2016 by LOFAR shows a nonuniform radial propagation velocity of the radio emission. The analysis of an imaging observation of type III bursts on June 23, 2012 resolves a burst as bright, compact region localized in the corona propagating in radial direction along magnetic field lines with an average velocity of 0.23c. A nonuniform propagation velocity is revealed. A new beam model is presented that explains the nonuniform motion of the radio source as a propagation effect of an electron ensemble with a spread velocity distribution and rules out a monoenergetic electron distribution. The coronal electron number density is derived in the region from 1.5 to 2.5 R☉ and fitted with the newly developed density model. It determines the plasma density for the interplanetary space between Sun and Earth. The values correspond to a 1.25- and 5-fold Newkirk model for harmonic and fundamental emission, respectively. In comparison to data from other radio instruments the LOFAR data shows a high sensitivity and resolution in space, time and frequency. The new results from LOFAR’s high resolution imaging spectroscopy are consistent with current theories of solar type III radio bursts and demonstrate its capability to track fast moving radio sources in the corona. LOFAR solar data is found to be a valuable source for solar radio physics and opens a new window for studying plasma processes associated with highly energetic electrons in the solar corona. N2 - Diese Arbeit befasst sich mit neuen hochaufgelösten abbildenden und spektroskopischen Beobachtungen von solaren Typ III Radiobursts bei niedrigen Frequenzen im Bereich von 30 bis 80 MHz. Solare Typ III Radiobursts werden auf die Beam-Plasmawechselwirkung von Elektronenstrahlen in der Korona zurückgeführt. Die Sonne stellt eine einzigartige Möglichkeit dar, diese Plasmaprozesse eines aktiven Sterns zu untersuchen. Die Aktivität zeigt sich in eruptiven Ereignissen wie Flares, koronalen Massenauswürfen und Radiobursts, die jeweils von erhöhter Radiostrahlung begleitet werden. Daher trägt solare Radioemission wichtige Informationen über Plasmaprozesse, die mit Sonnenaktivität in Verbindung stehen. Darüber hinaus ist die Sonne auch ein einzigartiges Plasmalabor mit Plasmaprozessen unter Bedingungen die man nicht in irdischen Laboren findet. Aufgrund ihres vergleichsweise geringen Abstands kann man die Sonne wesentlich genauer beobachten als andere Sterne, aber neue Erkenntnisse von ihr auf andere Sterne übertragen. Diese “Solare-Stellare Verbindung” ist wichtig um Prozesse auf anderen Sternen zu verstehen. Das neue Radiointerferometer LOFAR bietet abbildende und spektroskopische Möglichkeiten, um diese Prozesse bei niedrigen Frequenzen zu untersuchen und wurde hier für Sonnenbeobachtungen genutzt. LOFAR, die Besonderheiten seiner Sonnendaten sowie das Verarbeiten und Analysieren dieser Daten mit der Solar Imaging Pipeline und dem Solar Data Center werden beschrieben. Die Solar Imaging Pipeline ist die zentrale Software, die die Nutzung von LOFAR für Sonnenbeobachtungen ermöglicht. Daher war deren Entwicklung für die Analyse von Sonnendaten notwendig und ist im Rahmen dieser Arbeit erfolgt. Außerdem wurde ein neues Dichtemodell mit Wärmeleitung und Alfvén-Wellen entwickelt, welches die Bestimmung der Entfernung von Radiobursts zur Sonne mittels dynamischer Spektren ermöglicht. Die Anwendung auf dynamische Spektren eines LOFAR Typ III Bursts am 16. März 2016 zeigt eine radiale, ungleichförmige Ausbreitungsgeschwindigkeit der Radioemission. Die Analyse einer abbildenden Beobachtung von Typ III Bursts am 23. Juni 2012 zeigt den Burst als helle, kompakte Region in der Korona die sich in radiale Richtung entlang magnetischer Feldlinien mit einer durchschnittlichen Geschwindigkeit von 0.23c (c, Lichtgeschwindigkeit) bewegt. Die Geschwindigkeit ist nicht gleichförmig. Ein neues Beammodell wird vorgestellt, dass diese ungleichförmige Geschwindigkeit als Ausbreitungseffekt eines Elektronenensemble mit einer ausgedehnten Geschwindigkeitsverteilung erklärt und eine monoenergetische Elektronenverteilung ausschließt. Die koronale Elektronenzahldichte wird in der Region von 1.5 bis 2.5 R☉ ermittelt und ein Fit mit dem neuen Dichtemodell durchgeführt. Dadurch ist die Plasmadichte im ganzen interplanetaren Raum zwischen Sonne und Erde bestimmt. Die Werte entsprechen jeweils einem 1.25- und 5-fachen Newkirk Modell im Fall von fundamentaler und harmonischer Emission. Im Vergleich zu Daten von anderen Radioinstrumenten haben LOFAR-Daten eine hohe Empfindlichkeit und Auflösung in Raum, Zeit und Frequenz. Die neuen Ergebnisse von LOFARs hochauflösender, abbildender Spektroskopie stimmen mit derzeitigen Theorien von solaren Typ III Radiobursts überein und zeigen die Möglichkeit, schnell bewegliche Radioquellen in der Korona zu verfolgen. LOFAR Sonnendaten wurden als wertvolle Quelle für solare Radiophysik erkannt und öffnen eine neues Fenster zur Untersuchung von Plasmaprozessen hochenergetischer Elektronen in der Korona. KW - sun KW - type III KW - radio burst KW - LOFAR KW - plasma physics KW - Sonne KW - Typ III KW - Radioburst KW - Plasmaphysik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396893 ER - TY - THES A1 - Krohmer, Anton T1 - Structures & algorithms in hyperbolic random graphs T1 - Strukturen & Algorithmen in Hyperbolischen Zufallsgraphen N2 - Complex networks are ubiquitous in nature and society. They appear in vastly different domains, for instance as social networks, biological interactions or communication networks. Yet in spite of their different origins, these networks share many structural characteristics. For instance, their degree distribution typically follows a power law. This means that the fraction of vertices of degree k is proportional to k^(−β) for some constant β; making these networks highly inhomogeneous. Furthermore, they also typically have high clustering, meaning that links between two nodes are more likely to appear if they have a neighbor in common. To mathematically study the behavior of such networks, they are often modeled as random graphs. Many of the popular models like inhomogeneous random graphs or Preferential Attachment excel at producing a power law degree distribution. Clustering, on the other hand, is in these models either not present or artificially enforced. Hyperbolic random graphs bridge this gap by assuming an underlying geometry to the graph: Each vertex is assigned coordinates in the hyperbolic plane, and two vertices are connected if they are nearby. Clustering then emerges as a natural consequence: Two nodes joined by an edge are close by and therefore have many neighbors in common. On the other hand, the exponential expansion of space in the hyperbolic plane naturally produces a power law degree sequence. Due to the hyperbolic geometry, however, rigorous mathematical treatment of this model can quickly become mathematically challenging. In this thesis, we improve upon the understanding of hyperbolic random graphs by studying its structural and algorithmical properties. Our main contribution is threefold. First, we analyze the emergence of cliques in this model. We find that whenever the power law exponent β is 2 < β < 3, there exists a clique of polynomial size in n. On the other hand, for β >= 3, the size of the largest clique is logarithmic; which severely contrasts previous models with a constant size clique in this case. We also provide efficient algorithms for finding cliques if the hyperbolic node coordinates are known. Second, we analyze the diameter, i. e., the longest shortest path in the graph. We find that it is of order O(polylog(n)) if 2 < β < 3 and O(logn) if β > 3. To complement these findings, we also show that the diameter is of order at least Ω(logn). Third, we provide an algorithm for embedding a real-world graph into the hyperbolic plane using only its graph structure. To ensure good quality of the embedding, we perform extensive computational experiments on generated hyperbolic random graphs. Further, as a proof of concept, we embed the Amazon product recommendation network and observe that products from the same category are mapped close together. N2 - Komplexe Netzwerke sind in Natur und Gesellschaft allgegenwärtig. Sie tauchen in unterschiedlichsten Domänen auf, wie zum Beispiel als soziale Netzwerke, biologische Interaktionen oder Kommunikationsnetzwerke. Trotz ihrer verschiedenen Ursprünge haben diese Netzwerke jedoch viele strukturelle Gemeinsamkeiten. So sind die Grade der Knoten typischerweise Pareto-verteilt. Das heißt, der Anteil an Knoten mit k Nachbarn ist proportional zu k-ß , wobei ß eine beliebige Konstante ist. Weiterhin haben solche Netzwerke einen hohen Clusterkoezienten, was bedeutet, dass zwei benachbarte Knoten viele gemeinsame Nachbarn haben. Um das Verhalten solcher Netzwerke mathematisch zu studieren, werden sie häug als Zufallsgraphen modelliert. Klassische Modelle wie inhomogene Zufallsgraphen oder das Preferential-Attachment-Modell erzeugen Graphen mit Pareto-verteilten Knotengraden. Cluster sind darin jedoch häug nicht vorhanden, oder werden durch das Hinzufügen unnatürlicher Strukturen künstlich erzeugt. Hyperbolische Zufallsgraphen lösen dieses Problem, indem sie dem Graphen eine Geometrie zugrunde legen. Jeder Knoten erhält hyperbolische Koordinaten, und zwei Knoten sind verbunden, wenn ihre hyperbolische Distanz klein ist. Cluster entstehen dann natürlich, da benachbarte Knoten samt ihrer Nachbarschaften in der Geometrie nah beieinander liegen, und die Pareto-Verteilung der Knotengrade folgt aus der expo- nentiellen Expansion des hyperbolischen Raumes. Durch die hyperbolische Geometrie wird jedoch auch die mathematische Analyse des Modells schnell kompliziert. In dieser Arbeit studieren wir die strukturellen und algorithmischen Eigenschaften von hyperbolischen Zufallsgraphen. Wir beginnen mit der Analyse von Cliquen. Wir beobachten, dass wenn der Pareto-Exponent ß zwischen 2 und 3 liegt, es Cliquen von polynomieller Größe in n gibt. Mit ß > 3 ist die größte Clique noch logarithmisch groß, was früheren Modellen mit konstanter Cliquengröße stark widerspricht. Wir geben auch einen ezienten Algorithmus zur Cliquenndung an, wenn die Koordinaten der Knoten bekannt sind. Als Zweites analysieren wir den Durchmesser, also den längsten kürzesten Pfad in hyperbolischen Zufallsgraphen. Wir beweisen, dass er O (log 3-ß n) lang ist, wenn 2 < ß < 3, und O (log n) falls ß > 3. Komplementär dazu zeigen wir, dass der Durchmesser mindestens Q(log n) beträgt. Als Drittes entwickeln wir einen Algorithmus, der reale Netzwerke in die hyperbolische Ebene einbettet. Um eine gute Qualität zu gewährleisten, evaluieren wir den Algorithmus auf über 6000 zufällig generierten hyperbolischen Graphen. Weiterhin betten wir exemplarisch den Produktempfehlungsgraphen von Amazon ein und beobachten, dass Produkte aus gleichen Kategorien in der Einbettung nah beieinander liegen. KW - random graphs KW - power law KW - massive networks KW - hyperbolic random graphs KW - Zufallsgraphen KW - Pareto-Verteilung KW - gigantische Netzwerke KW - hyperbolische Zufallsgraphen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-395974 ER - TY - THES A1 - Janetschek, Hannah T1 - Water development programs in India T1 - Entwicklungszusammenarbeit im Wassersektor Indiens BT - governance processes and effectiveness BT - Governanceprozesse und Effektivität N2 - In the past decades, development cooperation (DC) led by conventional bi- and multilateral donors has been joined by a large number of small, private or public-private donors. This pluralism of actors raises questions as to whether or not these new donors are able to implement projects more or less effectively than their conventional counterparts. In contrast to their predecessors, the new donors have committed themselves to be more pragmatic, innovative and flexible in their development cooperation measures. However, they are also criticized for weakening the function of local civil society and have the reputation of being an intransparent and often controversial alternative to public services. With additional financial resources and their new approach to development, the new donors have been described in the literature as playing a controversial role in transforming development cooperation. This dissertation compares the effectiveness of initiatives by new and conventional donors with regard to the provision of public goods and services to the poor in the water and sanitation sector in India. India is an emerging country but it is experiencing high poverty rates and poor water supply in predominantly rural areas. It lends itself for analyzing this research theme as it is currently being confronted by a large number of actors and approaches that aim to find solutions for these challenges . In the theoretical framework of this dissertation, four governance configurations are derived from the interaction of varying actor types with regard to hierarchical and non-hierarchical steering of their interactions. These four governance configurations differ in decision-making responsibilities, accountability and delegation of tasks or direction of information flow. The assumption on actor relationships and steering is supplemented by possible alternative explanations in the empirical investigation, such as resource availability, the inheritance of structures and institutions from previous projects in a project context, gaining acceptance through beneficiaries (local legitimacy) as a door opener, and asymmetries of power in the project context. Case study evidence from seven projects reveals that the actors' relationship is important for successful project delivery. Additionally, the results show that there is a systematic difference between conventional and new donors. Projects led by conventional donors were consistently more successful, due to an actor relationship that placed the responsibility in the hands of the recipient actors and benefited from the trust and reputation of a long-term cooperation. The trust and reputation of conventional donors always went along with a back-up from federal level and trickled down as reputation also at local level implementation. Furthermore, charismatic leaders, as well as the acquired structures and institutions of predecessor projects, also proved to be a positive influencing factor for successful project implementation. Despite the mixed results of the seven case studies, central recommendations for action can be derived for the various actors involved in development cooperation. For example, new donors could fulfill a supplementary function with conventional donors by developing innovative project approaches through pilot studies and then implementing them as a supplement to the projects of conventional donors on the ground. In return, conventional donors would have to make room the new donors by integrating their approaches into already programs in order to promote donor harmonization. It is also important to identify and occupy niches for activities and to promote harmonization among donors on state and federal sides. The empirical results demonstrate the need for a harmonization strategy of different donor types in order to prevent duplication, over-experimentation and the failure of development programs. A transformation to successful and sustainable development cooperation can only be achieved through more coordination processes and national self-responsibility. N2 - In der Entwicklungszusammenarbeit (EZ) wurden in den vergangenen Jahrzehnten herkömmliche bi- und multilaterale EZ-Geber durch eine Vielzahl kleinerer, privater oder privat-öffentlicher Geber ergänzt. Es stellt sich nun die Frage nach der Effektivität dieser neuen Geber im Vergleich zu den bisherigen. Die neuen Geber setzen ebenfalls EZ-Maßnahmen um und haben sich einem Mehr an Pragmatismus, Innovation und Flexibilität verschrieben. Sie stehen jedoch auch in der Kritik, die Funktion der lokalen Zivilgesellschaft zu schwächen und in fragilen Kontexten eine intransparente und oft umstrittene Alternative zur staatlichen Daseinsvorsorge darzustellen. Das transformative Potential dieser neuen Geber durch zusätzliche EZ-Gelder und für bessere Entwicklung ist in der Literatur umstritten. In der vorliegenden Dissertation erfolgt ein Vergleich der neuen und herkömmlichen Geber hinsichtlich ihrer Effektivität in der Erbringung von öffentlichen Gütern und Dienstleistungen im Wasser- und Abwasserbereich in Indien. Indien bietet sich als Länderkontext für die Untersuchung dieser Forschungsfrage insbesondere an, da es sich als Schwellenland mit gegenwärtig immer noch sehr hoher Armut und schlechter Wasserversorgung in vorwiegend ländlichen Gebieten einer Vielzahl von Akteuren und Ansätzen zur Lösung dieser Herausforderungen gegenüber sieht. Im theoretischen Rahmen der Dissertation werden aus dem Zusammenspiel von Akteurstypen und hierarchischer und nicht-hierarchischer Steuerung, vier Governance-Typen entwickelt. Diese vier Steuerungsmodi unterscheiden sich hinsichtlich der Entscheidungsfindung, Rechenschaftslegung und Delegierung von Aufgaben bzw. Richtung des Informationsflusses. Diese Governance-Typen werden in der empirischen Untersuchung um mögliche alternative Erklärungen ergänzt wie Ressourcenverfügbarkeit, Bedeutung von vorhergehenden Projekten in einem Projektkontext, lokale Legitimität als Türöffner und Machtasymmetrien im Projektkontext. Die empirische Analyse von sieben Fällen macht deutlich, dass die Akteursbeziehung eine notwendige Bedingung für erfolgreiche und eigenständige Projektumsetzung in der EZ ist. Darüber hinaus belegen die Ergebnisse, dass es einen systematischen Unterschied zwischen herkömmlichen und neuen Gebern gibt. Die Projekte der herkömmlichen Geber waren durchweg erfolgreicher und wiesen alle eine Akteursinteraktion auf, die die Verantwortung in die Hände des EZ-Empfängers legte und darüber hinaus von Vertrauen und Reputation einer langjährigen Zusammenarbeit profitierten. Der Erfolg der herkömmlichen Geber basierte vorwiegend auf der Rückendeckung der lokalen Umsetzung durch die nationale Ebene. Neben charismatischen Führungsfiguren stellten sich auch übernommene Strukturen und Akteure von Vorgängerprojekten als positive Einflussfaktoren für eine erfolgreiche Projektumsetzung heraus. Aus den Erfolgen und Misserfolgen der sieben hier untersuchten Fälle lassen sich zentrale Handlungsempfehlungen für die unterschiedlichen Akteure der EZ-Umsetzung ableiten. So könnten neue Geber eine Ergänzungsfunktion zu herkömmlichen Gebern erfüllen, indem sie durch Pilotstudien innovative Projektansätze entwickeln und diese dann als Ergänzung zu den Projekten herkömmlicher Geber vor Ort umsetzen. Herkömmliche Geber müssten im Gegenzug in ihren Programmen Raum für die Integration der Ansätze von neuen Gebern schaffen, um so eine Geberharmonisierung zu fördern. Auf staatlicher und bundesstaatlicher Nehmerseite gilt es ebenfalls, Nischen für Aktivitäten zu identifizieren und zu besetzen und die Harmonisierung unter den Gebern zu fördern. Die empirischen Ergebnisse belegen die Notwendigkeit einer Harmonisierungsstrategie von unterschiedlichen Gebertypen, um vor Ort Duplikation, Experimente und Misserfolge von EZ-Programmen zu verhindern. Eine Transformation zu einer erfolgreichen und nachhaltigen EZ kann nur durch mehr Koordinationsprozesse und nationale Eigenverantwortung erreicht werden. KW - governance KW - aid effectiveness KW - water development aid KW - development aid India KW - donor harmonization KW - actor interplay KW - new donors KW - conventional donors KW - donor reputation KW - governance KW - Wirksamkeit der Entwicklungszusammenarbeit KW - Wasserentwicklungszusammenarbeit KW - Entwicklungszusammenarbeit mit Indien KW - Geberharmonisierung KW - Akteursinteraktion KW - neue Geber KW - herkömmliche Geber KW - Reputation der Geber Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401337 ER - TY - THES A1 - Fournier, Yori T1 - Dynamics of the rise of magnetic flux tubes in stellar interiors BT - a numerical study of compressible non-axisymmetric flux tubes N2 - In sonnenähnlichen Sternen erhält ein Dynamo-Mechanismus die Magnetfelder. Der Babcock-Leighton-Dynamo beruht auf einem solchen Mechanismus und erfordert insbesondere die Existenz von magnetischen Flussröhren. Man nimmt an, dass magnetische Flussröhren am Boden der Konvetionszone entstehen und durch Auftrieb bis zur Oberfläche steigen. Es wird ein spezielles Dynamomodell vorgeschlagen, in dem der Verzögerungseffekt durch das Aufsteigen der Flussröhren berücksichtigt wird. Die vorliegende Dissertation beschäftigt sich mit der Anwendbarkeit des Babcock-Leighton-Dynamos auf andere Sterne. Zu diesem Zweck versuchen wir, die Aufstiegszeiten von magnetischen Flussröhren mit Hilfe von kompressiblen MHD-Simulationen in spärischen Kugelschalen mit Dichteschichtung zu bestimmen und einzugrenzen. Derartige Simulationen sind allerdings nur in einem unrealistischen Parameterbereich möglich. Deshalb ist eine Skalierungsrelation nötig, die die Ergebnisse auf realistische physikalische Regimes überträgt. Wir erweitern frühere Arbeiten zu Skalierungsrelationen in 2D und leiten ein allgemeines Skalierungsgesetz ab, das für 2D- und 3D-Flussröhren gültig ist. In einem umfangreichen Satz von numerischen Simulationen zeigen wir, dass die abgeleitete Skalierungsrelation auch im vollständig nichtlinearen Fall gilt. Wir haben damit ein Gesetz für die Aufstiegszeit von magnetischen Flussröhren gefunden, dass in jedem sonnenähnlichen Stern Gültigkeit hat. Schließlich implementieren wir dieses Gesetz in einem Dynamomodell mit Verzögerungsterm. Die Simulationen eines solchen verzögerten Flussröhren/Babcock-Leighton-Dynamos auf der Basis der Meanfield-Formulierung führten auf ein neues Dynamo-Regime, das nur bei Anwesenheit der Verzögerung existiert. Die erforderlichen Verzögerungen sind von der Gröÿenordnung der Zykluslänge, die resultierenden Magnetfelder sind schwächer als die Äquipartitions-Feldstärke. Dieses neue Regime zeigt, dass auch bei sehr langen Aufstiegszeiten der Flussröhren/Babcock-Leighton-Dynamo noch nichtzerfallende Lösungen liefern und daher auf ein breites Spektrum von Sternen anwendbar sein kann. N2 - Solar-like stars maintain their magnetic fields thanks to a dynamo mechanism. The Babcock-Leighton dynamo is one possible dynamo that has the particularity to require magnetic flux tubes. Magnetic flux tubes are assumed to form at the bottom of the convective zone and rise buoyantly to the surface. A delayed dynamo model has been suggested, where the delay accounts for the rise time of the magnetic flux tubes; a time, that has been ignored by former studies. The present thesis aims to study the applicability of the flux tube/Babcock-Leighton dynamo to other stars. To do so, we attempt to constrain the rise time of magnetic flux tubes thanks to the first fully compressible MHD simulations of rising magnetic flux tubes in stratified rotating spherical shells. Such simulations are limited to an unrealistic parameter space, therefore, a scaling relation is required to scale the results to realistic physical regimes. We extended earlier works on 2D scaling relations and derived a general scaling law valid for both 2D and 3D. We then carried out two large series of numerical experiments and verified that the scaling law we have derived indeed applies to the fully non-linear case. It allowed us to extract a constraint for the rise time of magnetic flux tubes that is valid for any solar-like star. We finally introduced this constraint to a delayed dynamo model. By carrying out simulations of a mean-field, delayed, flux tube/Babcock-Leighton dynamo, we were able to identify a new dynamo regime resulting from the delay. This regime requires delays about an entire cycle and exhibits subequipartition magnetic activity. Revealing this new regime shows that even for long delays the flux tube/Babcock-Leighton dynamo can still deliver non-decaying solutions and remains a good candidate for a wide range of solar-like stars. KW - astrophysics KW - stellar physics KW - magnetohydrodynamics (MHD) KW - numerical experiments KW - magnetic flux tubes KW - dynamo theory Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-394533 ER - TY - THES A1 - Käthner, Jana T1 - Interaction of spatial variability characterized by soil electrical conductivity and plant water status related to generative growth of fruit trees T1 - Interaktion der räumlichen Variabilität der scheinbaren elektrischen Leitfähigkeit des Bodens und des Pflanzenwasserzustandes auf das generative Wachstum von Obstbäumen N2 - Precision horticulture beschreibt ein neues Bewirtschaftungskonzept im Gartenbau, bei dem teilflächenspezifisch oder an den Einzelbaum angepasste Maßnahmen eine ressourcenschonende, intensitve Produktion ermöglichen. Die Datengrundlage wird aus räumlich aufgelösten Messungen aus der Produktionsanlage gewonnen, wobei sowohl kurzfristige Faktoren wie der effektive Pflanzenwasserzustand als auch langfristige Faktoren wie die Bodenvariabilität zur Informationsgewinnung genutzt werden können. Die vorliegende Arbeit umfasst eine Untersuchung der scheinbaren elektrischen Leitfähigkeit des Bodens (ECa), des Pflanzenwasserzustandes und der Fruchtqualität (zum Beispiel: Fruchtgröße) bei Prunus domestica L. (Pflaume) und Citrus x aurantium, Syn. Citrus paradisi (Grapefruit). Zielsetzungen der vorliegenden Arbeit waren (i) die Charakterisierung der 3D-Verteilung der scheinbaren elektrischen Leitfähigkeit des Bodens und Variabilität des Pflanzenwasserzustandes; (ii) die Untersuchung der Interaktion zwischen ECa, kumulativer Wassernutzungseffizienz (WUEc) und des crop water stress index (CWSI) bezogen auf die Fruchtqualität sowie (iii) eine Möglichkeit zur Einteilung von einzelnen Bäumen hinsichtlich der Bewässerung. Dazu fanden die Hauptuntersuchungen in der Pflaumenanlage statt. Diese Obstanlage befindet sich in Hanglage (3°) auf pleistozänen und postpleistozänen Substraten in semi-humiden Klima (Potsdam, Deutschland) und umfasst eine Fläche von 0,37 ha mit 156 Bäumen der Kultursorte ˈTophit Plusˈ auf der Unterlage Wavit. Die Anlage wurde 2009 mit ein und zwei-jährigen Bäumen in einem Pflanzabstand von 4 m entlang der Bewässerung und 5 m zwischen den Reihen angelegt. Dreimal pro Woche wurden die Bäume mit einer 50 cm über dem Boden installierten Tröpfchenbewässerung mit 1,6 l pro Baum bewässert. Mit Hilfe geoelektrischer Messungen wurde die scheinbare elektrische Leitfähigkeit des Oberbodens (0,25 m) mit einem Elektrodenabstand von 0,5 m (4-point light hp) an jedem Baum gemessen. Dadurch wurde die Anlage hinsichtlich ECa räumlich charakterisiert. Zusätzlich erfolgten Tomographiemessungen zur 3D-Charakterisierung der ECa und punktuell die Beprobung von Bohrlochprofilen bis 1 m Tiefe. Die vegetativen, generativen und Fruchtqualitätsdaten wurden an jedem Baum erhoben. Der momentane Pflanzenwasserzustand wurde mit der etablierten Scholander-Methode zur Wasserpotentialanalyse (Scholander Bombe) punktuell und mit Thermalaufnahmen flächendeckend bestimmt. Die Thermalaufnahmen erfolgten mit einer Infrarot-Kamera (ThermaCam SC 500), die auf einem Traktor in 3,3 m Höhe über dem Boden montiert war. Die Thermalaufnahmen (320 x 240 Pixel) der Kronenoberfläche wurden mit einem Öffnungswinkel von 45° und einer geometrischen Auflösung von 6,41 mm x 8,54 mm aufgenommen. Mit Hilfe der Kronentemperatur aus den Thermalbildern und den Temperaturen eines nassen und trockenen Referenzblattes wurde der CWSI berechnet. Es wurde die Anpassung des CWSI für die Messung in semi-humidem Klima erarbeitet, wobei die Erhebung der Referenztemperaturen automatisiert aus den Thermalbildern erfolgte. Die Boniturdaten wurden mit Hilfe eines Varianz-Stabilisierungsverfahrens in eine Normalverteilung transformiert. Die statistischen Analysen sowie die automatisierte Auswertungsroutine erfolgten mit eigenen Skripten in MATLAB® (R2010b sowie R2016a) und einem freien Programm (spatialtoolbox). Die Hot-spot Analysen dienten der Prüfung, ob ein beobachtetes Muster statistisch signifikant ist. Evaluiert wurde die Methode mit der etablierten k-mean Analyse. Zum Testen der Hot-spot Analyse wurden ECa, Stammumfang und Ertrag Daten aus einer Grapefruitanlage (Adana, Türkei) mit 179 Bäumen auf einem Boden vom Typ Xerofkuvent mit toniger und tonig-lehmiger Textur herangezogen. Die Überprüfung der Interaktion zwischen den kritischen Werten aus den Boden- und Pflanzenwasserzustandsinformationen zu den vegetativen und generativen Pflanzenwachtumsvariablen erfolgte durch die Anwendung der ANOVA und die Ermittlung des Korrelationskoeffizienten. In der Arbeit konnte gezeigt werden, dass die Variabilität der Boden- und Pflanzeninformationen in Obstanlagen auch kleinräumig hoch ist. Es konnte gezeigt werden, dass die räumlich gefundenen Muster in den ECa über die Jahre zwischen 2011-2012 (r = 0.88) beziehungsweise 2012-2013 (r = 0.71) stabil geblieben sind. Zum anderen wurde gezeigt, dass eine CWSI-Bestimmung auch im semi-humiden Klima möglich ist. Es wurde ein Zusammenhang (r = - 0.65, p < 0.0001) mit der etablierten Methode der Blattwasser-potentialanalyse ermittelt. Die Interaktion zwischen der ECa aus verschiedenen Tiefen und den Pflanzenvariablen ergab einen hoch signifikanten Zusammenhang mit dem Oberboden, in dem das Bewässerungswasser zu finden war. Es wurde eine Korrelation zwischen Ertrag und ECatopsoil von r = 0.52 ermittelt. Durch die Anwendung der Hot-spot Analyse konnten Extremwerte in den räumlichen Daten ermittelt werden. Diese Extrema dienten zur Einteilung der Zonen in cold-spot, random und hot-spot. Die random Zone weist die höchsten Korrelationen zu den Pflanzenvariablen auf. Ferner konnte gezeigt werden, dass bereits im semi-humiden Klima der Pflanzenwasserstatus entscheidend zur Fruchtqualität beiträgt. Zusammenfassend lässt sich sagen, dass die räumliche Variabilität der Fruchtqualität durch die Interaktion von Wassernutzungseffizienz und CWSI sowie in geringerem Maße durch den ECa des Bodens. In der Pflaumenanlage im semi-humiden Klima war die Bewässerung ausschlaggebend für die Produktion von qualitativ hochwertigen Früchten. N2 - Precision horticulture encompasses site- or tree-specific management in fruit plantations. Of decisive importance is spatially resolved data (this means data from each tree) from the production site, since it may enable customized and, therefore, resource-efficient production measures. The present thesis involves an examination of the apparent electrical conductivity of the soil (ECa), the plant water status spatially measured by means of the crop water stress index (CWSI), and the fruit quality (e.g. fruit size) for Prunus domestica L. (plums) and Citrus x aurantium, Syn. Citrus paradisi (grapefruit). The goals of the present work were i) characterization of the 3D distribution of the apparent electrical conductivity of the soil and variability of the plant’s water status; ii) investigation of the interaction between ECa, CWSI, and fruit quality; and iii) an approach for delineating management zones with respect to managing trees individually. To that end, the main investigations took place in the plum orchard. This plantation got a slope of 3° grade on Pleistocene and post-Pleistocene substrates in a semi-humid climate (Potsdam, Germany) and encloses an area of 0.37 ha with 156 trees of the cultivar ˈTophit Plusˈ on a Wavit rootstock. The plantation was laid in 2009 with annual and biannual trees spaced 4 m distance along the irrigation system and 5 m between the rows. The trees were watered three times a week with a drip irrigation system positioned 50 cm above ground level providing 1.6 l per tree per event. With the help of geoelectric measurements, the apparent electrical conductivity of the upper soil (0.25 m) was measured for each tree with an electrode spacing of 0.5 m (4-point light hp). In this manner, the plantation was spatially charted with respect to the soil’s ECa. Additionally, tomography measurements were performed for 3D mapping of the soil ECa and spot checks of drilled cores with a profile of up to 1 m. The vegetative, generative, and fruit quality data were collected for each tree. The instantaneous plant water status was comprehensively determined in spot checks with the established Scholander method for water potential analysis (Scholander pressure bomb) as well as thermal imaging. An infrared camera was used for the thermal imaging (ThermaCam SC 500), mounted on a tractor 3.3 m above ground level. The thermal images (320 x 240 px) of the canopy surface were taken with an aperture of 45° and a geometric resolution of 8.54 x 6.41 mm. With the aid of the canopy temperature readings from the thermal images, cross-checked with manual temperature measurements of a dry and a wet reference leaf, the crop water stress index (CWSI) was calculated. Adjustments in CWSI for measurements in a semi-humid climate were developed, whereas the collection of reference temperatures was automatically collected from thermal images. The bonitur data were transformed with the help of a variance stabilization process into a normal distribution. The statistical analyses as well as the automatic evaluation routine were performed with several scripts in MATLAB® (R2010b and R2016a) and a free program (spatialtoolbox). The hot spot analysis served to check whether an observed pattern is statistically significant. The method was evaluated with an established k-mean analysis. To test the hot-spot analysis by comparison, data from a grapefruit plantation (Adana, Turkey) was collected, including soil ECa, trunk circumference, and yield data. The plantation had 179 trees on a soil of type Xerofkuvent with clay and clay-loamy texture. The examination of the interaction between the critical values from the soil and plant water status information and the vegetative and generative plant growth variables was performed with the application from ANOVA. The study indicates that the variability of the soil and plant information in fruit production is high, even considering small orchards. It was further indicated that the spatial patterns found in the soil ECa stayed constant through the years (r = 0.88 in 2011-2012 and r = 0.71 in 2012-2013). It was also demonstrated that CWSI determination may also be possible in semi-humid climate. A correlation (r = - 0.65, p < 0.0001) with the established method of leaf water potential analysis was found. The interaction between the ECa from various depths and the plant variables produced a highly significant connection with the topsoil in which the irrigation system was to be found. A correlation between yield and ECatopsoil of r = 0.52 was determined. By using the hot-spot analysis, extreme values in the spatial data could be determined. These extremes served to divide the zones (cold-spot, random, hot-spot). The random zone showed the highest correlation to the plant variables. In summary it may be said that the cumulative water use efficiency (WUEc) was enhanced with high crop load. While the CWSI had no effect on fruit quality, the interaction of CWSI and WUEc even outweighed the impact of soil ECa on fruit quality in the production system with irrigation. In the plum orchard, irrigation was relevant for obtaining high quality produce even in the semi-humid climate. KW - precision horticulture KW - plum KW - tree water status KW - spatial variability KW - Präzision Gartenbau KW - Pflaume KW - Pflanzenwasserzustand KW - räumliche Variabilität Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397666 ER - TY - THES A1 - Linnik, Anastasia T1 - Coherence and structure in aphasic and non-aphasic spoken discourse T1 - Kohärenz und Struktur im aphasischen und nicht-aphasischen gesprochenen Diskurs N2 - Discourse production is crucial for communicative success and is in the core of aphasia assessment and treatment. Coherence differentiates discourse from a series of utterances/sentences; it is internal unity and connectedness, and, as such, perhaps the most inherent property of discourse. It is unclear whether people with aphasia, who experience various language production difficulties, preserve the ability to produce coherent discourse. A more general question of how coherence is established and represented linguistically has been addressed in the literature, yet remains unanswered. This dissertation presents an investigation of discourse production in aphasia and the linguistic mechanisms of establishing coherence. N2 - Die Diskursproduktion ist entscheidend für den kommunikativen Erfolg und ist ausschlaggebend für die Diagnostik und Behandlung von Aphasie. Durch Kohärenz wird eine Reihe von Äußerungen oder Sätzen zum Diskurs. Kohärenz stellt die innere Einheit und Verbundenheit eines Textes dar und ist damit vielleicht die zentrale Eigenschaft des Diskurses. Es ist unklar, ob Menschen mit Aphasie, die Schwierigkeiten bei der Sprachproduktion haben, die Fähigkeit bewahren, einen kohärenten Diskurs zu konstruieren. Die Frage, was genau Sprache kohärent macht, wurde in der Literatur behandelt, ist aber nicht vollständig verstanden. Diese Dissertation stellt eine Untersuchung der aphasischen Diskursproduktion und der linguistischen Mechanismen zur Herstellung von Kohärenz dar. KW - aphasia KW - discourse production KW - rhetorical structure theory KW - coherence KW - Aphasie KW - Diskursproduktion KW - rhetorische Struktur KW - Kohärenz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423202 ER - TY - THES A1 - Lontsi, Agostiny Marrios T1 - 1D shallow sedimentary subsurface imaging using ambient noise and active seismic data T1 - 1D Bildgebung oberflächennaher Sedimente mit Hilfe von Daten der allgemeinen, seismischen Bodenunruhe und Daten der aktiven Seismik N2 - The Earth’s shallow subsurface with sedimentary cover acts as a waveguide to any incoming wavefield. Within the framework of my thesis, I focused on the characterization of this shallow subsurface within tens to few hundreds of meters of sediment cover. I imaged the seismic 1D shear wave velocity (and possibly the 1D compressional wave velocity). This information is not only required for any seismic risk assessment, geotechnical engineering or microzonation activities, but also for exploration and global seismology where site effects are often neglected in seismic waveform modeling. First, the conventional frequency-wavenumber (f - k) technique is used to derive the dispersion characteristic of the propagating surface waves recorded using distinct arrays of seismometers in 1D and 2D configurations. Further, the cross-correlation technique is applied to seismic array data to estimate the Green’s function between receivers pairs combination assuming one is the source and the other the receiver. With the consideration of a 1D media, the estimated cross-correlation Green’s functions are sorted with interstation distance in a virtual 1D active seismic experiment. The f - k technique is then used to estimate the dispersion curves. This integrated analysis is important for the interpretation of a large bandwidth of the phase velocity dispersion curves and therefore improving the resolution of the estimated 1D Vs profile. Second, the new theoretical approach based on the Diffuse Field Assumption (DFA) is used for the interpretation of the observed microtremors H/V spectral ratio. The theory is further extended in this research work to include not only the interpretation of the H/V measured at the surface, but also the H/V measured at depths and in marine environments. A modeling and inversion of synthetic H/V spectral ratio curves on simple predefined geological structures shows an almost perfect recovery of the model parameters (mainly Vs and to a lesser extent Vp). These results are obtained after information from a receiver at depth has been considered in the inversion. Finally, the Rayleigh wave phase velocity information, estimated from array data, and the H/V(z, f) spectral ratio, estimated from a single station data, are combined and inverted for the velocity profile information. Obtained results indicate an improved depth resolution in comparison to estimations using the phase velocity dispersion curves only. The overall estimated sediment thickness is comparable to estimations obtained by inverting the full micortremor H/V spectral ratio. N2 - Oberflächennahe Sedimente wirken oft als Verstärker für einfallende seismische Wellenfelder. Im Rahmen meiner Doktorarbeit konzentriere ich mich auf die Eigenschaften des oberflächennahen Untergrundes von einigen zehn bis zu hundert Metern Sedimentabdeckung. Dabei leite ich Tiefenprofile (1D) der seismische Scherwellengeschwindigkeit (Vs) und wenn möglich auch der Kompressionswellengeschwindigkeit (Vp) aus seismischen Daten ab. Diese Informationen sind nicht nur für jede Erdbebenrisikobewertung, Geotechnik- oder Mikrozonierungsaktivität erforderlich, sondern sind auch für die seismische Erkundung und globale Seismologie von Bedeutung, da Standorteffekte in seismischen Wellenformmodellierungen oft vernachlässigt werden. Zuerst wird die herkömmliche Frequenz-Wellenzahl (f - k) Technik verwendet, um die Dispersionskurven der Phasengeschwindigkeit von Oberflächenwellen abzuleiten. Die zugrundeliegenden Daten stammen von Seismometerarrays in unterschiedlichen 1D- und 2D-Konfigurationen. In einem weiteren Schritt wird die Green’s Funktion zwischen verschiedenen Empfängerpaaren aus den Daten des seismischen Arrays geschätzt. Dabei wird die Kreuzkorrelationstechnik verwendet. In einem virtuellen 1D Experiment der aktiven Seismik werden die abgeleiteten Green’s Funktionen der Interstationsdistanz nach geordnet. Dann wird die f-k Technik verwendet um wiederum Dispersionskurven abzuleiten. Dieser integrierte Ansatz ermöglicht die Analyse einer grösseren Bandbreite für die Dispersionskurven und daher eine verbesserte Auflösung des 1D Tiefenprofils der Scherwellengeschwindigkeit (Vs). In einem zweiten Schritt wird ein neuer Ansatz, basierend auf der diffusen Wellenfeldannahme (engl., Diffuse Field Assumption, DFA), zur Interpretation beobachteter horizontal zu vertikalen Spektralamplitudenverhältnissen (H/V-Spektralverhältnisse), die aus allgemeiner Bodenunruhe abgeleited wurden,genutzt. Diese Theorie wurde im Rahmen der vorliegenden Arbeit erweitert, um nicht nur an der Oberfläche gemessene H/V- Spektralverhältnisse interpretieren zu können sondern auch Messungen in der Tiefe (Bohrloch) und in mariner Umgebung (Ozeanboden). Eine Modellierung und Inversion von synthetischen HV- Spektralverhältnissen für vordefinierte, einfache geologische Strukturen zeigt eine nahezu perfekte Identifikation/Rekonstruktion der Modellparameter (im wesentlichen Vs und in geringerem Maße Vp), wenn die zusätzliche Information von HV- Spektralverhältnissen eines Empfängers in der Tiefe bei der Inversion berücksichtigt wird. Letztlich wurden (i) Phasengeschwindigkeiten von Rayleighwellen, die aus einem Arraydatensatz geschätzt wurden, mit (ii) H/V-Spektralverhältnissen einer Einzelstation kombiniert invertiert, um Tiefen-profile seismischer Geschwindigkeiten (Vs, Vp) zu bestimmen. Die Ergebnisse deuten daraufhin, dass sich mit einer kombinierte Inversion seismische Geschwindigkeiten bis in größere Tiefen bestimmen lassen, verglichen mit der Inversion von nur Phasengeschwindigkeiten allein. Die geschätzte Gesamtmächtigkeit von Oberflächensedimenten aufgrund der kombinierten Inversion ist vergleichbar mit der, abgleitet von nur H/V-Spektralverhältnissen. KW - active seismic KW - passive seismic KW - virtual active seismic KW - dispersion curves KW - inversion KW - Vs profiles KW - inverse theory KW - interferometry KW - site effects KW - aktive Seismik KW - passive Seismik KW - virtuelle aktive Seismik KW - Dispersionskurven KW - Inversion KW - Vs Profile KW - Inversionstheorie KW - Interferometrie KW - Standorteffekte Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103807 ER - TY - THES A1 - Mueller, Stefanie T1 - Interacting with personal fabrication devices T1 - Interaktion mit Personal Fabrication Geräten N2 - Personal fabrication tools, such as 3D printers, are on the way of enabling a future in which non-technical users will be able to create custom objects. However, while the hardware is there, the current interaction model behind existing design tools is not suitable for non-technical users. Today, 3D printers are operated by fabricating the object in one go, which tends to take overnight due to the slow 3D printing technology. Consequently, the current interaction model requires users to think carefully before printing as every mistake may imply another overnight print. Planning every step ahead, however, is not feasible for non-technical users as they lack the experience to reason about the consequences of their design decisions. In this dissertation, we propose changing the interaction model around personal fabrication tools to better serve this user group. We draw inspiration from personal computing and argue that the evolution of personal fabrication may resemble the evolution of personal computing: Computing started with machines that executed a program in one go before returning the result to the user. By decreasing the interaction unit to single requests, turn-taking systems such as the command line evolved, which provided users with feedback after every input. Finally, with the introduction of direct-manipulation interfaces, users continuously interacted with a program receiving feedback about every action in real-time. In this dissertation, we explore whether these interaction concepts can be applied to personal fabrication as well. We start with fabricating an object in one go and investigate how to tighten the feedback-cycle on an object-level: We contribute a method called low-fidelity fabrication, which saves up to 90% fabrication time by creating objects as fast low-fidelity previews, which are sufficient to evaluate key design aspects. Depending on what is currently being tested, we propose different conversions that enable users to focus on different parts: faBrickator allows for a modular design in the early stages of prototyping; when users move on WirePrint allows quickly testing an object's shape, while Platener allows testing an object's technical function. We present an interactive editor for each technique and explain the underlying conversion algorithms. By interacting on smaller units, such as a single element of an object, we explore what it means to transition from systems that fabricate objects in one go to turn-taking systems. We start with a 2D system called constructable: Users draw with a laser pointer onto the workpiece inside a laser cutter. The drawing is captured with an overhead camera. As soon as the the user finishes drawing an element, such as a line, the constructable system beautifies the path and cuts it--resulting in physical output after every editing step. We extend constructable towards 3D editing by developing a novel laser-cutting technique for 3D objects called LaserOrigami that works by heating up the workpiece with the defocused laser until the material becomes compliant and bends down under gravity. While constructable and LaserOrigami allow for fast physical feedback, the interaction is still best described as turn-taking since it consists of two discrete steps: users first create an input and afterwards the system provides physical output. By decreasing the interaction unit even further to a single feature, we can achieve real-time physical feedback: Input by the user and output by the fabrication device are so tightly coupled that no visible lag exists. This allows us to explore what it means to transition from turn-taking interfaces, which only allow exploring one option at a time, to direct manipulation interfaces with real-time physical feedback, which allow users to explore the entire space of options continuously with a single interaction. We present a system called FormFab, which allows for such direct control. FormFab is based on the same principle as LaserOrigami: It uses a workpiece that when warmed up becomes compliant and can be reshaped. However, FormFab achieves the reshaping not based on gravity, but through a pneumatic system that users can control interactively. As users interact, they see the shape change in real-time. We conclude this dissertation by extrapolating the current evolution into a future in which large numbers of people use the new technology to create objects. We see two additional challenges on the horizon: sustainability and intellectual property. We investigate sustainability by demonstrating how to print less and instead patch physical objects. We explore questions around intellectual property with a system called Scotty that transfers objects without creating duplicates, thereby preserving the designer's copyright. N2 - Personal Fabrication Geräte, wie zum Beispiel 3D Drucker, sind dabei eine Zukunft zu ermöglichen in der selbst Benutzer ohne technisches Fachwissen eigene Objekte erstellen können. Obwohl die Hardware nun verfügbar ist, gibt es derzeit kein geeignetes Interaktionsmodel für Benutzer ohne Fachwissen. Heutzutage werden Objekte mit dem 3D Drucker in einem Stück hergestellt. Da der 3D Druck noch ein sehr langsames Verfahren ist und häufig so lange dauert, dass das Objekt über Nacht hergestellt werden muss, müssen Benutzer sorgfältig alles überprüfen bevor sie den Druckauftrag abschicken, da jeder Fehler einen weiteren Tag Wartezeit bedeuten kann. Benutzer ohne technischen Hintergrund haben jedoch nicht das notwendige Fachwissen um alle Faktoren vorhersagen zu können. In dieser Dissertation schlagen wir vor das Interaktionsmodel von Personal Fabrication Geräten zu ändern, um diese Benutzer besser zu unterstützen. Wir argumentieren, dass die Entwicklung von Personal Fabrication Geräten der Entwicklung von Personal Computern gleicht. Die ersten Computer arbeiteten ein Programm vollständig ab, bevor sie ein Ergebnis an den Benutzer zurückgaben. Durch die Verkleinerung der Interaktionseinheit von ganzen Programmen zu einzelnen Anfragen wurden turn-taking Systeme wie die Kommandozeile möglich. Mit der Einführung von direkter Manipulation konnten Benutzer schließlich kontinuierlich mit dem Program arbeiten: sie erhielten Feedback über jede einzelne Interaktion in Echtzeit. Wir untersuchen in dieser Arbeit ob die gleichen Interaktionskonzepte auf Personal Fabrication Geräte angewendet werden können. Wir beginnen diese Arbeit damit zu untersuchen wie man die Feedbackzeit bei der Interaktion mit ganzen Objekten verkürzen kann. Wir präsentieren eine Methode mit dem Namen Low-fidelity Fabrication, die bis zu 90% Druckzeit spart. Low-fidelity fabrication ist schnell, weil es 3D Modelle als grobe Vorschauobjekte druckt, die aber ausreichen um die Aspekte zu testen, die gerade wichtig sind. Abhängig vom aktuellen Testfokus schlagen wir vor verschiedene Konvertierungen vorzunehmen: Unser System faBrickator ist besonders für die ersten Testläufe geeignet, wenn ein modulares Design wichtig ist. Unser System WirePrint ist besonders nützlich im nächsten Schritt, wenn die Form des Objektes erhalten bleiben soll. Am Ende erlaubt unser System Platener ein Objekt so zu konvertieren, dass die technische Funktion des Objektes bewahrt wird. Wir erklären das Design unserer interaktiven Editoren und die zugrunde liegenden Konvertierungsalgorithmen. Durch die Verkleinerung der Interaktionseinheit auf ein einzelnes Element, wie zum Beispiel einer Linie, untersuchen wir wie man Objekt-basierte Fabrikationssysteme in turn-taking Systeme umwandeln kann. Wir zeigen unser 2D System constructable, das auf einem Laser-Cutter basiert. Benutzer von constructable verwenden einen Laserpointer um auf das Werkstück im Laser-Cutter zu zeichnen. Die Zeichnung wird mit einer Kamera aufgenommen, korrigiert, und anschließend direkt mit dem Laser-Cutter ausgeschnitten. Wir erweitern constructable zu 3D mit unserer neuen Laser-Cutter Technologie Laser-Origami. LaserOrigami erzeugt 3D Objekte, indem es mit dem defokussierten Laser das Werkstück erhitzt bis es verformbar wird, die Schwerkraft biegt das Werkstück anschließend in seine 3D Form. Obwohl constructable und LaserOrigami physisches Feedback schnell erzeugen, ist die Interaktion dennoch am besten als turn-taking zu beschreiben: Benutzer editieren zuerst und sehen danach das Ergebnis. Indem wir die Interaktionseinheit noch einmal verkleinern, nun auf ein einziges Feature, können wir Echtzeitfabrikation erreichen: Benutzereingabe und physisches Feedback sind so eng miteinander verbunden, dass es keine sichtbare Verzögerung mehr gibt. Damit können wir untersuchen, was es bedeutet von turn-taking Systemen zu direkter Manipulation überzugehen. Wir zeigen ein System mit dem Namen FormFab, das solch eine direkte interaktive Kontrolle ermöglicht. FormFab basiert auf dem gleichen Prinzip wie LaserOrigami: Ein Werkstück wird erhitzt bis es verformbar wird. Allerdings verwendet FormFab nicht die Schwerkraft zum verformen, sondern ein pneumatisches System, das Benutzer interaktiv steuern können. Wenn Benutzer den Luftdruck ändern, sehen sie wie sich die Größe der Form in Echtzeit ändert. Dies erlaubt ihnen die beste Entscheidung zu treffen während sie verschiedene Optionen evaluieren. Im letzten Kapitel dieser Dissertation extrapolieren wir die aktuelle Entwicklung in eine Zukunft in der eine große Anzahl von Personen eigene Objekte herstellen werden. Dabei entstehen zwei neue Herausforderungen: Nachhaltigkeit und das Bewahren von intellektuellem Eigentum. KW - human computer interaction KW - 3D printing KW - 3D Drucken KW - Laser Cutten KW - Interaktionsmodel Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100908 ER - TY - THES A1 - Mazzonetto, Sara T1 - On the exact simulation of (skew) Brownian diffusions with discontinuous drift T1 - Über die exakte Simulation (skew) Brownsche Diffusionen mit unstetiger Drift T1 - Simulation exacte de diffusions browniennes (biaisées) avec dérive discontinue N2 - This thesis is focused on the study and the exact simulation of two classes of real-valued Brownian diffusions: multi-skew Brownian motions with constant drift and Brownian diffusions whose drift admits a finite number of jumps. The skew Brownian motion was introduced in the sixties by Itô and McKean, who constructed it from the reflected Brownian motion, flipping its excursions from the origin with a given probability. Such a process behaves as the original one except at the point 0, which plays the role of a semipermeable barrier. More generally, a skew diffusion with several semipermeable barriers, called multi-skew diffusion, is a diffusion everywhere except when it reaches one of the barriers, where it is partially reflected with a probability depending on that particular barrier. Clearly, a multi-skew diffusion can be characterized either as solution of a stochastic differential equation involving weighted local times (these terms providing the semi-permeability) or by its infinitesimal generator as Markov process. In this thesis we first obtain a contour integral representation for the transition semigroup of the multiskew Brownian motion with constant drift, based on a fine analysis of its complex properties. Thanks to this representation we write explicitly the transition densities of the two-skew Brownian motion with constant drift as an infinite series involving, in particular, Gaussian functions and their tails. Then we propose a new useful application of a generalization of the known rejection sampling method. Recall that this basic algorithm allows to sample from a density as soon as one finds an - easy to sample - instrumental density verifying that the ratio between the goal and the instrumental densities is a bounded function. The generalized rejection sampling method allows to sample exactly from densities for which indeed only an approximation is known. The originality of the algorithm lies in the fact that one finally samples directly from the law without any approximation, except the machine's. As an application, we sample from the transition density of the two-skew Brownian motion with or without constant drift. The instrumental density is the transition density of the Brownian motion with constant drift, and we provide an useful uniform bound for the ratio of the densities. We also present numerical simulations to study the efficiency of the algorithm. The second aim of this thesis is to develop an exact simulation algorithm for a Brownian diffusion whose drift admits several jumps. In the literature, so far only the case of a continuous drift (resp. of a drift with one finite jump) was treated. The theoretical method we give allows to deal with any finite number of discontinuities. Then we focus on the case of two jumps, using the transition densities of the two-skew Brownian motion obtained before. Various examples are presented and the efficiency of our approach is discussed. N2 - In dieser Dissertation wird die exakte Simulation zweier Klassen reeller Brownscher Diffusionen untersucht: die multi-skew Brownsche Bewegung mit konstanter Drift sowie die Brownsche Diffusionen mit einer Drift mit endlich vielen Sprüngen. Die skew Brownsche Bewegung wurde in den sechzigern Jahren von Itô and McKean als eine Brownsche Bewegung eingeführt, für die die Richtung ihrer Exkursionen am Ursprung zufällig mit einer gegebenen Wahrscheinlichkeit ausgewürfelt wird. Solche asymmetrischen Prozesse verhalten sich im Wesentlichen wie der Originalprozess außer bei 0, das sich wie eine semipermeable Barriere verhält. Allgemeiner sind skew Diffusionsprozesse mit mehreren semipermeablen Barrieren, auch multi-skew Diffusionen genannt, Diffusionsprozesse mit Ausnahme an den Barrieren, wo sie jeweils teilweise reflektiert wird. Natürlich ist eine multi-skew Diffusion durch eine stochastische Differentialgleichung mit Lokalzeiten (diese bewirken die Semipermeabilität) oder durch ihren infinitesimalen Generator als Markov Prozess charakterisiert. In dieser Arbeit leiten wir zunächst eine Konturintegraldarstellung der Übergangshalbgruppe der multi-skew Brownschen Bewegung mit konstanter Drift durch eine feine Analyse ihrer komplexen Eigenschaften her. Dank dieser Darstellung wird eine explizite Darstellung der Übergangswahrscheinlichkeiten der zweifach-skew Brownschen Bewegung mit konstanter Drift als eine unendliche Reihe Gaußscher Dichten erhalten. Anschlieẞend wird eine nützliche Verallgemeinerung der bekannten Verwerfungsmethode vorgestellt. Dieses grundlegende Verfahren ermöglicht Realisierungen von Zufallsvariablen, sobald man eine leicht zu simulierende Zufallsvariable derart findet, dass der Quotient der Dichten beider Zufallsvariablen beschränkt ist. Die verallgmeinerte Verwerfungsmethode erlaubt eine exakte Simulation für Dichten, die nur approximiert werden können. Die Originalität unseres Verfahrens liegt nun darin, dass wir, abgesehen von der rechnerbedingten Approximation, exakt von der Verteilung ohne Approximation simulieren. In einer Anwendung simulieren wir die zweifach-skew Brownsche Bewegung mit oder ohne konstanter Drift. Die Ausgangsdichte ist dabei die der Brownschen Bewegung mit konstanter Drift, und wir geben gleichmäẞige Schranken des Quotienten der Dichten an. Dazu werden numerische Simulationen gezeigt, um die Leistungsfähigkeit des Verfahrens zu demonstrieren. Das zweite Ziel dieser Arbeit ist die Entwicklung eines exakten Simulationsverfahrens für Brownsche Diffusionen, deren Drift mehrere Sprünge hat. In der Literatur wurden bisher nur Diffusionen mit stetiger Drift bzw. mit einer Drift mit höchstens einem Sprung behandelt. Unser Verfahren erlaubt den Umgang mit jeder endlichen Anzahl von Sprüngen. Insbesondere wird der Fall zweier Sprünge behandelt, da unser Simulationsverfahren mit den bereits erhaltenen Übergangswahrscheinlichkeiten der zweifach-skew Brownschen Bewegung verwandt ist. An mehreren Beispielen demonstrieren wir die Effizienz unseres Ansatzes. KW - exact simulation KW - exakte Simulation KW - skew diffusions KW - Skew Diffusionen KW - local time KW - discontinuous drift KW - diskontinuierliche Drift Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102399 ER - TY - THES A1 - Laux, Eva-Maria T1 - Electric field-assisted immobilization and alignment of biomolecules T1 - Immobilisierung und Ausrichtung von Biomolekülen mit elektrischen Wechselfeldern N2 - In this dissertation, an electric field-assisted method was developed and applied to achieve immobilization and alignment of biomolecules on metal electrodes in a simple one-step experiment. Neither modifications of the biomolecule nor of the electrodes were needed. The two major electrokinetic effects that lead to molecule motion in the chosen electrode configurations used were identified as dielectrophoresis and AC electroosmotic flow. To minimize AC electroosmotic flow, a new 3D electrode configuration was designed. Thus, the influence of experimental parameters on the dielectrophoretic force and the associated molecule movement could be studied. Permanent immobilization of proteins was examined and quantified absolutely using an atomic force microscope. By measuring the volumes of the immobilized protein deposits, a maximal number of proteins contained therein was calculated. This was possible since the proteins adhered to the tungsten electrodes even after switching off the electric field. The permanent immobilization of functional proteins on surfaces or electrodes is one crucial prerequisite for the fabrication of biosensors. Furthermore, the biofunctionality of the proteins must be retained after immobilization. Due to the chemical or physical modifications on the proteins caused by immobilization, their biofunctionality is sometimes hampered. The activity of dielectrophoretically immobilized proteins, however, was proven here for an enzyme for the first time. The enzyme horseradish peroxidase was used exemplarily, and its activity was demonstrated with the oxidation of dihydrorhodamine 123, a non-fluorescent precursor of the fluorescence dye rhodamine 123. Molecular alignment and immobilization - reversible and permanent - was achieved under the influence of inhomogeneous AC electric fields. For orientational investigations, a fluorescence microscope setup, a reliable experimental procedure and an evaluation protocol were developed and validated using self-made control samples of aligned acridine orange molecules in a liquid crystal. Lambda-DNA strands were stretched and aligned temporarily between adjacent interdigitated electrodes, and the orientation of PicoGreen molecules, which intercalate into the DNA strands, was determined. Similarly, the aligned immobilization of enhanced Green Fluorescent Protein was demonstrated exploiting the protein's fluorescence and structural properties. For this protein, the angle of the chromophore with respect to the protein's geometrical axis was determined in good agreement with X-ray crystallographic data. Permanent immobilization with simultaneous alignment of the proteins was achieved along the edges, tips and on the surface of interdigitated electrodes. This was the first demonstration of aligned immobilization of proteins by electric fields. Thus, the presented electric field-assisted immobilization method is promising with regard to enhanced antibody binding capacities and enzymatic activities, which is a requirement for industrial biosensor production, as well as for general interaction studies of proteins. N2 - In dieser Doktorarbeit wurde eine Methode entwickelt, mit der Biomoleküle unter dem Einfluss von elektrischen Feldern auf Metallelektroden immobilisiert und ausgerichtet werden können. Für die Immobilisierung wurden weder Modifikationen an den Biomolekülen noch an den Elektroden benötigt. Zwei elektrokinetische Effekte, die Dielektrophorese und der AC-elektroosmotische Fluss, wurden als verantwortliche Effekte für die Molekülbewegung identifiziert. Mit einer neuen 3D Elektrodenkonfiguration wurde der AC-elektroosmotische Fluss minimiert. Damit konnte der Einfluss der experimentellen Parameter auf die Dielektrophoresekraft und deren Auswirkungen auf die Moleküle untersucht werden: Die permanente Immobilisierung von Proteinen wurde mit einem Rasterkraftmikroskop quantifiziert, indem die Volumina der immobilisierten Proteinablagerungen gemessen wurden, und daraus die maximal darin enthaltene Anzahl an Proteinen berechnet wurde. Diese Art der absoluten Quantifizierung war nur möglich, da die Proteine auch nach Abschalten des elektrischen Feldes auf den Wolframelektroden hafteten. Eine solche permanente Immobilisierung funktioneller Proteine auf Elektroden oder Oberflächen im Allgemeinen ist eine wichtige Voraussetzung für die Herstellung von Biosensoren. Des Weiteren muss die Biofunktion der Proteine nach der Immobilisierung erhalten bleiben. Da die Proteine durch die Immobilisierung chemisch oder physikalisch verändert werden, ist auch ihre Biofunktion häufig eingeschränkt. In dieser Arbeit wurde erstmals der Erhalt der Aktivität dielektrophoretisch immobilisierter Enzyme gezeigt. Hierfür wurde das Enzym Meerrettichperoxidase exemplarisch verwendet, dessen Aktivität über die Oxidation von Dihydrorhodamin 123, einem nicht-fluoreszentem Vorläufer des Fluoreszenzfarbstoffes Rhodamin 123, nachgewiesen wurde. Molekulare Ausrichtung und Immobilisierung – sowohl reversibel als auch permanent – wurde unter dem Einfluss inhomogener elektrischer Wechselfelder erreicht. Für die Bestimmung der Molekülausrichtung wurde mit ein Messaufbau entwickelt, der auf einem Fluoreszenzmikroskop basiert. Der Aufbau, das Messprotokoll und die Auswertungsmethode wurden mit einer selbst hergestellten Kontrollprobe, die aus ausgerichteten Acridinorangemolekülen in einem Flüssigkristall bestand, validiert. Lambda-DNA Doppelstränge wurden zwischen benachbarten Interdigitalelektroden gestreckt und temporär ausgerichtet. Die Ausrichtung von interkalierten PicoGreen-Molekülen im rechten Winkel zur Längsachse der Doppelstränge konnte hier gezeigt werden. Zudem konnte die ausgerichtete Immobilisierung des enhanced Green Fluorescent Protein nachgewiesen werden, indem die Fluoreszenz des Proteins und seine Struktureigenschaften ausgenutzt wurden. Aus den Messungen konnte der Winkel des Chromophors relativ zur Proteinlängsachse mit guter Übereinstimmung mit Röntgenkristallstrukturdaten bestimmt werden. Eine permanente Immobilisierung mit gleichzeitiger Ausrichtung der Proteine wurde entlang der Kanten, an den Spitzen und auf der Oberfläche von Interdigitalelektroden erzielt. Damit wurde zum ersten Mal eine ausgerichtete Immobilisierung von Proteinen mit elektrischen Wechselfeldern gezeigt. Diese Methode ist vielversprechend für die Immobilisierung von Antikörpern oder Enzymen mit einheitlicher Ausrichtung und dadurch verbessertem Zugang zu den aktiven Zentren, was nicht nur für die industrielle Biosensorherstellung von Interesse ist, sondern genauso für allgemeine Wechselwirkungsstudien von Proteinen. KW - dielectrophoresis KW - electrokinetics KW - proteins KW - immobilization KW - alignment KW - Dielektrophorese KW - elektrokinetische Effekte KW - Proteine KW - Immobilisierung KW - Ausrichtung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90271 ER - TY - THES A1 - Schintgen, Tom Vincent T1 - The geothermal potential of Luxembourg T1 - Das geothermische Potenzial von Luxemburg BT - geological and thermal exploration for deep geothermal reservoirs in Luxembourg and the surroundings BT - geologische und thermische Erkundung nach tiefen geothermischen Lagerstätten in Luxemburg und Umgebung N2 - The aim of this work is the evaluation of the geothermal potential of Luxembourg. The approach consists in a joint interpretation of different types of information necessary for a first rather qualitative assessment of deep geothermal reservoirs in Luxembourg and the adjoining regions in the surrounding countries of Belgium, France and Germany. For the identification of geothermal reservoirs by exploration, geological, thermal, hydrogeological and structural data are necessary. Until recently, however, reliable information about the thermal field and the regional geology, and thus about potential geothermal reservoirs, was lacking. Before a proper evaluation of the geothermal potential can be performed, a comprehensive survey of the geology and an assessment of the thermal field are required. As a first step, the geology and basin structure of the Mesozoic Trier–Luxembourg Basin (TLB) is reviewed and updated using recently published information on the geology and structures as well as borehole data available in Luxembourg and the adjoining regions. A Bouguer map is used to get insight in the depth, morphology and structures in the Variscan basement buried beneath the Trier–Luxembourg Basin. The geological section of the old Cessange borehole is reinterpreted and provides, in combination with the available borehole data, consistent information for the production of isopach maps. The latter visualize the synsedimentary evolution of the Trier–Luxembourg Basin. Complementary, basin-wide cross sections illustrate the evolution and structure of the Trier–Luxembourg Basin. The knowledge gained does not support the old concept of the Weilerbach Mulde. The basin-wide cross sections, as well as the structural and sedimentological observations in the Trier–Luxembourg Basin suggest that the latter probably formed above a zone of weakness related to a buried Rotliegend graben. The inferred graben structure designated by SE-Luxembourg Graben (SELG) is located in direct southwestern continuation of the Wittlicher Rotliegend-Senke. The lack of deep boreholes and subsurface temperature prognosis at depth is circumnavigated by using thermal modelling for inferring the geothermal resource at depth. For this approach, profound structural, geological and petrophysical input data are required. Conceptual geological cross sections encompassing the entire crust are constructed and further simplified and extended to lithospheric scale for their utilization as thermal models. The 2-D steady state and conductive models are parameterized by means of measured petrophysical properties including thermal conductivity, radiogenic heat production and density. A surface heat flow of 75 ∓ 7 (2δ) mW m–2 for verification of the thermal models could be determined in the area. The models are further constrained by the geophysically-estimated depth of the lithosphere–asthenosphere boundary (LAB) defined by the 1300 °C isotherm. A LAB depth of 100 km, as seismically derived for the Ardennes, provides the best fit with the measured surface heat flow. The resulting mantle heat flow amounts to ∼40 mW m–2. Modelled temperatures are in the range of 120–125 °C at 5 km depth and of 600–650 °C at the crust/mantle discontinuity (Moho). Possible thermal consequences of the 10–20 Ma old Eifel plume, which apparently caused upwelling of the asthenospheric mantle to 50–60 km depth, were modelled in a steady-state thermal scenario resulting in a surface heat flow of at least 91 mW m–2 (for the plume top at 60 km) in the Eifel region. Available surface heat-flow values are significantly lower (65–80 mW m–2) and indicate that the plume-related heating has not yet entirely reached the surface. Once conceptual geological models are established and the thermal regime is assessed, the geothermal potential of Luxembourg and the surrounding areas is evaluated by additional consideration of the hydrogeology, the stress field and tectonically active regions. On the one hand, low-enthalpy hydrothermal reservoirs in Mesozoic reservoirs in the Trier–Luxembourg Embayment (TLE) are considered. On the other hand, petrothermal reservoirs in the Lower Devonian basement of the Ardennes and Eifel regions are considered for exploitation by Enhanced/Engineered Geothermal Systems (EGS). Among the Mesozoic aquifers, the Buntsandstein aquifer characterized by temperatures of up to 50 °C is a suitable hydrothermal reservoir that may be exploited by means of heat pumps or provide direct heat for various applications. The most promising area is the zone of the SE–Luxembourg Graben. The aquifer is warmest underneath the upper Alzette River valley and the limestone plateau in Lorraine, where the Buntsandstein aquifer lies below a thick Mesozoic cover. At the base of an inferred Rotliegend graben in the same area, temperatures of up to 75 °C are expected. However, geological and hydraulic conditions are uncertain. In the Lower Devonian basement, thick sandstone-/quartzite-rich formations with temperatures >90 °C are expected at depths >3.5 km and likely offer the possibility of direct heat use. The setting of the Südeifel (South Eifel) region, including the Müllerthal region near Echternach, as a tectonically active zone may offer the possibility of deep hydrothermal reservoirs in the fractured Lower Devonian basement. Based on the recent findings about the structure of the Trier–Luxembourg Basin, the new concept presents the Müllerthal–Südeifel Depression (MSD) as a Cenozoic structure that remains tectonically active and subsiding, and therefore is relevant for geothermal exploration. Beyond direct use of geothermal heat, the expected modest temperatures at 5 km depth (about 120 °C) and increased permeability by EGS in the quartzite-rich Lochkovian could prospectively enable combined geothermal heat production and power generation in Luxembourg and the western realm of the Eifel region. N2 - Die Zielsetzung dieser Arbeit ist die Bewertung des geothermischen Potenzials in Luxemburg. Der Ansatz besteht aus einer gemeinsamen Ausdeutung verschiedener Daten die für eine erste eher qualitative Abschätzung der tiefen geothermischen Lagerstätten in Luxemburg und den angrenzenden Regionen in den benachbarten Ländern Belgien, Frankreich und Deutschland notwendig sind. Für die Erkennung geothermischer Lagerstätten durch Erkundung sind geologische, thermische, hydrogeologische und strukturgeologische Kenntnisse erforderlich. Bis vor kurzem jedoch waren verlässliche Informationen über das thermische Feld und die Geologie und somit über mögliche geothermische Lagerstätten nicht verfügbar. Bevor eine genaue Bewertung des geothermischen Potenzials durchgeführt werden kann müssen eine umfassende Untersuchung der regionalen Geologie und eine Abschätzung des thermischen Feldes erfolgen. Als erstes wird die Geologie und Struktur des Mesozoischen Trier–Luxemburger Beckens (TLB) mittels kürzlich erschienenen Erkenntnissen über die Geologie und Strukturen sowie verfügbaren Bohrdaten in Luxemburg und den angrenzenden Gebieten überprüft und aktualisiert. Eine Bouguer Schwerekarte liefert einen Einblick in die Tiefe, Morphologie und Strukturen des variskischen Grundgebirges welches unter dem Trier–Luxemburger Becken verborgen ist. Die Schichtenfolge in der alten Bohrung Cessingen wird neu gedeutet und bietet in der Gesamtdeutung der verfügbaren Bohrdaten einheitliche Angaben für die Erzeugung von Mächtigkeitskarten. Diese veranschaulichen die synsedimentäre Entwickung des Trier–Luxemburger Beckens. Ergänzende, beckenübergreifende geologische Schnitte verdeutlichen die Entwicklung und Struktur des Trier–Luxemburger Beckens. Die gewonnenen Erkenntnisse widerlegen das alte Konzept der Mulde von Weilerbach. Die beckenumspannenden Schnitte, sowie die strukturgeologischen und sedimentologischen Beobachtungen im Trier–Luxemburger Becken legen nahe dass die Beckenentwicklung wahrscheinlich über einer Schwächezone stattgefunden hat die durch einen verborgenen Rotliegendgraben erzeugt wird. Die vermutete Grabenstruktur mit der Bezeichnung ‚Südost-Luxemburg Graben‘ befindet sich in unmittelbarer südwestlicher Fortsetzung der Wittlicher Rotliegend-Senke. Das Fehlen von Tiefbohrungen und einer Vorhersage der Untergrundtemperaturen in der Tiefe wird durch thermische Modellierung als Mittel zur Bestimmung der tiefen geothermischen Resourcen umgangen. Für diese Herangehensweise werden tiefgreifende strukturgeologische, geologische und gesteinsphysikalische Eingangsdaten benötigt. Konzeptionelle geologische Krustenschnitte werden erstellt und dann für die Benutzung als thermische Modelle vereinfacht und auf Lithospärenmaßstab erweitert. Die thermisch stationären und konduktiven Modelle werden mittels im Labor gemessenen petrophysikalischen Eigenschaften wie der Wärmeleitfähigkeit, der radiogenen Wärmeproduktion und der Gesteinsdichte parameterisiert. Ein terrestrischer Oberflächenwärmestrom von 75 ∓ 7 (2δ) mW m–2 zur Überprufung der thermischen Modelle konnte im Untersuchungsgebiet ermittelt werden. Die Modelle sind weiter begrenzt durch die geophysikalisch ermittelte Tiefe der Lithospäre-Asthenosphärengrenze (LAB) die sich durch die 1300 °C Isotherme definiert. Eine LAB-Tiefe von 100 km, wie seismisch für den Bereich der Ardennen bekannt, führt zur besten Übereinstimmung mit dem ermittelten Oberflächenwärmestrom. Der sich ergebende Mantelwärmestrom beträgt ∼40 mW m–2. Die Modelltemperaturen liegen im Bereich von 120–125 °C in 5 km Tiefe und 600–650 °C an der Krustenuntergrenze (Moho). Die möglichen thermischen Auswirkungen des 10–20 Ma alten, sogenannten Eifelplumes, der offenbar einen Aufstieg des asthenosphärischen Mantels bis in 50–60 km Tiefe verursacht hat, wurden mit Hilfe eines thermisch stationären Szenarios modelliert und ergeben einen Oberflächenwärmestrom von mindestens 91 mW m–2 (im Fall eines Plume Top in 60 km Tiefe) im Gebiet der Eifel. Die vorliegenden Wärmestromwerte sind deutlich niedriger (65–80 mW m–2) und zeigen dass die durch den Plume bedingte Lithospären- und Krustenerwärmung die Oberfläche noch nicht erreicht hat. Nach der Erstellung der konzeptionellen geologischen Modelle und der Berechnung des thermischen Feldes kann das geothermische Potenzial von Luxemburg und den angrenzenden Gebieten abgeschätzt werden. Die Bewertung geschieht durch die Einbeziehung der Hydrogeologie, des Stressfeldes und unter Berücksichtigung tektonisch aktiver Gebiete. Zum einen werden Niedrigenthalpie-Lagerstätten in mesozoischen Aquiferen in der Trier–Luxemburger Bucht (TLE) in Betracht gezogen. Andererseits werden petrothermale Lagerstätten im unterdevonischen Grundgebirge der Ardennen und der Eifel für die Erschließung durch EGS (Enhanced/Engineered Geothermal Systems) berücksichtigt. Unter den mesozoischen Aquiferen ist der Buntsandstein Aquifer mit Temperaturen bis 50 °C ein geeignetes hydrothermales Reservoir das mittels Wärmepumpen oder direkte Wärmebereitstellung für verschiedene Nutzungsmöglichkeiten in Frage kommen könnte. Das thermisch günstigste Gebiet befindet sich im Bereich des Südost-Luxemburg Graben unter dem oberen Alzettetal sowie dem Kalksteinplateau im nördlichen Lothringen wo der Buntsandstein Aquifer unter einer mächtigen Mesozoischen Bedeckung liegt. An der Basis des vermuteten Rotliegendgrabens in demselben Gebiet werden Temperaturen bis 75 °C erwartet. Allerdings sind die geologischen Verhältnisse und die hydraulichen Eigenschaften unbekannt. In dem unterdevonischen Grundgebirge werden mächtige sandsteinlastige beziehungsweise quarzitreiche geologische Formationen mit Temperaturen >90 °C in Tiefen >3,5 km erwartet und ermöglichen wahrscheinlich eine direkte Wärmenutzung. Die geologische Situation der Südeifel einschliesslich der Region des Müllerthales nahe Echternach (Luxemburg) als tektonisch aktive Zone könnte tiefe hydrothermale Reservoire im geklüfteten unterdevonischen Grundgebirge zur Folge haben. Auf Basis der erarbeiteten Kenntnisse über das Trier–Luxemburger Becken in Luxemburg und speziell der Südeifel wurde das neue Konzept der Müllerthal–Südeifel Depression (MSD) aufgestellt. Es handelt sich um eine gegenwärtig tektonisch aktive und absinkende känozoische Struktur und hat deshalb eine große Bedeutung für die zukünftige geothermische Erkundung. Neben der direkten Nutzung geothermischer Wärme ermöglichen die mäßigen Temperaturen von 120 °C in 5 km Tiefe und eine verbesserte Durchlässigkeit der quarzitreichen Schichten des Lochkoviums mittels EGS potentiell die kombinierte Wärmebereitstellung und Stromproduktion in Luxemburg und im westlichen Bereich der Eifel. KW - Mesozoikum KW - Perm KW - Beckenentwicklung KW - Beckenstruktur KW - Eifeler Nord-Süd-Zone KW - Weilerbach-Mulde KW - Pariser Becken KW - Wittlicher Senke KW - Trier-Luxemburger Becken KW - Trier-Luxemburger Bucht KW - Oberflächenwärmefluss KW - thermische Modellierung KW - Wärmeleitfähigkeit KW - radiogene Wärmeproduktion KW - Rhenohercynische Zone KW - Luxemburg KW - Geothermie KW - Südeifel KW - Buntsandstein KW - Unterdevon KW - hydrothermale Systeme KW - petrothermale Systeme KW - Mesozoic KW - Permian KW - basin evolution KW - basin structure KW - Eifel Depression KW - Paris Basin KW - Trier-Luxembourg Basin KW - Trier-Luxembourg Embayment KW - surface heat flow KW - thermal modelling KW - thermal conductivity KW - radiogenic heat production KW - Rhenohercynian Zone KW - Luxembourg KW - geothermal energy KW - South Eifel KW - Buntsandstein KW - Lower Devonian KW - hydrothermal systems KW - petrothermal systems KW - Enhanced Geothermal Systems Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-87110 ER -