TY - THES A1 - Ahmad, Nadeem T1 - People centered HMI’s for deaf and functionally illiterate users T1 - Menschen zentrierte Mensch-Maschine-Schnittstellen für Schwerhörige und ungeschulte Anwender N2 - The objective and motivation behind this research is to provide applications with easy-to-use interfaces to communities of deaf and functionally illiterate users, which enables them to work without any human assistance. Although recent years have witnessed technological advancements, the availability of technology does not ensure accessibility to information and communication technologies (ICT). Extensive use of text from menus to document contents means that deaf or functionally illiterate can not access services implemented on most computer software. Consequently, most existing computer applications pose an accessibility barrier to those who are unable to read fluently. Online technologies intended for such groups should be developed in continuous partnership with primary users and include a thorough investigation into their limitations, requirements and usability barriers. In this research, I investigated existing tools in voice, web and other multimedia technologies to identify learning gaps and explored ways to enhance the information literacy for deaf and functionally illiterate users. I worked on the development of user-centered interfaces to increase the capabilities of deaf and low literacy users by enhancing lexical resources and by evaluating several multimedia interfaces for them. The interface of the platform-independent Italian Sign Language (LIS) Dictionary has been developed to enhance the lexical resources for deaf users. The Sign Language Dictionary accepts Italian lemmas as input and provides their representation in the Italian Sign Language as output. The Sign Language dictionary has 3082 signs as set of Avatar animations in which each sign is linked to a corresponding Italian lemma. I integrated the LIS lexical resources with MultiWordNet (MWN) database to form the first LIS MultiWordNet(LMWN). LMWN contains information about lexical relations between words, semantic relations between lexical concepts (synsets), correspondences between Italian and sign language lexical concepts and semantic fields (domains). The approach enhances the deaf users’ understanding of written Italian language and shows that a relatively small set of lexicon can cover a significant portion of MWN. Integration of LIS signs with MWN made it useful tool for computational linguistics and natural language processing. The rule-based translation process from written Italian text to LIS has been transformed into service-oriented system. The translation process is composed of various modules including parser, semantic interpreter, generator, and spatial allocation planner. This translation procedure has been implemented in the Java Application Building Center (jABC), which is a framework for extreme model driven design (XMDD). The XMDD approach focuses on bringing software development closer to conceptual design, so that the functionality of a software solution could be understood by someone who is unfamiliar with programming concepts. The transformation addresses the heterogeneity challenge and enhances the re-usability of the system. For enhancing the e-participation of functionally illiterate users, two detailed studies were conducted in the Republic of Rwanda. In the first study, the traditional (textual) interface was compared with the virtual character-based interactive interface. The study helped to identify usability barriers and users evaluated these interfaces according to three fundamental areas of usability, i.e. effectiveness, efficiency and satisfaction. In another study, we developed four different interfaces to analyze the usability and effects of online assistance (consistent help) for functionally illiterate users and compared different help modes including textual, vocal and virtual character on the performance of semi-literate users. In our newly designed interfaces the instructions were automatically translated in Swahili language. All the interfaces were evaluated on the basis of task accomplishment, time consumption, System Usability Scale (SUS) rating and number of times the help was acquired. The results show that the performance of semi-literate users improved significantly when using the online assistance. The dissertation thus introduces a new development approach in which virtual characters are used as additional support for barely literate or naturally challenged users. Such components enhanced the application utility by offering a variety of services like translating contents in local language, providing additional vocal information, and performing automatic translation from text to sign language. Obviously, there is no such thing as one design solution that fits for all in the underlying domain. Context sensitivity, literacy and mental abilities are key factors on which I concentrated and the results emphasize that computer interfaces must be based on a thoughtful definition of target groups, purposes and objectives. N2 - Das Ziel und die Motivation hinter dieser Forschungsarbeit ist es, Anwendungen mit benutzerfreundlichen Schnittstellen für Gehörlose und Analphabeten bereitzustellen, welche es ihnen ermöglichen ohne jede menschliche Unterstützung zu arbeiten. Obwohl es in den letzten Jahren technologische Fortschritte gab, garantiert allein die Verfügbarkeit von Technik nicht automatisch die Zugänglichkeit zu Informations- und Kommunikationstechnologien (IKT). Umfangreiche Verwendung von Texten in Menüs bis hin zu Dokumenten führen dazu, dass Gehörlose und funktionale Analphabeten auf diese Dienste, die auf Computersystemen existieren, nicht zugreifen können. Folglich stellen die meisten bestehenden EDV-Anwendungen für diejenigen eine Hürde dar, die nicht fließend lesen können. Onlinetechnologien für solche Art von Gruppen sollten in kontinuierlichem Austausch mit den Hauptnutzern entwickelt werden und gründliche Untersuchung ihrer Einschränkungen, Anforderungen und Nutzungsbarrieren beinhalten. In dieser Forschungsarbeit untersuche ich vorhandene Tools im Bereich von Sprach-, Web- und anderen Multimedia-Technologien, um Lernlücken zu identifizieren und Wege zu erforschen, welche die Informationsalphabetisierung für Gehörlose und Analphabeten erweitert. Ich arbeitete an der Entwicklung einer nutzerzentrierten Schnittstelle, um die Fähigkeiten von Gehörlosen und Nutzern mit schlechter Alphabetisierung durch Verbesserung der lexikalischen Ressourcen und durch Auswertung mehrerer Multimediaschnittstellen zu erhöhen. Die Schnittstelle des plattformunabhängigen, italienischen Gebärdensprachen (LIS) Wörterbuches wurde entwickelt, um die lexikalischen Quellen für gehörlose Anwender zu verbessern. Ich integriere die LIS-lexikalischen Ressourcen mit der MultiWordNet (MWN)-Datenbank, um das erste LIS MultiWordNet (LMWN) zu bilden. LMWN enthält Informationen über lexikalische Beziehungen zwischen Wörtern, semantische Beziehungen zwischen lexikalischen Konzepten (Synsets), Gemeinsamkeiten zwischen italienischer und Gebärdensprache-lexikalischen Konzepten und semantischen Feldern (Domänen). Der Ansatz erhöht das Verständnis der tauben Nutzer geschriebene, italienischen Sprache zu verstehen und zeigt, dass ein relativ kleiner Satz an Lexika den wesentlichen Teil der MWN abdecken kann. Die Integration von LIS-Zeichen mit MWN machte es zu einem nützlichen Werkzeug für Linguistik und Sprachverarbeitung. Der regelbasierte Übersetzungsprozess von geschriebenem, italienischem Text zu LIS wurde in ein Service-orientiertes System überführt. Der Übersetzungsprozess besteht aus verschiedenen Modulen, einschließlich einem Parser, einem semantischen Interpreter, einem Generator und einem räumlichen Zuordnungs-Planer. Diese Übersetzungsprozedur wurde im Java Application Building Center (jABC) implementiert, welches ein Framework für das eXtrem Model Driven Design (XMDD) ist. Der XMDD-Ansatz konzentriert sich darauf die Softwareentwicklung näher zum konzeptionellen Design zu bringen, sodass die Funktionalität einer Softwarelösung von jemandem verstanden werden kann, der mit Programmierkonzepten unvertraut ist. Die Transformation richtet sich an die heterogene Herausforderung und verbessert die Wiederverwendbarkeit des Systems. Zur Verbesserung der E-Partizipation der funktionalen Analphabeten wurden zwei detaillierte Studien in der Republik Ruanda durchgeführt. In der ersten Studie wurde die traditionelle, textuelle Schnittstelle mit der virtuellen, charakterbasierten, interaktiven Schnittstelle verglichen. Diese Studie hat dazu beigetragen Barrieren der Benutzerfreundlichkeit zu identifizieren. Anwender evaluierten die Schnittstellen bezüglich drei grundlegender Bereiche der Benutzerfreundlichkeit: Effektivität, Effizienz und Zufriedenstellung bei der Problemlösung. In einer anderen Studie entwickelten wir vier verschiedene Schnittstellen, um die Benutzerfreundlichkeit und die Effekte der Online-Hilfe (konsequente Hilfe) für funktionale Analphabeten zu analysieren und verglichen verschiedene Hilfsmodi (einschließlich zusätzlicher Textinformationen, Audio-Unterstützung und mit Hilfe eines virtuellen Charakters) bezüglich der Verbesserung der Leistungsfähigkeit von teilweisen Analphabeten, um ihre Zielstellung zu erreichen. In unseren neu gestalteten Schnittstellen wurden Anweisungen automatisch in die Swahili Sprache übersetzt. Alle Schnittstellen wurden auf der Grundlage der Aufgabenbewältigung, des Zeitaufwands, der System Usability Scale (SUS) Rate und der Anzahl der Hilfegesuche bewertet. Die Ergebnisse zeigen, dass die Leistungsfähigkeit der teilweisen Analphabeten bei Nutzung der Online-Hilfe signifikant verbessert wurde. Diese Dissertation stellt somit einen neuen Entwicklungsansatz dar, bei welchem virtuelle Charaktere als zusätzliche Unterstützung genutzt werden, um Nutzer, die kaum lesen können oder sonstig eingeschränkt sind, zu unterstützen. Solche Komponenten erweitern die Anwendungsnutzbarkeit indem sie eine Vielzahl von Diensten wie das Übersetzen von Inhalten in eine Landessprache, das Bereitstellen von zusätzlichen akustisch, gesprochenen Informationen und die Durchführung einer automatischen Übersetzung von Text in Gebärdensprache bereitstellen. Offensichtlich gibt ist keine One Design-Lösung, die für alle zugrundeliegenden Domänen passt. Kontextsensitivität, Alphabetisierung und geistigen Fähigkeiten sind Schlüsselfaktoren, auf welche ich mich konzentriere. Die Ergebnisse unterstreichen, dass Computerschnittstellen auf einer exakten Definition der Zielgruppen, dem Zweck und den Zielen basieren müssen. KW - Mensch-Computer-Interaktion KW - assistive Technologien KW - HCI KW - user interfaces KW - sign language KW - online assistance KW - assistive technologies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70391 ER - TY - THES A1 - Arnold, Anne T1 - Modeling photosynthesis and related metabolic processes : from detailed examination to consideration of the metabolic context T1 - Modellierung von Photosynthese und damit zusammenhängende metabolische Prozesse : von detaillierter Betrachtung hin zur Erörterung im metabolischen Kontext N2 - Mathematical modeling of biological systems is a powerful tool to systematically investigate the functions of biological processes and their relationship with the environment. To obtain accurate and biologically interpretable predictions, a modeling framework has to be devised whose assumptions best approximate the examined scenario and which copes with the trade-off of complexity of the underlying mathematical description: with attention to detail or high coverage. Correspondingly, the system can be examined in detail on a smaller scale or in a simplified manner on a larger scale. In this thesis, the role of photosynthesis and its related biochemical processes in the context of plant metabolism was dissected by employing modeling approaches ranging from kinetic to stoichiometric models. The Calvin-Benson cycle, as primary pathway of carbon fixation in C3 plants, is the initial step for producing starch and sucrose, necessary for plant growth. Based on an integrative analysis for model ranking applied on the largest compendium of (kinetic) models for the Calvin-Benson cycle, those suitable for development of metabolic engineering strategies were identified. Driven by the question why starch rather than sucrose is the predominant transitory carbon storage in higher plants, the metabolic costs for their synthesis were examined. The incorporation of the maintenance costs for the involved enzymes provided a model-based support for the preference of starch as transitory carbon storage, by only exploiting the stoichiometry of synthesis pathways. Many photosynthetic organisms have to cope with processes which compete with carbon fixation, such as photorespiration whose impact on plant metabolism is still controversial. A systematic model-oriented review provided a detailed assessment for the role of this pathway in inhibiting the rate of carbon fixation, bridging carbon and nitrogen metabolism, shaping the C1 metabolism, and influencing redox signal transduction. The demand of understanding photosynthesis in its metabolic context calls for the examination of the related processes of the primary carbon metabolism. To this end, the Arabidopsis core model was assembled via a bottom-up approach. This large-scale model can be used to simulate photoautotrophic biomass production, as an indicator for plant growth, under so-called optimal, carbon-limiting and nitrogen-limiting growth conditions. Finally, the introduced model was employed to investigate the effects of the environment, in particular, nitrogen, carbon and energy sources, on the metabolic behavior. This resulted in a purely stoichiometry-based explanation for the experimental evidence for preferred simultaneous acquisition of nitrogen in both forms, as nitrate and ammonium, for optimal growth in various plant species. The findings presented in this thesis provide new insights into plant system's behavior, further support existing opinions for which mounting experimental evidences arise, and posit novel hypotheses for further directed large-scale experiments. N2 - Mathematische Modellierung biologischer Systeme eröffnet die Möglichkeit systematisch die Funktionsweise biologischer Prozesse und ihrer Wechselwirkungen mit der Umgebung zu untersuchen. Um präzise und biologisch relevante Vorhersagen treffen zu können, muss eine Modellierungsstrategie konzipiert werden, deren Annahmen das untersuchte Szenario bestmöglichst widerspiegelt und die dem Trade-off der Komplexität der zugrunde liegenden mathematischen Beschreibung gerecht wird: Detailtreue gegenüber Größe. Dementsprechend kann das System detailliert, in kleinerem Umfang oder in vereinfachter Darstellung im größeren Maßstab untersucht werden. In dieser Arbeit wird mittels verschiedener Modellierungsansätze, wie kinetischen und stöchiometrischen Modellen, die Rolle der Photosynthese und damit zusammenhängender biochemischer Prozesse im Rahmen des Pflanzenstoffwechsels analysiert. Der Calvin-Benson-Zyklus, als primärer Stoffwechselweg der Kohlenstofffixierung in C3-Pflanzen, ist der erste Schritt der Stärke- und Saccharoseproduktion, welche maßgeblich für das Wachstum von Pflanzen sind. Basierend auf einer integrativen Analyse zur Modellklassifizierung wurden aus der größten bekannten Sammlung von (kinetischen) Modellen des Calvin-Benson-Zyklus diejenigen ermittelt, die für die Entwicklung von Metabolic-Engineering-Strategien geeignet sind. Angeregt von der Fragestellung warum Kohlenstoff transitorisch vorwiegend in Form von Stärke anstatt Saccharose gespeichert wird, wurden die metabolischen Kosten beider Syntheseprozesse genauer betrachtet. Die Einbeziehung der Bereitstellungskosten der beteiligten Enzyme stützt die Tatsache, dass bevorzugt Stärke als temporärer Kohlenstoffspeicher dient. Die entprechende Untersuchung erfolgte einzig auf Grundlage der Stöchiometrie der Synthesewege. In vielen photosynthetisch-aktiven Organismen findet zudem Photorespiration statt, die der Kohlenstofffixierung entgegenwirkt. Die genaue Bedeutung der Photorespiration für den Pflanzenmetabolismus ist noch umstritten. Eine detaillierte Einschätzung der Rolle dieses Stoffwechselweges bezüglich der Inhibierung der Kohlenstofffixierungsrate, der Verknüpfung von Kohlenstoff- und Stickstoffmetabolismus, der Ausprägung des C1-Stoffwechsels sowie die Einflussnahme auf die Signaltransduktion wurde in einer modell-basierten, kritischen Analyse vorgenommen. Um die Photosynthese in ihrem metabolischen Kontext verstehen zu können, ist die Betrachtung der angrenzenden Prozesse des primären Kohlenstoffmetabolismus unverzichtbar. Hierzu wurde in einem Bottom-up Ansatz das Arabidopsis core Modell entworfen, mittels dessen die Biomasseproduktion, als Indikator für Pflanzenwachtum, unter photoautotrophen Bedingungen simuliert werden kann. Neben sogenannten optimalen Wachstumsbedingungen kann dieses großangelegte Modell auch kohlenstoff- und stickstofflimitierende Umweltbedingungen simulieren. Abschließend wurde das vorgestellte Modell zur Untersuchung von Umwelteinflüssen auf das Stoffwechselverhalten herangezogen, im speziellen verschiedene Stickstoff-, Kohlenstoff- und Energiequellen. Diese auschließlich auf der Stöchiometrie basierende Analyse bietet eine Erklärung für die bevorzugte, gleichzeitige Aufnahme von Nitrat und Ammonium, wie sie in verschiedenen Spezies für optimales Wachstum experimentell beobachtet wurde. Die Resultate dieser Arbeit liefern neue Einsichten in das Verhalten von pflanzlichen Systemen, stützen existierende Ansichten, für die zunehmend experimentelle Hinweise vorhanden sind, und postulieren neue Hypothesen für weiterführende großangelegte Experimente. KW - stöchiometrische Modellierung KW - kinetische Modellierung KW - metabolische Netzwerke KW - metabolische Kosten KW - Photosynthese KW - stoichiometric modeling KW - kinetic modeling KW - metabolic networks KW - metabolic costs KW - photosynthesis Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72277 ER - TY - THES A1 - Bamberg, Marlene T1 - Planetary mapping tools applied to floor-fractured craters on Mars T1 - Planetare Analysewerkzeuge am Anwendungsgebiet von Kratern mit zerbrochenen Boeden auf dem Mars N2 - Planetary research is often user-based and requires considerable skill, time, and effort. Unfortunately, self-defined boundary conditions, definitions, and rules are often not documented or not easy to comprehend due to the complexity of research. This makes a comparison to other studies, or an extension of the already existing research, complicated. Comparisons are often distorted, because results rely on different, not well defined, or even unknown boundary conditions. The purpose of this research is to develop a standardized analysis method for planetary surfaces, which is adaptable to several research topics. The method provides a consistent quality of results. This also includes achieving reliable and comparable results and reducing the time and effort of conducting such studies. A standardized analysis method is provided by automated analysis tools that focus on statistical parameters. Specific key parameters and boundary conditions are defined for the tool application. The analysis relies on a database in which all key parameters are stored. These databases can be easily updated and adapted to various research questions. This increases the flexibility, reproducibility, and comparability of the research. However, the quality of the database and reliability of definitions directly influence the results. To ensure a high quality of results, the rules and definitions need to be well defined and based on previously conducted case studies. The tools then produce parameters, which are obtained by defined geostatistical techniques (measurements, calculations, classifications). The idea of an automated statistical analysis is tested to proof benefits but also potential problems of this method. In this study, I adapt automated tools for floor-fractured craters (FFCs) on Mars. These impact craters show a variety of surface features, occurring in different Martian environments, and having different fracturing origins. They provide a complex morphological and geological field of application. 433 FFCs are classified by the analysis tools due to their fracturing process. Spatial data, environmental context, and crater interior data are analyzed to distinguish between the processes involved in floor fracturing. Related geologic processes, such as glacial and fluvial activity, are too similar to be separately classified by the automated tools. Glacial and fluvial fracturing processes are merged together for the classification. The automated tools provide probability values for each origin model. To guarantee the quality and reliability of the results, classification tools need to achieve an origin probability above 50 %. This analysis method shows that 15 % of the FFCs are fractured by intrusive volcanism, 20 % by tectonic activity, and 43 % by water & ice related processes. In total, 75 % of the FFCs are classified to an origin type. This can be explained by a combination of origin models, superposition or erosion of key parameters, or an unknown fracturing model. Those features have to be manually analyzed in detail. Another possibility would be the improvement of key parameters and rules for the classification. This research shows that it is possible to conduct an automated statistical analysis of morphologic and geologic features based on analysis tools. Analysis tools provide additional information to the user and are therefore considered assistance systems. N2 - Planetenforschung umfasst oft zeitintensive Projekte, bei denen Expertise und Erfahrung eine wesentliche Rolle spielen. Auf Grund äusserst komplexer und sich selten wiederholender Forschungsfragen sind Annahmen, Definitionen und Regeln zur Lösung dieser Fragen nicht leicht nachvollziehbar oder aber nicht eindeutig dokumentiert. Ein Vergleich der Ergebnisse unterschiedlicher Forscher zum selben Thema oder eine Erweiterung der Forschungsfrage macht dies somit nur schwer möglich. Vergleiche liefern oftmals verzerrte Ergebnisse, da die Ausgangslage und Randbedingungen unterschiedlich definiert worden sind. Das Ziel dieser Arbeit ist es eine Standardmethode zur Oberflächenanalyse zu entwickeln, die auf zahlreiche Untersuchungsfragen angewandt werden kann. Eine gleichbleibende Qualität der Ergebnisse muss durch diese Methode gewährleistet sein. Ein weiteres Ziel ist es, dass diese Methode ohne Vorwissen und Expertise angewandt werden kann und die Ergebnisse in kurzer Zeit vorliegen. Ausserdem müssen die Ergebnisse vergleichbar und nachvollziehbar sein. Automatisch operierende Analysewerkzeuge können die zahlreichen Anforderungen erfüllen und als Standardmethode dienen. Statistische Ergebnisse werden durch diese Methode erzielt. Die Werkzeuge basieren auf vordefinierten, geowissenschaftlichen Techniken und umfassen Messungen, Berechnungen und Klassifikationen der zu untersuchenden Oberflächenstrukturen. Für die Anwendung dieser Werkzeuge müssen Schlüsselstrukturen und Randbedingungen definiert werden. Des Weiteren benötigen die Werkzeuge eine Datenbank, in der alle Oberflächenstrukturen, aber auch Informationen zu den Randbedingungen gespeichert sind. Es ist mit geringem Aufwand möglich, Datenbanken zu aktualisieren und sie auf verschiedenste Fragestellungen zu adaptieren. Diese Tatsache steigert die Flexibilität, Reproduzierbarkeit und auch Vergleichbarkeit der Untersuchung. Die vordefinierten Randbedingungen und die Qualität der Datenbank haben jedoch auch direkten Einfluss auf die Qualität der Ergebnisse. Um eine gleichbleibend hohe Qualität der Untersuchung zu gewährleisten muss sichergestellt werden, dass alle vordefinierten Bedingungen eindeutig sind und auf vorheriger Forschung basieren. Die automatisch operierenden Analysewerkzeuge müssen als mögliche Standardmethode getestet werden. Hierbei geht es darum Vorteile, aber auch Nachteile zu identifizieren und zu bewerten. In dieser Arbeit werden die Analysewerkzeuge auf einen bestimmten Einschlagskratertyp auf dem Mars angewandt. Krater mit zerbrochenen Kraterböden (Floor-Fractured Craters) sind in verschiedensten Regionen auf dem Mars zu finden, sie zeigen zahlreiche Oberflächenstrukturen und wurden durch unterschiedliche Prozesse geformt. All diese Fakten machen diesen Kratertyp zu einem interessanten und im geologischen und morphologischen Sinne sehr komplexen Anwendungsgebiet. 433 Krater sind durch die Werkzeuge analysiert und je nach Entstehungsprozess klassifiziert worden. Für diese Analyse sind Position der Krater, Art des Umfeldes und Strukturen im Kraterinneren ausschlaggebend. Die kombinierten Informationen geben somit Auskunft über die Prozesse, welche zum Zerbrechen des Kraterbodens geführt haben. Die entwickelten Analysewerkzeuge können geologische Prozesse, die sehr ähnlich zueinander sind, von einander abhängig sind und zusätzlich auch dieselben Oberflächenstrukturen formen, nicht eindeutig unterscheiden. Aus diesem Grund sind fluviale und glaziale Entstehungsprozesse für den untersuchten Kratertyp zusammengefasst. Die Analysewerkzeuge liefern Wahrscheinlichkeitswerte für drei mögliche Entstehungsarten. Um die Qualität der Ergebnisse zu verbessern muss eine Wahrscheinlichkeit über 50 % erreicht werden. Die Werkzeuge zeigen, dass 15 % der Krater durch Vulkanismus, 20 % durch Tektonik und 43 % durch Wasser- und Eis-bedingte Prozesse gebildet wurden. Insgesamt kann für 75 % des untersuchten Kratertyps ein potentieller Entstehungsprozess zugeordnet werden. Für 25 % der Krater ist eine Klassifizierung nicht möglich. Dies kann durch eine Kombination von geologischen Prozessen, einer Überprägung von wichtigen Schlüsselstrukturen, oder eines bisher nicht berücksichtigten Prozesses erklärt werden. Zusammenfassend ist zu sagen, dass es möglich ist planetare Oberflächenstrukturen quantitativ durch automatisch operierende Analysewerkzeuge zu erfassen und hinsichtlich einer definierten Fragestellung zu klassifizieren. Zusätzliche Informationen können durch die entwickelten Werkzeuge erhalten werden, daher sind sie als Assistenzsystem zu betrachten. KW - Datenbank KW - Automatisierung KW - Klassifizierung KW - geologische Prozesse KW - Geomorphologie KW - database KW - automation KW - classification KW - geological processes KW - geomorphology Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72104 ER - TY - THES A1 - Behrens, Ricarda T1 - Causes for slow weathering and erosion in the steep, warm, monsoon-subjected Highlands of Sri Lanka T1 - Ursache von langsamer Verwitterung und Erosion im steilen, warmen und Monsun-beeinflussten Hochland von Sri Lanka N2 - In the Highlands of Sri Lanka, erosion and chemical weathering rates are among the lowest for global mountain denudation. In this tropical humid setting, highly weathered deep saprolite profiles have developed from high-grade metamorphic charnockite during spheroidal weathering of the bedrock. The spheroidal weathering produces rounded corestones and spalled rindlets at the rock-saprolite interface. I used detailed textural, mineralogical, chemical, and electron-microscopic (SEM, FIB, TEM) analyses to identify the factors limiting the rate of weathering front advance in the profile, the sequence of weathering reactions, and the underlying mechanisms. The first mineral attacked by weathering was found to be pyroxene initiated by in situ Fe oxidation, followed by in situ biotite oxidation. Bulk dissolution of the primary minerals is best described with a dissolution – re-precipitation process, as no chemical gradients towards the mineral surface and sharp structural boundaries are observed at the nm scale. Only the local oxidation in pyroxene and biotite is better described with an ion by ion process. The first secondary phases are oxides and amorphous precipitates from which secondary minerals (mainly smectite and kaolinite) form. Only for biotite direct solid state transformation to kaolinite is likely. The initial oxidation of pyroxene and biotite takes place in locally restricted areas and is relatively fast: log J = -11 molmin/(m2 s). However, calculated corestone-scale mineral oxidation rates are comparable to corestone-scale mineral dissolution rates: log R = -13 molpx/(m2 s) and log R = -15 molbt/(m2 s). The oxidation reaction results in a volume increase. Volumetric calculations suggest that this observed oxidation leads to the generation of porosity due to the formation of micro-fractures in the minerals and the bedrock allowing for fluid transport and subsequent dissolution of plagioclase. At the scale of the corestone, this fracture reaction is responsible for the larger fractures that lead to spheroidal weathering and to the formation of rindlets. Since these fractures have their origin from the initial oxidational induced volume increase, oxidation is the rate limiting parameter for weathering to take place. The ensuing plagioclase weathering leads to formation of high secondary porosity in the corestone over a distance of only a few cm and eventually to the final disaggregation of bedrock to saprolite. As oxidation is the first weathering reaction, the supply of O2 is a rate-limiting factor for chemical weathering. Hence, the supply of O2 and its consumption at depth connects processes at the weathering front with erosion at the surface in a feedback mechanism. The strength of the feedback depends on the relative weight of advective versus diffusive transport of O2 through the weathering profile. The feedback will be stronger with dominating diffusive transport. The low weathering rate ultimately depends on the transport of O2 through the whole regolith, and on lithological factors such as low bedrock porosity and the amount of Fe-bearing primary minerals. In this regard the low-porosity charnockite with its low content of Fe(II) bearing minerals impedes fast weathering reactions. Fresh weatherable surfaces are a pre-requisite for chemical weathering. However, in the case of the charnockite found in the Sri Lankan Highlands, the only process that generates these surfaces is the fracturing induced by oxidation. Tectonic quiescence in this region and low pre-anthropogenic erosion rate (attributed to a dense vegetation cover) minimize the rejuvenation of the thick and cohesive regolith column, and lowers weathering through the feedback with erosion. N2 - Erosions- und chemische Verwitterungsraten im srilankischen Hochland gehören zu den langsamsten der globalen Gebirgsdenudationsraten. In diesem tropischen, humiden Gebiet entwickelten sich mächtige Verwitterungsprofile – sogenannte Saprolite – auf spheroidal verwittertem, hochgradig metamorphen Charnockit. Spheroidale Verwitterung führt zu abgerundeten „corestones“ mit abgesplitterten Rinden („rindlets“) an der Gesteins – Saprolit Grenze. Zur Identifizierung der ratenlimitierenden Faktoren des Fortschreiten der Verwitterungsfront, der Sequenz der Verwitterungsreaktionen und der dahinterliegenden Mechanismen nutzte ich detaillierte gesteinsstrukturelle, mineralogische, chemische und elektronenmikroskopische (SEM, FIB, TEM) Analysemethoden. Die initiale Verwitterung beginnt mit lokal begrenzter in situ Oxidation in Pyroxen, gefolgt von in situ Oxidation von Biotit. Die Auflösung der Minerale wird am besten durch einen Auflöse – Wiederausfällungs-prozess beschrieben, da zur Mineralgrenze hin keine chemischen Gradienten, dafür aber auf der nm-Skala scharfe strukturelle Grenzen zu beobachten sind. Die ersten ausfallenden Sekundärphasen sind Oxide und amorphe Phasen aus denen sich Sekundärmineral (hauptsächlich Smectit und Kaolinit) bilden. Für Biotit ist auch eine direkte Umwandlung im Festzustand zu Kaolinit möglich. Die initiale Pyroxen- und Biotitoxidation ist relativ schnell: log J = -11 molmin/(m2 s). Berechnete Oxidationsraten auf der corestone-Skala (cm) sind vergleichbar zu Auflöseraten auf derselben Skala: log R = -13 molpx/(m2 s) und log R = -15 molbt/(m2 s). Volumetrische Berechnungen führen zum Schluss, dass die Oxidation mit einhergehender Volumenzunahme zur Entwicklung von Mikrofrakturen in den Mineralen und dem Gesamtgestein führt. Diese begünstigen Fluidtransport und damit einhergehende Plagioklasverwitterung. Des Weiteren ist diese Oxidationsreaktion verantwortlich für die Entstehung der Frakturen bei spheroidaler Verwitterung des Gesteins, welche die „rindlets“ vom „corestone“ abgrenzen. Daraus kann geschlossen werden, dass in situ Oxidation der ratenlimitierende Prozess bei der Verwitterung ist. Plagioklasverwitterung führt zu einer hohen Porositätszunahme und der endgültigen Umwandlung von Gestein zu Saprolit. Da Oxidation die erste Verwitterungsreaktion ist, verbinden die Zuführung und der Verbrauch von O2 zur, beziehungsweise an die Verwitterungsfront Erosion an der Oberfläche mit Prozessen an der Verwitterungsfront über einen Feedbackmechanismus. Daher hängt die langsame Verwitterungsrate letztlich vom Sauerstofftransport durch das Verwitterungsprofil und von lithologischen Faktoren des Charnockit wie zum Beispiel geringe Gesteinsporosität und/oder wenige Fe(II)-haltige Primärminerale ab. Des Weiteren ist der einzige Prozess im Charnockit der frische verwitterbare Oberflächen (eine Voraussetzung für chemische Verwitterung) generiert die oxidations-induzierte Frakturierung. Darüber hinaus minimieren die Abwesenheit von tektonischer Aktivität und geringe prä-anthropogene Erosionsraten in dieser Region den Abtrag des mächtigen und kohäsiven Verwitterungsprofils und somit über den beschriebenen Feedback auch die chemische Verwitterungsrate. KW - Sri Lanka KW - chemical weathering KW - erosion KW - saprolite KW - weathering feedback KW - charnockite KW - critical zone KW - mineral weathering reactions KW - Sri Lanka KW - chemische Verwitterung KW - Erosion KW - Saprolit KW - Verwitterungsfeedback KW - Charnockit KW - kritische Zone KW - Mineralverwitterungsreaktionen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408503 ER - TY - THES A1 - Bortfeld, Silvia T1 - Analysis of Medicago truncatula transcription factors involved in the arbuscular mycorrhizal symbiosis T1 - Analyse von Medicago truncatula Transkriptionsfaktoren, die während der arbuskulären Mykorrhiz-Symbiose eine Rolle spielen N2 - For the first time the transcriptional reprogramming of distinct root cortex cells during the arbuscular mycorrhizal (AM) symbiosis was investigated by combining Laser Capture Mirodissection and Affymetrix GeneChip® Medicago genome array hybridization. The establishment of cryosections facilitated the isolation of high quality RNA in sufficient amounts from three different cortical cell types. The transcript profiles of arbuscule-containing cells (arb cells), non-arbuscule-containing cells (nac cells) of Rhizophagus irregularis inoculated Medicago truncatula roots and cortex cells of non-inoculated roots (cor) were successfully explored. The data gave new insights in the symbiosis-related cellular reorganization processes and indicated that already nac cells seem to be prepared for the upcoming fungal colonization. The mycorrhizal- and phosphate-dependent transcription of a GRAS TF family member (MtGras8) was detected in arb cells and mycorrhizal roots. MtGRAS shares a high sequence similarity to a GRAS TF suggested to be involved in the fungal colonization processes (MtRAM1). The function of MtGras8 was unraveled upon RNA interference- (RNAi-) mediated gene silencing. An AM symbiosis-dependent expression of a RNAi construct (MtPt4pro::gras8-RNAi) revealed a successful gene silencing of MtGras8 leading to a reduced arbuscule abundance and a higher proportion of deformed arbuscules in root with reduced transcript levels. Accordingly, MtGras8 might control the arbuscule development and life-time. The targeting of MtGras8 by the phosphate-dependent regulated miRNA5204* was discovered previously (Devers et al., 2011). Since miRNA5204* is known to be affected by phosphate, the posttranscriptional regulation might represent a link between phosphate signaling and arbuscule development. In this work, the posttranscriptional regulation was confirmed by mis-expression of miRNA5204* in M. truncatula roots. The miRNA-mediated gene silencing affects the MtGras8 transcript abundance only in the first two weeks of the AM symbiosis and the mis-expression lines seem to mimic the phenotype of MtGras8-RNAi lines. Additionally, MtGRAS8 seems to form heterodimers with NSP2 and RAM1, which are known to be key regulators of the fungal colonization process (Hirsch et al., 2009; Gobbato et al., 2012). These data indicate that MtGras8 and miRNA5204* are linked to the sym pathway and regulate the arbuscule development in phosphate-dependent manner. N2 - Die Leguminose Medicago truncatula (gehört zur Gattung des Schneckenklees) ist in der Lage sowohl eine Symbiose mit stickstofffixierenden Bakterien (Rhizobien), als auch mit Mykorrhiza-Pilzen einzugehen. Der Mykorrhiza-Pilz Rhizophagus irregularis dringt in die Wurzelrindenzellen ein und bildet Strukturen aus, die als Arbuskeln bezeichnet werden. Diese ermöglichen den Transfer von Nährstoffen, wie Phosphat in die Wurzelzellen. Die Pflanze liefert hingegen bis zu 20 % ihrer Photosyntheseprodukte an den Pilz. Da die Lebenszeit der Arbuskeln nur wenige Tage beträgt, können Wurzelrindenzellen mehrere Arbuskeln nacheinander beherbergen. Somit können neben arbuskelhaltigen, auch nicht-arbuskelhaltige Zellen in kolonisierten Wurzeln auftreten. Die nicht-arbuskelhaltigen Zellen beeinträchtigen die Sensitivität von Genregulationsanalysen, wenn die Genregulation während der Mykorrhiza-Symbiose anhand von ganzen kolonisierten Wurzeln untersucht wird. In dieser Arbeit konnte eine Zelltyp-spezifische Analyse der Genregulation von arbuskelhaltigen und nicht-arbuskelhaltigen Zellen durchgeführt, und eine Erhöhung der Sensitivität erreicht werden. Mittels Laser Capture Microdissection wurden Zellen aus Gefrierschnitten von Wurzeln isoliert. Aus den so gewonnen Zellen konnte RNA von ausreichender Qualität und Quantität extrahiert werden, um das Transkriptom der beiden Zelltypen mittels Mikroarrayhybridisierung zu untersuchen. Transkriptionsfaktoren (TFs) spielen wahrscheinlich eine Schlüsselrolle in der Umprogrammierung von Wurzelzellen während der Mykorrhiza-Symbiose. Daher wurde die Genregulation von TF-Genen in den zwei Zelltypen gezielt untersucht. Anhand von quantitativer RT-PCR und Promoter-Reporter-Fusionen wurde die differentielle Expression von mehreren TF-Transkripten in den verschiedenen Zelltypen bestätigt. Die Charakterisierung eines potentiellen GRAS TF (MtGRAS8) konnte eine stark Symbiose- und Phosphat-abhängige Induktion von Transkripten bestätigt werden. Mutanten mit verringerter MtGras8 Transkriptmenge wiesen eine verringerte Arbuskelzahl und deformierte Arbuskeln auf. MtGras8 scheint daher an der Arbuskelentwicklung beteiligt zu sein. Vorherige Experimente zeigten, dass MtGras8 Transkripte, von der Phosphat-regulierten MikroRNA5204* geschnitten werden (Devers et al., 2011). Dies konnte durch Überexpression der MikroRNA5204* in vivo bestätigt werden. Weiterhin konnten Protein-Protein-Interaktionen von MtGras8 mit bekannten GRAS TFs (NSP1, NSP2, RAM1) nachgewiesen und daraus eine Verbindung zu bekannten Symbiose-induzierten Signalkaskaden geschlossen werden. In dieser Arbeit wurde erstmals die Umprogrammierung von nicht-arbuskelhaltigen Zellen untersucht und neue Regulationselemente für die Kontrolle der Arbuskelentwicklung, wie MtGRAS8 und MikroRNA5204*, charakterisiert. KW - arbuskuläre Mykorrhiza-Symbiose KW - Transkriptionsfaktoren KW - Zelltyp-spezifisch KW - Transkriptomanalyse KW - arbuscular mycorrhizal symbiosis KW - transcription factors KW - cell type-specific KW - transcriptome analysis Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70664 ER - TY - THES A1 - Brothers, Soren M. T1 - Carbon gains, losses, and feedbacks in shallow, eutrophic lakes of phytoplankton and macrophyte dominance T1 - Kohlenstoff-Gewinne, Verluste und Rückkopplungen in flachen, nährstoffreichen Seen mit Dominanz von Phytoplankton und Makrophyten N2 - Lakes are increasingly being recognized as an important component of the global carbon cycle, yet anthropogenic activities that alter their community structure may change the way they transport and process carbon. This research focuses on the relationship between carbon cycling and community structure of primary producers in small, shallow lakes, which are the most abundant lake type in the world, and furthermore subject to intense terrestrial-aquatic coupling due to their high perimeter:area ratio. Shifts between macrophyte and phytoplankton dominance are widespread and common in shallow lakes, with potentially large consequences to regional carbon cycling. I thus compared a lake with clear-water conditions and a submerged macrophyte community to a turbid, phytoplankton-dominated lake, describing differences in the availability, processing, and export of organic and inorganic carbon. I furthermore examined the effects of increasing terrestrial carbon inputs on internal carbon cycling processes. Pelagic diel (24-hour) oxygen curves and independent fluorometric approaches of individual primary producers together indicated that the presence of a submerged macrophyte community facilitated higher annual rates of gross primary production than could be supported in a phytoplankton-dominated lake at similar nutrient concentrations. A simple model constructed from the empirical data suggested that this difference between regime types could be common in moderately eutrophic lakes with mean depths under three to four meters, where benthic primary production is a potentially major contributor to the whole-lake primary production. It thus appears likely that a regime shift from macrophyte to phytoplankton dominance in shallow lakes would typically decrease the quantity of autochthonous organic carbon available to lake food webs. Sediment core analyses indicated that a regime shift from macrophyte to phytoplankton dominance was associated with a four-fold increase in carbon burial rates, signalling a major change in lake carbon cycling dynamics. Carbon mass balances suggested that increasing carbon burial rates were not due to an increase in primary production or allochthonous loading, but instead were due to a higher carbon burial efficiency (carbon burial / carbon deposition). This, in turn, was associated with diminished benthic mineralization rates and an increase in calcite precipitation, together resulting in lower surface carbon dioxide emissions. Finally, a period of unusually high precipitation led to rising water levels, resulting in a feedback loop linking increasing concentrations of dissolved organic carbon (DOC) to severely anoxic conditions in the phytoplankton-dominated system. High water levels and DOC concentrations diminished benthic primary production (via shading) and boosted pelagic respiration rates, diminishing the hypolimnetic oxygen supply. The resulting anoxia created redox conditions which led to a major release of nutrients, DOC, and iron from the sediments. This further transformed the lake metabolism, providing a prolonged summertime anoxia below a water depth of 1 m, and leading to the near-complete loss of fish and macroinvertebrates. Pelagic pH levels also decreased significantly, increasing surface carbon dioxide emissions by an order of magnitude compared to previous years. Altogether, this thesis adds an important body of knowledge to our understanding of the significance of the benthic zone to carbon cycling in shallow lakes. The contribution of the benthic zone towards whole-lake primary production was quantified, and was identified as an important but vulnerable site for primary production. Benthic mineralization rates were furthermore found to influence carbon burial and surface emission rates, and benthic primary productivity played an important role in determining hypolimnetic oxygen availability, thus controlling the internal sediment loading of nutrients and carbon. This thesis also uniquely demonstrates that the ecological community structure (i.e. stable regime) of a eutrophic, shallow lake can significantly influence carbon availability and processing. By changing carbon cycling pathways, regime shifts in shallow lakes may significantly alter the role of these ecosystems with respect to the global carbon cycle. N2 - Seen werden zunehmend als wichtige Komponente im globalen Kohlenstoffkreislauf anerkannt. Natürliche Veränderungen und anthropogene Aktivitäten beeinflussen die Struktur der Artengemeinschaft von Seen, was Auswirkungen auf den Transport und Umsatz von Kohlenstoff hat. Diese Arbeit konzentriert sich auf die Beziehung zwischen Kohlenstoffkreislauf und der Gemeinschaftsstruktur der Primärproduzenten in kleinen Flachseen. Diese sind der weltweit häufigste Seentyp und weisen durch ihren im Vergleich zur Fläche großen Umfang eine intensive aquatisch-terrestrische Kopplung auf. In Flachseen treten oft Regimewechsel zwischen Makrophyten- und Phytoplankton-Dominanz auf. Diese können potenziell große Konsequenzen für den regionalen Kohlenstoffkreislauf haben. In dieser Dissertation vergleiche ich einen Klarwassersee mit submersen Makrophyten und einen trüben, Phytoplankton-dominierten See hinsichtlich Verfügbarkeit, Umsatz und Export von organischem und anorganischem Kohlenstoff. Des Weiteren habe ich den Effekt der erhöhten Zufuhr von terrestrischem Kohlenstoff auf den internen Kohlenstoffumsatz untersucht. Sowohl die Tagesgänge der pelagischen Sauerstoff-Konzentrationen als auch Fluoreszenz-basierte Messungen der Primärproduktion bewiesen, dass die Präsenz von submersen Makrophyten eine höhere jährliche Brutto-Primärproduktion im Vergleich zu einem Phytoplankton-dominierten See mit ähnlichen Nährstoffkonzentrationen ermöglicht. Ein einfaches, auf den empirischen Daten basierendes Model zeigt, dass diese Unterschiede in der Brutto-Primärproduktion typisch sind für moderat eutrophe Seen mit einer mittleren Tiefe von unter 3 bis vier Metern. In diesen Seen leistet die benthische Primärproduktion den Hauptbeitrag zur Primärproduktion des ganzen Sees. Daraus wird ersichtlich, dass Regimewechsel von Makrophyten- zur Phytoplankton-Dominanz in Flachseen die Verfügbarkeit von autochthonem organischem Kohlenstoff für das Nahrungsnetz reduzieren. Paläolimnologische Analysen in Sedimentkernen beider Seen wiesen darauf hin, dass der Verlust der Makrophyten mit einer vierfachen Zunahme der Kohlenstoff-Speicherraten einhergeht, und somit zu einer großen Veränderung der Dynamik des Kohlenstoffkreislaufs im See führt. Unsere Kohlenstoff-Massenbilanzen zeigen, dass die Erhöhung der Kohlenstoff-Speicherung im Sediment nicht durch die Erhöhung der Primärproduktion oder durch externe Quellen, sondern durch erhöhte der Effizienz der Speicherung begründet war. Dies geht mit einer reduzierten benthischen Mineralisierungsrate und einer erhöhten Calcitfällung einher und führt zu reduzierten Kohlendioxid-Emissionen. Eine Periode ungewöhnlich hoher Niederschläge mit erhöhten Wasserständen führte im Phytoplankton-dominierten See zu zu einem starken Anstieg der Konzentrationen an gelöstem organischem Kohlenstoff (DOC) und zu anoxischen Bedingungen. Es wurde postuliert, dass zwischen diesen Prozessen eine positive Rückkopplung besteht. Die hohen Wasserstände und DOC-Konzentrationen reduzierten die Lichtversorgung und damit die Primärproduktion im Benthal und erhöhten die pelagischen Respirationsraten. Dadurch verringerte sich die Sauerstoffverfügbarkeit im Hypolimnion. Die dadurch erzeugten Redox-Verhältnisse führten zu einer Freisetzung großer Mengen an Nährstoffen, DOC und Eisen aus dem Sediment. Die während des gesamten Sommers andauernden anoxischen Verhältnisse in Wassertiefen unter 1 m führten zu einem fast vollständigen Verlust von Fischen und Makroinvertebraten. Zusätzlich wurde der pH-Wert im Pelagial signifikant erniedrigt und die Kohlenstoffdioxid-Emissionen im Vergleich zu früheren Jahren verzehnfacht. Insgesamt trägt diese Dissertation wesentliche Aspekte zum besseren Verständnis der Bedeutung des Benthals für den Kohlenstoffkreislauf in Flachseen bei. Der Anteil der benthischen Zone an der Primärproduktion in kleinen Flachseen wurde in Relation zur Gesamtproduktion des Systems quantifiziert. Letztlich zeigt diese Arbeit, dass die Gemeinschaftsstruktur der Primärproduzenten eines eutrophen Flachsees die Verfügbarkeit und den Umsatz von Kohlenstoff signifikant beeinflusst. Regimewechsel in Flachseen können durch Änderungen im internen Kohlenstoffkreislauf deren Rolle im globalen Kohlenstoffkreislauf verändern. KW - Carbon Cycling KW - Primärproduktion KW - Anoxie KW - Brownification KW - Carbon cycling KW - primary production KW - anoxia KW - brownification Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68200 ER - TY - THES A1 - Dawoud, Wesam T1 - Scalability and performance management of internet applications in the cloud T1 - Skalierbarkeit und Performance-Management von Internetanwendungen in der Cloud N2 - Cloud computing is a model for enabling on-demand access to a shared pool of computing resources. With virtually limitless on-demand resources, a cloud environment enables the hosted Internet application to quickly cope when there is an increase in the workload. However, the overhead of provisioning resources exposes the Internet application to periods of under-provisioning and performance degradation. Moreover, the performance interference, due to the consolidation in the cloud environment, complicates the performance management of the Internet applications. In this dissertation, we propose two approaches to mitigate the impact of the resources provisioning overhead. The first approach employs control theory to scale resources vertically and cope fast with workload. This approach assumes that the provider has knowledge and control over the platform running in the virtual machines (VMs), which limits it to Platform as a Service (PaaS) and Software as a Service (SaaS) providers. The second approach is a customer-side one that deals with the horizontal scalability in an Infrastructure as a Service (IaaS) model. It addresses the trade-off problem between cost and performance with a multi-goal optimization solution. This approach finds the scale thresholds that achieve the highest performance with the lowest increase in the cost. Moreover, the second approach employs a proposed time series forecasting algorithm to scale the application proactively and avoid under-utilization periods. Furthermore, to mitigate the interference impact on the Internet application performance, we developed a system which finds and eliminates the VMs suffering from performance interference. The developed system is a light-weight solution which does not imply provider involvement. To evaluate our approaches and the designed algorithms at large-scale level, we developed a simulator called (ScaleSim). In the simulator, we implemented scalability components acting as the scalability components of Amazon EC2. The current scalability implementation in Amazon EC2 is used as a reference point for evaluating the improvement in the scalable application performance. ScaleSim is fed with realistic models of the RUBiS benchmark extracted from the real environment. The workload is generated from the access logs of the 1998 world cup website. The results show that optimizing the scalability thresholds and adopting proactive scalability can mitigate 88% of the resources provisioning overhead impact with only a 9% increase in the cost. N2 - Cloud computing ist ein Model fuer einen Pool von Rechenressourcen, den sie auf Anfrage zur Verfuegung stellt. Internetapplikationen in einer Cloud-Infrastruktur koennen bei einer erhoehten Auslastung schnell die Lage meistern, indem sie die durch die Cloud-Infrastruktur auf Anfrage zur Verfuegung stehenden und virtuell unbegrenzten Ressourcen in Anspruch nehmen. Allerdings sind solche Applikationen durch den Verwaltungsaufwand zur Bereitstellung der Ressourcen mit Perioden von Verschlechterung der Performanz und Ressourcenunterversorgung konfrontiert. Ausserdem ist das Management der Performanz aufgrund der Konsolidierung in einer Cloud Umgebung kompliziert. Um die Auswirkung des Mehraufwands zur Bereitstellung von Ressourcen abzuschwächen, schlagen wir in dieser Dissertation zwei Methoden vor. Die erste Methode verwendet die Kontrolltheorie, um Ressourcen vertikal zu skalieren und somit schneller mit einer erhoehten Auslastung umzugehen. Diese Methode setzt voraus, dass der Provider das Wissen und die Kontrolle über die in virtuellen Maschinen laufende Plattform hat. Der Provider ist dadurch als „Plattform als Service (PaaS)“ und als „Software als Service (SaaS)“ Provider definiert. Die zweite Methode bezieht sich auf die Clientseite und behandelt die horizontale Skalierbarkeit in einem Infrastruktur als Service (IaaS)-Model. Sie behandelt den Zielkonflikt zwischen den Kosten und der Performanz mit einer mehrzieloptimierten Loesung. Sie findet massstaebliche Schwellenwerte, die die hoechste Performanz mit der niedrigsten Steigerung der Kosten gewaehrleisten. Ausserdem ist in der zweiten Methode ein Algorithmus der Zeitreifenvorhersage verwendet, um die Applikation proaktiv zu skalieren und Perioden der nicht optimalen Ausnutzung zu vermeiden. Um die Performanz der Internetapplikation zu verbessern, haben wir zusaetzlich ein System entwickelt, das die unter Beeintraechtigung der Performanz leidenden virtuellen Maschinen findet und entfernt. Das entwickelte System ist eine leichtgewichtige Lösung, die keine Provider-Beteiligung verlangt. Um die Skalierbarkeit unserer Methoden und der entwickelten Algorithmen auszuwerten, haben wir einen Simulator namens „ScaleSim“ entwickelt. In diesem Simulator haben wir Komponenten implementiert, die als Skalierbarkeitskomponenten der Amazon EC2 agieren. Die aktuelle Skalierbarkeitsimplementierung in Amazon EC2 ist als Referenzimplementierung fuer die Messesung der Verbesserungen in der Performanz von skalierbaren Applikationen. Der Simulator wurde auf realistische Modelle der RUBiS-Benchmark angewendet, die aus einer echten Umgebung extrahiert wurden. Die Auslastung ist aus den Zugriffslogs der World Cup Website von 1998 erzeugt. Die Ergebnisse zeigen, dass die Optimierung der Schwellenwerte und der angewendeten proaktiven Skalierbarkeit den Verwaltungsaufwand zur Bereitstellung der Ressourcen bis um 88% reduziert kann, während sich die Kosten nur um 9% erhöhen. KW - Cloud Computing KW - Leistungsfähigkeit KW - Skalierbarkeit KW - Internetanwendungen KW - Cloud computing KW - Performance KW - Scalability KW - Internet applications Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68187 ER - TY - THES A1 - Dethloff, Frederik T1 - In vivo 13C stable isotope tracing of single leaf development in the cold T1 - Stabile 13C Isotopenmarkierung zur in vivo Untersuchung der Einzelblattentwicklung in der Kälte N2 - Measuring the metabolite profile of plants can be a strong phenotyping tool, but the changes of metabolite pool sizes are often difficult to interpret, not least because metabolite pool sizes may stay constant while carbon flows are altered and vice versa. Hence, measuring the carbon allocation of metabolites enables a better understanding of the metabolic phenotype. The main challenge of such measurements is the in vivo integration of a stable or radioactive label into a plant without perturbation of the system. To follow the carbon flow of a precursor metabolite, a method is developed in this work that is based on metabolite profiling of primary metabolites measured with a mass spectrometer preceded by a gas chromatograph (Wagner et al. 2003; Erban et al. 2007; Dethloff et al. submitted). This method generates stable isotope profiling data, besides conventional metabolite profiling data. In order to allow the feeding of a 13C sucrose solution into the plant, a petiole and a hypocotyl feeding assay are developed. To enable the processing of large numbers of single leaf samples, their preparation and extraction are simplified and optimised. The metabolite profiles of primary metabolites are measured, and a simple relative calculation is done to gain information on carbon allocation from 13C sucrose. This method is tested examining single leaves of one rosette in different developmental stages, both metabolically and regarding carbon allocation from 13C sucrose. It is revealed that some metabolite pool sizes and 13C pools are tightly associated to relative leaf growth, i.e. to the developmental stage of the leaf. Fumaric acid turns out to be the most interesting candidate for further studies because pool size and 13C pool diverge considerably. In addition, the analyses are also performed on plants grown in the cold, and the initial results show a different metabolite pool size pattern across single leaves of one Arabidopsis rosette, compared to the plants grown under normal temperatures. Lastly, in situ expression of REIL genes in the cold is examined using promotor-GUS plants. Initial results suggest that single leaf metabolite profiles of reil2 differ from those of the WT. N2 - Messungen des pflanzlichen Metaboloms können ein hilfreiches Werkzeug sein, um Pflanzen zu phänotypisieren. Jedoch sind die Änderungen der Poolgrößen teilweise schwer zu interpretieren, weil sich nicht nur die Poolgrößen sondern auch die Kohlenstoffflüsse unabhängig voneinander ändern können. Werden nun zusätzlich Informationen über die Flüsse ermittelt, kann der pflanzliche Phänotyp deutlich genauer beschrieben werden. Die größte Herausforderung für diese Messungen ist die In-vivo-Integration einer stabilen oder radioaktiven Markierung in einer Pflanze, ohne das System dabei zu stören. In dieser Arbeit wird ein Verfahren entwickelt, um die Verteilung von Kohlenstoffen aus einer gefütterten Vorstufe zu messen. Die Messung basiert dabei auf einem Primärmetabolitenprofil, das mit Hilfe eines Massenspektrometers mit vorgeschaltetem Gaschromatographen erstellt wird (Wagner et al. 2003; Erban et al. 2007; Dethloff et al. eingereicht). Mit dieser Methode ist es einfach möglich, stabile Isotopenprofildaten neben herkömmlichen Metabolitprofildaten zu erzeugen. Die Vorstufe, in diesem Fall 13C Saccharose, wird dazu mit Hilfe eines neuen Petiolen- und Hypokotyl-Fütterungs-Assay in die Pflanze gefüttert. Um die große Menge an Einzelblattproben aufzuarbeiten, die dabei anfallen, wird eine vereinfachte und optimierte Extraktion angewendet. Mit Hilfe einer einfachen Berechnung kann aus den Messdaten eine relative Verteilung des Kohlenstoffs aus 13C Saccharose bestimmt werden. Die Funktionalität dieses Verfahrens wird an Einzelblättern von Arabidopsis-Rosetten gezeigt, wobei sowohl Primärmetabolitenprofile als auch stabile Isotopenprofile erzeugt und untersucht werden. Es kann hierbei gezeigt werden, dass konventionelle Poolgrößen und 13C Poolgrößen einiger Metaboliten eng mit dem relativen Wachstum einzelner Blattpositionen bzw. mit dem jeweiligen Entwicklungsstadium der Blätter zusammenhängen. Anders als bei den meisten anderen Metaboliten zeigen die konventionellen Poolgrößen und 13C Poolgrößen von Fumarsäure ein unterschiedliches Verhalten in den einzelnen Blättern, was Fumarsäure zum interessantesten Kandidaten für weitere Studien macht. Die beschriebenen Untersuchungen werden weiterhin an in Kälte gewachsenen Pflanzen durchgeführt, wobei erste Ergebnisse ein verändertes Metabolitenprofil in den einzelnen Blättern zeigen. Des Weiteren wird die In-situ-Expression von REIL-Genen mit Hilfe von Promotor-GUS-Reportern untersucht. Erste Ergebnisse von Einzelblatt-Metabolitenprofilen der reil2 zeigen einen deutlichen Unterschied zum WT. KW - stable isotope tracing KW - metabolism KW - sucrose KW - carbon flow KW - qualitative pathway interpretation Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70486 ER - TY - THES A1 - Frankovitch, Christine Marie T1 - Optical methods for monitoring biological parameters of phototropic microorganisms during cultivation T1 - Optische Verfahren zur Beobachtung biologischer Parameter während der Kultivierung phototropischer Mikroorganismen N2 - Phototropic microalgae have a large potential for producing valuable substances for the feed, food, cosmetics, pigment, bioremediation, and pharmacy industries as well as for biotechnological processes. Today it is estimated that the microalgal aquaculture worldwide production is 5000 tons of dry matter per year (not taking into account processed products) making it an approximately $1.25 billion U.S. per year industry. In this work, several spectroscopic techniques were utilized for the investigation of microalgae cells. Specifically, photondensity wave spectroscopy was applied as a technique for the on-line observation of the culture. For effective evaluation of the photosynthetic growth processes, fast and non-invasive sensor systems that analyze the relevant biological and technical process parameters are preferred. Traditionally, the biomass in a photobioreactor is quantified with the help of turbidimetry measurements, which require extensive calibration. Another problem frequently encountered when using spectral analysis for investigating solutions is that samples of interest are often undiluted and highly scattering and do not adhere to Beer-Lambert's law. Due to the fluorescence properties of chlorophyll, fluorescence spectroscopy techniques including fluorescence lifetime imaging and single photon counting could be applied to provide images of the cells as well as determine the effects of excitation intensity on the fluorescence lifetime, which is an indicator of the condition of the cell. A photon density wave is a sinusoidally intensity-modulated optical wave stemming from a point-source of light, which propagates through diffuse medium and exhibits amplitude and phase variations. Light propagation though strongly scattering media can be described by the P1 approximation to the Boltzmann transport equation. Photon density wave spectroscopy enables the ability to differentiate between scattered and absorbed light, which is desired so that an independent determination of the reduced scattering and absorption coefficients can be made. The absorption coefficient is related to the pigment content in the cells, and the reduced scattering coefficient can be used to characterize physical and morphological properties of the medium and was here applied for the determination of the average cell size. N2 - Phototropische Mikroalgen besitzen ein großes Potential für die Herstellung von wertvollen Substanzen sowohl für die Futtermittel-, Lebensmittel-, kosmetische und pharmazeutische Industrie, als auch für die Farbstoffsynthese. Heutzutage werden schätzungsweise 5000 Tonnen Mikroalgen Trockensubstanz pro Jahr mit einem Jahresumsatz von 1,25 Mrd. US-Dollar produziert. In dieser Arbeit wurden diverse spektroskopische Untersuchungsmethoden für die Betrachtung der Zellen verwendet. Die Photonendichtewellenspektroskopie (PDW) fand dabei insbesondere bei der on-line Beobachtung der Zellen Anwendung. Voraussetzungen für die effektive Beobachtung von photosynthetischen Wachstumsprozessen sind schnell und nicht-invasiv arbeitende Sensoren. Normalerweise wird die dabei zu untersuchende Biomasse in einem Photobioreaktor mittels Trübungsmessungen quantifiziert. Dies setzt jedoch eine sehr aufwendige Kalibration voraus. Da diese Proben zusätzlich meist in unverdünnter Form vorliegen, streuen sie stark und folgen daher nicht dem Lambert-Beer'schen Gesetz. Aufgrund der Fluoreszenzeigenschaften des Chlorophylls können fluoreszenzspektroskopische Methoden wie fluorescence lifetime imaging microscopy (FLIM) und time correlated single photon counting (TCSPC) angwendet werden. Diese Methoden werden dabei für die visuelle Darstellung der Zellen und für die Messung der Fluoreszenzlebenszeit genutzt. Eine Photondichtewelle ist eine sinusförmig intensitätsmodulierte optische Welle, die sich, ausgehend von einer punktförmigen Lichtquelle, durch das untersuchte Medium ausbreitet, wobei sich Phase und Amplitude der Welle verändern. Die Ausbreitung der Welle wird von der P1-Näherung der Boltzmann-Transport-Gleichung beschrieben. Mittels PDW kann zwischen streuenden und absorbierenden Eigenschaften von trüben Probe unterschieden werden. Dies erlaubt die Absolutbestimmung des Absorptions- und reduzierten Streukoeffizienten, die für die Qualifizierung der Probe, insbesondere der Teilchengrößenbestimmung, herangezogen werden. KW - Photonendichtewellen KW - Mikroalgen KW - Photon density waves KW - Microalgae KW - On.Line Monitoring Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-15403 ER - TY - THES A1 - Fürstenau, Cornelia T1 - The impact of silvicultural strategies and climate change on carbon sequestration and other forest ecosystem functions T1 - Der Einfluss von Waldbewirtschaftungsstrategien und Klimawandel auf die Kohlenstoffspeicherung und andere Waldfunktionen N2 - Forests are a key resource serving a multitude of functions such as providing income to forest owners, supplying industries with timber, protecting water resources, and maintaining biodiversity. Recently much attention has been given to the role of forests in the global carbon cycle and their management for increased carbon sequestration as a possible mitigation option against climate change. Furthermore, the use of harvested wood can contribute to the reduction of atmospheric carbon through (i) carbon sequestration in wood products, (ii) the substitution of non-wood products with wood products, and (iii) through the use of wood as a biofuel to replace fossil fuels. Forest resource managers are challenged by the task to balance these multiple while simultaneously meeting economic requirements and taking into consideration the demands of stakeholder groups. Additionally, risks and uncertainties with regard to uncontrollable external variables such as climate have to be considered in the decision making process. In this study a scientific stakeholder dialogue with forest-related stakeholder groups in the Federal State of Brandenburg was accomplished. The main results of this dialogue were the definition of major forest functions (carbon sequestration, groundwater recharge, biodiversity, and timber production) and priority setting among them by the stakeholders using the pair-wise comparison technique. The impact of different forest management strategies and climate change scenarios on the main functions of forest ecosystems were evaluated at the Kleinsee management unit in south-east Brandenburg. Forest management strategies were simulated over 100 years using the forest growth model 4C and a wood product model (WPM). A current climate scenario and two climate change scenarios based on global circulation models (GCMs) HadCM2 and ECHAM4 were applied. The climate change scenario positively influenced stand productivity, carbon sequestration, and income. The impact on the other forest functions was small. Furthermore, the overall utility of forest management strategies were compared under the priority settings of stakeholders by a multi-criteria analysis (MCA) method. Significant differences in priority setting and the choice of an adequate management strategy were found for the environmentalists on one side and the more economy-oriented forest managers of public and private owned forests on the other side. From an ecological perspective, a conservation strategy would be preferable under all climate scenarios, but the business as usual management would also fit the expectations under the current climate. In contrast, a forest manager in public-owned forests or a private forest owner would prefer a management strategy with an intermediate thinning intensity and a high share of pine stands to enhance income from timber production while maintaining the other forest functions. The analysis served as an example for the combined application of simulation tools and a MCA method for the evaluation of management strategies under multi-purpose and multi-user settings with changing climatic conditions. Another focus was set on quantifying the overall effect of forest management on carbon sequestration in the forest sector and the wood industry sector plus substitution effects. To achieve this objective, the carbon emission reduction potential of material and energy substitution (Smat and Sen) was estimated based on a literature review. On average, for each tonne of dry wood used in a wood product substituting a non-wood product, 0.71 fewer tonnes of fossil carbon are emitted into to the atmosphere. Based on Smat and Sen, the calculation of the carbon emission reduction through substitution was implemented in the WPM. Carbon sequestration and substitution effects of management strategies were simulated at three local scales using the WPM and the forest growth models 4C (management unit level) or EFISCEN (federal state of Brandenburg and Germany). An investigation was conducted on the influence of uncertainties in the initialisation of the WPM, Smat, and basic conditions of the wood product sector on carbon sequestration. Results showed that carbon sequestration in the wood industry sector plus substitution effects exceeded sequestration in the forest sector. In contrast to the carbon pools in the forest sector, which acted as sink or source, the substitution effects continually reduced carbon emission as long as forests are managed and timber is harvested. The main climate protection function was investigated for energy substitution which accounted for about half of the total carbon sequestration, followed by carbon storage in landfills. In Germany, the absolute annual carbon sequestration in the forest and wood industry sector plus substitution effects was 19.9 Mt C. Over 50 years the wood industry sector contributed 70% of the total carbon sequestration plus substitution effects. N2 - Wälder beeinflussen in vielfältiger Weise unser Leben. Für den Waldbesitzer sind sie Einkommensquelle, die Holzindustrie versorgen sie mit dem Rohstoff, aus dem unzählige Dinge für den täglichen Bedarfs hergestellt werden, wie zum Beispiel Baumaterialien, Möbel, Gartengeräte, Spielzeug und Papier. Außerdem versorgen Wälder uns mit sauberem Grundwasser, sind Lebensraum für Pflanzen und Tiere und tragen somit zum Erhalt der Artenvielfalt bei. Nicht zuletzt beeinflussen Wälder das Klimasystem, da sie der Atmosphäre das Treibhausgas CO2 entziehen und Kohlenstoff in Biomasse und Boden speichern. Förster stehen nun vor der anspruchsvollen Aufgabe, eine Balance zwischen den vielfältigen und oft auch gegensätzlichen Waldfunktionen zu finden und die Ansprüche von Interessengruppen wahrzunehmen. Zusätzlich müssen im waldbaulichen Entscheidungsprozess Risiken und Unsicherheiten durch unberechenbare externe Faktoren, wie das Klima, beachtet werden. Ziel der Arbeit war es, den Einfluss von Klima und Waldbaustrategien auf Waldfunktionen zu untersuchen. Als Testgebiet fungierte das Revier Kleinsee im Südosten Brandenburgs, in dem Kiefern- und Eichenbestände vorherrschen. In einem wissenschaftlichen Dialog mit Angestellten der Forstbehörde, Privatwaldbesitzern, Vertretern von Naturschutzverbänden sowie Wissenschaftlern definierten die Teilnehmer die wichtigsten Waldfunktionen: Kohlenstoffspeicherung, Grundwasserneubildung, Biodiversität und Holzproduktion. Die Simulationen wurden mit Hilfe des Waldwachstumsmodells 4C und einem neu implementierten Holzproduktmodell (WPM) über einen Zeitraum von 100 Jahren durchgeführt. Dabei wurden den heutigen Klimabedingungen zwei Klimaänderungsszenarien gegenübergestellt, die auf den globalen Zirkulationsmodellen HadCM2 und ECHAM4 basieren. Es stellte sich heraus, dass unter den angenommenen Klimaänderungen das Wachstum der Bestände steigt und sich damit die Kohlenstoffspeicherung und der Ertrag aus Holzernten erhöht, wohingegen Biodiversität und Grundwasserneubildung nur sehr gering beeinflusst werden. Der Nutzen der Waldbewirtschaftungsstrategien für drei Interessensgruppen (Forstbehörde, private Waldbesitzer, Naturschutzvereine) wurde mit einer multikriteriellen Analysemethode bewertet. Dabei unterschieden sich die Rangfolge und Gewichtung der einzelnen Waldfunktionen sowie die daraus resultierende Wahl der Waldbaustrategien zwischen den Naturschützern einerseits sowie den stärker ökonomisch orientierten Landeswaldförstern und privaten Waldbesitzern anderseits. Naturschutzvereine bevorzugen das Einstellen der Waldbewirtschaftung, aber auch die aktuelle Waldbaustrategie, mit mäßiger Durchforstungsintensität und einem hohen Anteil an Eichenbeständen entspricht ihren Zielsetzungen. Dagegen lag die Präferenz der Landeswaldförster sowie privaten Waldbesitzer auf einer Walbaustrategie mit einem hohen Anteil an Kiefernbeständen, um den Ertrag unter Beachtung der anderen Waldfunktionen zu steigern. Als Fazit geht aus dieser Teilstudie hervor, dass die Bewertung von Waldbaustrategien hinsichtlich ihrer Eignung für eine multifunktionale Waldbewirtschaftung unter Beachtung von Ansprüchen verschiedener Interessengruppen und ungewissen klimatischen Bedingungen unter Verwendung von 4C und einer multikriteriellen Analysemethode sehr gut möglich ist. Besonderes Augenmerk galt dem Einfluss von Waldbaustrategien auf den Kohlenstoffkreislauf, wobei nicht nur die Kohlenstoffspeicherung im Wald, sondern auch in Holzprodukten, sowie die Verringerung von CO2-Emissionen durch energetische und stoffliche Nutzung von Holz betrachtet wurden. Die potentielle Reduktion von CO2-Emissionen durch das Ersetzen von Erzeugnissen und Energie aus nicht nachwachsenden Rohstoffen durch Holz (Smat und Sen) wurde basierend auf Daten verschiedener Studien geschätzt. Eine Sensitivitätsanalyse untersuchte Unsicherheiten bei der Initialisierung des WPMs und der Berechung von Smat. Verschiedene Szenarien führten zu einem besseren Verständnis dafür, wie sich Änderungen im Energiesektor und Holzproduktsektor auf das Potential, Kohlenstoff zu speichern bzw. CO2-Emissionen zu verringen auswirken. Die Ergebnisse zeigen, dass die Reduzierung von CO2-Emissionen im Holzproduktsektor durch die Nutzung von Holz als Werkstoff und Brennstoff höher ist als durch die Akkumulation von Kohlenstoff im Wald. Im Gegensatz zu den Kohlenstoffspeichern im Wald, die sowohl Quellen als auch Senken sein können, werden durch die Nutzung von Holz CO2-Emissionen verringert, solange im Zuge der Waldbewirtschaftung Holz für die Weiterverarbeitung zur Verfügung gestellt wird. Simulationen auf Bundesebene ergaben, dass in Deutschland die Forst- und Holzwirtschaft jährlich dazu beitragen die CO2-Emissionen um 19,9 Mt Kohlenstoff zu verringern, wobei 70% auf die Holzindustrie und den Substitutionseffekt entfallen. KW - Kohlenstoffspeicherung KW - Waldwachstumsmodell 4C KW - Holzprodukte KW - Klimawandel KW - carbon sequestration KW - forest growth model 4C KW - wood products KW - climate change Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-27657 ER - TY - THES A1 - Glatzel, Stefan T1 - Cellulose based transition metal nano-composites : structuring and development T1 - Zellulose-basierte Übergangsmetall Nano-Komposite : Strukturierung und Entwicklung N2 - Cellulose is the most abundant biopolymer on earth. In this work it has been used, in various forms ranging from wood to fully processed laboratory grade microcrystalline cellulose, to synthesise a variety of metal and metal carbide nanoparticles and to establish structuring and patterning methodologies that produce highly functional nano-hybrids. To achieve this, the mechanisms governing the catalytic processes that bring about graphitised carbons in the presence of iron have been investigated. It was found that, when infusing cellulose with an aqueous iron salt solution and heating this mixture under inert atmosphere to 640 °C and above, a liquid eutectic mixture of iron and carbon with an atom ratio of approximately 1:1 forms. The eutectic droplets were monitored with in-situ TEM at the reaction temperature where they could be seen dissolving amorphous carbon and leaving behind a trail of graphitised carbon sheets and subsequently iron carbide nanoparticles. These transformations turned ordinary cellulose into a conductive and porous matrix that is well suited for catalytic applications. Despite these significant changes on the nanometre scale the shape of the matrix as a whole was retained with remarkable precision. This was exemplified by folding a sheet of cellulose paper into origami cranes and converting them via the temperature treatment in to magnetic facsimiles of those cranes. The study showed that the catalytic mechanisms derived from controlled systems and described in the literature can be transferred to synthetic concepts beyond the lab without loss of generality. Once the processes determining the transformation of cellulose into functional materials were understood, the concept could be extended to other metals and metal-combinations. Firstly, the procedure was utilised to produce different ternary iron carbides in the form of MxFeyC (M = W, Mn). None of those ternary carbides have thus far been produced in a nanoparticle form. The next part of this work encompassed combinations of iron with cobalt, nickel, palladium and copper. All of those metals were also probed alone in combination with cellulose. This produced elemental metal and metal alloy particles of low polydispersity and high stability. Both features are something that is typically not associated with high temperature syntheses and enables to connect the good size control with a scalable process. Each of the probed reactions resulted in phase pure, single crystalline, stable materials. After showing that cellulose is a good stabilising and separating agent for all the investigated types of nanoparticles, the focus of the work at hand is shifted towards probing the limits of the structuring and pattering capabilities of cellulose. Moreover possible post-processing techniques to further broaden the applicability of the materials are evaluated. This showed that, by choosing an appropriate paper, products ranging from stiff, self-sustaining monoliths to ultra-thin and very flexible cloths can be obtained after high temperature treatment. Furthermore cellulose has been demonstrated to be a very good substrate for many structuring and patterning techniques from origami folding to ink-jet printing. The thereby resulting products have been employed as electrodes, which was exemplified by electrodepositing copper onto them. Via ink-jet printing they have additionally been patterned and the resulting electrodes have also been post functionalised by electro-deposition of copper onto the graphitised (printed) parts of the samples. Lastly in a preliminary test the possibility of printing several metals simultaneously and thereby producing finely tuneable gradients from one metal to another have successfully been made. Starting from these concepts future experiments were outlined. The last chapter of this thesis concerned itself with alternative synthesis methods of the iron-carbon composite, thereby testing the robustness of the devolved reactions. By performing the synthesis with partly dissolved scrap metal and pieces of raw, dry wood, some progress for further use of the general synthesis technique were made. For example by using wood instead of processed cellulose all the established shaping techniques available for wooden objects, such as CNC milling or 3D prototyping, become accessible for the synthesis path. Also by using wood its intrinsic well defined porosity and the fact that large monoliths are obtained help expanding the prospect of using the composite. It was also demonstrated in this chapter that the resulting material can be applied for the environmentally important issue of waste water cleansing. Additionally to being made from renewable resources and by a cheap and easy one-pot synthesis, the material is recyclable, since the pollutants can be recovered by washing with ethanol. Most importantly this chapter covered experiments where the reaction was performed in a crude, home-built glass vessel, fuelled – with the help of a Fresnel lens – only by direct concentrated sunlight irradiation. This concept carries the thus far presented synthetic procedures from being common laboratory syntheses to a real world application. Based on cellulose, transition metals and simple equipment, this work enabled the easy one-pot synthesis of nano-ceramic and metal nanoparticle composites otherwise not readily accessible. Furthermore were structuring and patterning techniques and synthesis routes involving only renewable resources and environmentally benign procedures established here. Thereby it has laid the foundation for a multitude of applications and pointed towards several future projects reaching from fundamental research, to application focussed research and even and industry relevant engineering project was envisioned. N2 - Die vorliegende Arbeit beschäftigt sich mit der Synthese und Strukturierung von Nanokompositen, d.h. mit ausgedehnten Strukturen, welche Nanopartikel enthalten. Im Zuge der Arbeit wurde der Mechanismus der katalytischen Graphitisierung, ein Prozess, bei dem ungeordneter Kohlenstoff durch metallische Nanopartikel in geordneten (graphitischen) Kohlenstoff überführt wird, aufgeklärt. Dies wurde exemplarisch am Beispiel von Zellulose und Eisen durchgeführt. Die untersuchte Synthese erfolgte durch das Lösen eines Eisensalzes in Wasser und die anschließende Zugabe von so viel Zellulose, dass das die gesamte Eisensalzlösung aufgenommen wurde. Die so erhaltene Mischung wurde anschließend unter Schutzgas innerhalb kürzester Zeit auf 800 °C erhitzt. Hierbei zeigte sich, dass zu Beginn der Reaktion Eisenoxidnanopartikel (Rost) auf der Oberfläche der Zellulose entstehen. Beim weiteren Erhöhen der Temperatur werden diese Partikel zu Eisenpartikeln umgewandelt. Diese lösen dann kleine Bereiche der Zellulose auf, wandeln sich in Eisenkarbid um und scheiden graphitischen Kohlenstoff ab. Nach der Reaktion sind die Zellulosefasern porös, jedoch bleibt ihre Faserstruktur vollkommen erhalten. Dies konnte am Beispiel eines Origamikranichs gezeigt werden, welcher nach dem Erhitzen zwar seine Farbe von Weiß zu Schwarz verändert hatte, ansonsten aber seine Form vollkommen beibehält. Aufgrund der eingebetteten Eisenkarbid Nanopartikel war der Kranich außerdem hochgradig magnetisch. Basierend auf dieser Technik wurden außerdem winzige metallische Nanopartikel aus Nickel, Nickel-Palladium, Nickel-Eisen, Kobalt, Kobalt-Eisen und Kupfer, sowie Partikel aus den Verbundkarbiden Eisen-Mangan-Karbid und Eisen-Wolfram-Karbid, jeweils in verschiedenen Mischungsverhältnissen, hergestellt und analysiert. Da die Vorstufe der Reaktion flüssig ist, konnte diese mit Hilfe eines einfachen kommerziellen Tintenstrahldruckers strukturiert auf Zellulosepapier aufgebracht werden. Dies ermöglicht gezielt Leiterbahnen, bestehend aus graphitisiertem Kohlenstoff, in ansonsten ungeordnetem (amorphen) Kohlenstoff zu erzeugen. Diese Methode wurde anschließend auf Systeme mit mehreren Metallen übertragen. Hierbei wurde die Tatsache, dass moderne Drucker vier Tintenpatronen beherbergen, ausgenutzt um Nanopartikel mit beliebigen Mischungsverhältnisse von Metallen zu erzeugen. Dieser Ansatz hat potentiell weitreichende Auswirkungen im Feld der Katalyse, da hiermit hunderte oder gar tausende Mischungen simultan erzeugt und getestet werden können. Daraus würden sich große Zeiteinsparungen (Tage anstelle von Monaten) bei der Entwicklung neuer Katalysatoren ergeben. Der letzte Teil der Arbeit beschäftigt sich mit der umweltfreundlichen Synthese der obengenannten Komposite. Hierbei wurden erfolgreich Altmetall und Holzstücke als Ausgangstoffe verwandt. Zusätzlich wurde gezeigt, dass die gesamte Synthese ohne Verwendung von hochentwickeltem Equipment durchgeführt werden kann. Dazu wurde eine sogenannte Fresnel-Linse genutzt um Sonnenlicht zu bündeln und damit direkt die Reaktionsmischung auf die benötigten 800 °C zu erhitzen. Weiterhin wurde ein selbst gebauter Glasreaktor eingesetzt und gezeigt, wie das entstehende Produkt als Abwasserfilter genutzt werden kann. Die Kombination dieser Ergebnisse bedeutet, dass dieses System sich beispielsweise zum Einsatz in Katastrophenregionen eignen würde, um ohne Strom und besondere Ausrüstung vor Ort Wasserfilter herzustellen. KW - Zellulose KW - Übergangsmetalle KW - Carbide KW - Nanopartikel KW - Komposite KW - Cellulose KW - Transitionmetals KW - Carbides KW - Nanoparticles KW - Composites Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64678 ER - TY - THES A1 - Guiducci, Lorenzo T1 - Passive biomimetic actuators : the role of material architecture T1 - Passive biomimetische aktuatoren : die Rolle der Materialarchitektur N2 - Passive plant actuators have fascinated many researchers in the field of botany and structural biology since at least one century. Up to date, the most investigated tissue types in plant and artificial passive actuators are fibre-reinforced composites (and multilayered assemblies thereof) where stiff, almost inextensible cellulose microfibrils direct the otherwise isotropic swelling of a matrix. In addition, Nature provides examples of actuating systems based on lignified, low-swelling, cellular solids enclosing a high-swelling cellulosic phase. This is the case of the Delosperma nakurense seed capsule, in which a specialized tissue promotes the reversible opening of the capsule upon wetting. This tissue has a diamond-shaped honeycomb microstructure characterized by high geometrical anisotropy: when the cellulosic phase swells inside this constraining structure, the tissue deforms up to four times in one principal direction while maintaining its original dimension in the other. Inspired by the example of the Delosoperma nakurense, in this thesis we analyze the role of architecture of 2D cellular solids as models for natural hygromorphs. To start off, we consider a simple fluid pressure acting in the cells and try to assess the influence of several architectural parameters onto their mechanical actuation. Since internal pressurization is a configurational type of load (that is the load direction is not fixed but it “follows” the structure as it deforms) it will result in the cellular structure acquiring a “spontaneous” shape. This shape is independent of the load but just depends on the architectural characteristics of the cells making up the structure itself. Whereas regular convex tiled cellular solids (such as hexagonal, triangular or square lattices) deform isotropically upon pressurization, we show through finite element simulations that by introducing anisotropic and non-convex, reentrant tiling large expansions can be achieved in each individual cell. The influence of geometrical anisotropy onto the expansion behaviour of a diamond shaped honeycomb is assessed by FEM calculations and a Born lattice approximation. We found that anisotropic expansions (eigenstrains) comparable to those observed in the keels tissue of the Delosoperma nakurense are possible. In particular these depend on the relative contributions of bending and stretching of the beams building up the honeycomb. Moreover, by varying the walls’ Young modulus E and internal pressure p we found that both the eigenstrains and 2D elastic moduli scale with the ratio p/E. Therefore the potential of these pressurized structures as soft actuators is outlined. This approach was extended by considering several 2D cellular solids based on two types of non-convex cells. Each honeycomb is build as a lattice made of only one non-convex cell. Compared to usual honeycombs, these lattices have kinked walls between neighbouring cells which offers a hidden length scale allowing large directed deformations. By comparing the area expansion in all lattices, we were able to show that less convex cells are prone to achieve larger area expansions, but the direction in which the material expands is variable and depends on the local cell’s connectivity. This has repercussions both at the macroscopic (lattice level) and microscopic (cells level) scales. At the macroscopic scale, these non-convex lattices can experience large anisotropic (similarly to the diamond shaped honeycomb) or perfectly isotropic principal expansions, large shearing deformations or a mixed behaviour. Moreover, lattices that at the macroscopic scale expand similarly can show quite different microscopic deformation patterns that include zig-zag motions and radical changes of the initial cell shape. Depending on the lattice architecture, the microscopic deformations of the individual cells can be equal or not, so that they can build up or mutually compensate and hence give rise to the aforementioned variety of macroscopic behaviours. Interestingly, simple geometrical arguments involving the undeformed cell shape and its local connectivity enable to predict the results of the FE simulations. Motivated by the results of the simulations, we also created experimental 3D printed models of such actuating structures. When swollen, the models undergo substantial deformation with deformation patterns qualitatively following those predicted by the simulations. This work highlights how the internal architecture of a swellable cellular solid can lead to complex shape changes which may be useful in the fields of soft robotics or morphing structures. N2 - Passive pflanzliche Aktuatoren sind bewegliche Strukturen, die eine komplexe Bewegung ohne jegliche metabolische Energiequelle erzeugen können. Diese Fähigkeit entstammt dabei der Materialverteilung mit unterschiedlicher Quellbarkeit innerhalb der Gewebsstruktur.Die bis heute am besten untersuchten Gewebearten pflanzlicher und künstlicher Passivaktuatoren sind Faserverbundwerkstoffe, in denen steife, fast undehnbare Zellulosemikrofibrillen die ansonsten isotrope Schwellung einer Matrix leiten. Darüber hinaus gibt es in der Natur Beispiele für Aktuationssysteme, wie z.B. die Delosoperma nakurense Samenkapsel, in der das Aktuatorgewebe eine Wabenstruktur aufweist, deren Zellen mit einem hochquellenden Material gefüllt sind. Dabei hat die Wabenstruktur des Gewebes eine hohe geometrische Anisotropie, so dass sich das Gewebe bei Wasseraufnahme bis zur vierfachen Länge entlang einer Hauptrichtung ausdehnt und somit die reversible Öffnung der Kapsel angetrieben wird. Inspiriert durch das Vorbild der Delosoperma nakurense, wird in der vorliegenden Arbeit die Rolle der Architektur von 2D-Zellulärmaterialien als Modell für natürliche passive Aktuatoren analysiert. Zunächst wird anhand eines einfachen Flüssigkeitsdrucks in den Zellen der Einfluss verschiedener architektonischer Parameter auf deren mechanische Betätigung untersucht. Wohingegen regelmäßige konvexe Wabenstrukturen (wie z. B. sechseckige, dreieckige oder quadratische Gitter) sich unter Druck isotropisch verformen, wird durch Finite-Elemente-Simulationen gezeigt, dass es bei anisotropen und nicht-konvexen Zellen zu großen Ausdehnungen jeder einzelnen Zelle kommt. Auch wenn nur eine einzelne Zellgeometrie betrachtet wird, können hierbei viele verschiedene Gitter entstehen. Die Ausdehnungsrichtung des Gitters ist variabel und hängt von der lokalen Konnektivität der Zellen ab. Dies hat Auswirkungen sowohl auf makroskopischer (Gitter-) als auch auf mikroskopischer (Zell-) Ebene. Auf makroskopischer Ebene erfahren diese nicht-konvexen Gitter entweder große anisotrope (ähnlich der Delosperma nakurense Samenkapsel) oder vollkommen isotrope Eigendehnungen, große Scherverformungen oder jeweilige Mischformen. Überdies können Gitter mit ähnlichem makroskopischem Verhalten gänzlich unterschiedliche mikroskopische Verformungsmuster zeigen, wie z.B. Zick-Zack-Bewegungen oder radikale Änderungen der ursprünglichen Zellform. Dies verursacht auch eine entsprechende Änderung der elastischen Eigenschaften. In Abhängigkeit der Gitterarchitektur kann es zu gleichen oder unterschiedlichen mikroskopischen Zelldeformationen kommen, die sich in Summe entweder verstärken oder ausgleichen, und somit die Vielzahl an makroskopischen Verhalten erklären. Interessanterweise lassen sich mit Hilfe einfacher geometrischer Argumente aus der nichtdeformierten Zellform und Zellkonnektivität die Ergebnisse der FE-Simulationen vorhersagen. Die Ergebnisse der Finite-Elemente-Simulationen wurden durch Laborversuche bestätigt, in denen (mit 3D-Drucktechnik gefertigte) Modellgitter ähnliches Ausdehnungsverhalten beim Quellen zeigen. Diese Arbeit zeigt auf, wie die Innenarchitektur eines quellfähigen zellulären Feststoffs zu komplexen Formänderungen führen kann, die in den Bereichen der Soft-Robotik oder bei Morphing-Strukturen angewandt werden können. KW - Aktuatoren KW - Zellulärmaterialien KW - Sorption KW - cellular materials KW - actuating materials KW - swelling KW - reconfigurable matter KW - architectured materials Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70446 ER - TY - THES A1 - Gumienny, Raja Carola T1 - Understanding the adoption of digital whiteboard systems for collaborative design work T1 - Untersuchungen zur Einführung von digitalen Whiteboard-Systemen für kollaboratives kreatives Arbeiten N2 - User-centered design processes are the first choice when new interactive systems or services are developed to address real customer needs and provide a good user experience. Common tools for collecting user research data, conducting brainstormings, or sketching ideas are whiteboards and sticky notes. They are ubiquitously available, and no technical or domain knowledge is necessary to use them. However, traditional pen and paper tools fall short when saving the content and sharing it with others unable to be in the same location. They are also missing further digital advantages such as searching or sorting content. Although research on digital whiteboard and sticky note applications has been conducted for over 20 years, these tools are not widely adopted in company contexts. While many research prototypes exist, they have not been used for an extended period of time in a real-world context. The goal of this thesis is to investigate what the enablers and obstacles for the adoption of digital whiteboard systems are. As an instrument for different studies, we developed the Tele-Board software system for collaborative creative work. Based on interviews, observations, and findings from former research, we tried to transfer the analog way of working to the digital world. Being a software system, Tele-Board can be used with a variety of hardware and does not depend on special devices. This feature became one of the main factors for adoption on a larger scale. In this thesis, I will present three studies on the use of Tele-Board with different user groups and foci. I will use a combination of research methods (laboratory case studies and data from field research) with the overall goal of finding out when a digital whiteboard system is used and in which cases not. Not surprisingly, the system is used and accepted if a user sees a main benefit that neither analog tools nor other applications can offer. However, I found that these perceived benefits are very different for each user and usage context. If a tool provides possibilities to use in different ways and with different equipment, the chances of its adoption by a larger group increase. Tele-Board has now been in use for over 1.5 years in a global IT company in at least five countries with a constantly growing user base. Its use, advantages, and disadvantages will be described based on 42 interviews and usage statistics from server logs. Through these insights and findings from laboratory case studies, I will present a detailed analysis of digital whiteboard use in different contexts with design implications for future systems. N2 - Nutzerorientierte Gestaltungsprozesse werden angewandt, um zu gewährleisten, dass neue Software für Computer und Smartphones gebrauchstauglich ist und die tatsächlichen Bedürfnisse der Anwender adressiert. Dazu sollen potentielle Anwender befragt und beobachtet und darauf basierend Ideen und Entwürfe für die neue Software entwickelt werden. Um die Nutzerdaten und Ideen zu sammeln, sowie daraus Konzepte zu erarbeiten, werden häufig Whiteboards und Haftnotizen (Post-its) benutzt. Sie haben den Vorteil, dass sie weit verbreitet sind und keine speziellen Kenntnisse erfordern. Analoge Whiteboards sowie Stift und Papier haben allerdings auch den Nachteil, dass die Informationen nicht digital gespeichert und mit Personen an anderen Standorten geteilt werden können. Auch andere digitale Vorteile, wie z. B. Inhalte suchen und sortieren, sind nicht verfügbar. Obwohl es seit 20 Jahren Forschung zu digitalen Whiteboard-Anwendungen gibt, werden diese Systeme im Firmenumfeld kaum genutzt. Diverse Forschungsprototypen sind bisher weder im Langzeiteinsatz noch in Unternehmen ausreichend getestet worden. Ziel dieser Dissertation ist zu erforschen, welche Faktoren den Einsatz von digitalen Whiteboard-Systemen begünstigen und welche Faktoren eher hinderlich sind. Zu diesem Zweck haben wir das Tele-Board Software System für gemeinsames kreatives Arbeiten entwickelt. Basierend auf Interviews und Beobachtungen, sowie Erkenntnissen aus vorheriger Forschung, haben wir versucht, die analoge Arbeitsweise mit herkömmlichen Arbeitsmitteln in die digitale Welt zu übertragen. Tele-Board kann mit unterschiedlicher Hardware benutzt werden und ist nicht an spezielle Geräte gebunden. Diese Tatsache hat sich als Vorteil für den Einsatz der Software in größerem Umfang erwiesen. In dieser Arbeit präsentiere ich drei Studien zur Nutzung von Tele-Board von verschiedenen Anwendern in unterschiedlichen Umgebungen. Die Studien wurden sowohl unter kontrollierten Bedingungen, als auch im realen Arbeitsumfeld durchgeführt. Wie zu erwarten war, wird das System besonders dann angenommen, wenn die Anwender Vorteile sehen, die sie mit analogen Arbeitsmitteln und anderer Software nicht haben. Allerdings unterscheiden sich die empfundenen Vorteile je nach Anwender und Nutzungskontext. Daher steigen die Chancen auf eine Verbreitung der Software, wenn sie verschiedene Anwendungsfälle und unterschiedliches Equipment unterstützt. Tele-Board ist mittlerweile seit 1,5 Jahren in einer global agierenden IT-Firma in mindestens fünf Ländern mit konstant steigenden Nutzerzahlen im Einsatz. Auf der Basis von 42 Interviews und Nutzungsstatistiken vom Server wird beschrieben, auf welche Art und Weise das System angewandt wird und welche Vor- und Nachteile es hat. Aus diesen Erkenntnissen sowie anderen Studien, präsentiere ich eine detaillierte Analyse der Nutzung von digitalen Whiteboards und gebe Empfehlungen für die Entwicklung zukünftiger Systeme. KW - Verteiltes Arbeiten KW - CSCW KW - Digitale Whiteboards KW - Design Thinking KW - remote collaboration KW - cscw KW - digital whiteboard KW - design thinking Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72417 ER - TY - THES A1 - Hebig, Regina T1 - Evolution of model-driven engineering settings in practice T1 - Evolution von Modelgetriebenen Entwicklungssettings in der Praxis N2 - Nowadays, software systems are getting more and more complex. To tackle this challenge most diverse techniques, such as design patterns, service oriented architectures (SOA), software development processes, and model-driven engineering (MDE), are used to improve productivity, while time to market and quality of the products stay stable. Multiple of these techniques are used in parallel to profit from their benefits. While the use of sophisticated software development processes is standard, today, MDE is just adopted in practice. However, research has shown that the application of MDE is not always successful. It is not fully understood when advantages of MDE can be used and to what degree MDE can also be disadvantageous for productivity. Further, when combining different techniques that aim to affect the same factor (e.g. productivity) the question arises whether these techniques really complement each other or, in contrast, compensate their effects. Due to that, there is the concrete question how MDE and other techniques, such as software development process, are interrelated. Both aspects (advantages and disadvantages for productivity as well as the interrelation to other techniques) need to be understood to identify risks relating to the productivity impact of MDE. Before studying MDE's impact on productivity, it is necessary to investigate the range of validity that can be reached for the results. This includes two questions. First, there is the question whether MDE's impact on productivity is similar for all approaches of adopting MDE in practice. Second, there is the question whether MDE's impact on productivity for an approach of using MDE in practice remains stable over time. The answers for both questions are crucial for handling risks of MDE, but also for the design of future studies on MDE success. This thesis addresses these questions with the goal to support adoption of MDE in future. To enable a differentiated discussion about MDE, the term MDE setting'' is introduced. MDE setting refers to the applied technical setting, i.e. the employed manual and automated activities, artifacts, languages, and tools. An MDE setting's possible impact on productivity is studied with a focus on changeability and the interrelation to software development processes. This is done by introducing a taxonomy of changeability concerns that might be affected by an MDE setting. Further, three MDE traits are identified and it is studied for which manifestations of these MDE traits software development processes are impacted. To enable the assessment and evaluation of an MDE setting's impacts, the Software Manufacture Model language is introduced. This is a process modeling language that allows to reason about how relations between (modeling) artifacts (e.g. models or code files) change during application of manual or automated development activities. On that basis, risk analysis techniques are provided. These techniques allow identifying changeability risks and assessing the manifestations of the MDE traits (and with it an MDE setting's impact on software development processes). To address the range of validity, MDE settings from practice and their evolution histories were capture in context of this thesis. First, this data is used to show that MDE settings cover the whole spectrum concerning their impact on changeability or interrelation to software development processes. Neither it is seldom that MDE settings are neutral for processes nor is it seldom that MDE settings have impact on processes. Similarly, the impact on changeability differs relevantly. Second, a taxonomy of evolution of MDE settings is introduced. In that context it is discussed to what extent different types of changes on an MDE setting can influence this MDE setting's impact on changeability and the interrelation to processes. The category of structural evolution, which can change these characteristics of an MDE setting, is identified. The captured MDE settings from practice are used to show that structural evolution exists and is common. In addition, some examples of structural evolution steps are collected that actually led to a change in the characteristics of the respective MDE settings. Two implications are: First, the assessed diversity of MDE settings evaluates the need for the analysis techniques that shall be presented in this thesis. Second, evolution is one explanation for the diversity of MDE settings in practice. To summarize, this thesis studies the nature and evolution of MDE settings in practice. As a result support for the adoption of MDE settings is provided in form of techniques for the identification of risks relating to productivity impacts. N2 - Um die steigende Komplexität von Softwaresystemen beherrschen zu können, werden heutzutage unterschiedlichste Techniken gemeinsam eingesetzt. Beispiele sind, Design Pattern, Serviceorientierte Architekturen, Softwareentwicklungsprozesse oder modellgetriebene Entwicklung (MDE). Ziel dabei ist die Erhöhung der Produktivität, so dass Entwicklungsdauer und Qualität stabil bleiben können. Während hoch entwickelte Softwareentwicklungsprozesse heute schon standardmäßig genutzt werden, fangen Firmen gerade erst an MDE einzusetzen. Jedoch zeigen Studien, dass der erhoffte Erfolg von MDE nicht jedes Mal eintritt. So scheint es, dass noch kein ausreichendes Verständnis dafür existiert, inwiefern MDE auch Nachteile für die Produktivität bergen kann. Zusätzlich ist bei der Kombination von unterschiedlichen Techniken damit zu rechnen, dass die erreichten Effekte sich gegenseitig negieren anstatt sich zu ergänzen. Hier entsteht die Frage wie MDE und andere Techniken, wie Softwareentwicklungsprozesse, zusammenwirken. Beide Aspekte, der direkte Einfluss auf Produktivität und die Wechselwirkung mit anderen Techniken, müssen aber verstanden werden um den Risiken für den Produktivitätseinfluss von MDE zu identifizieren. Außerdem, muss auch die Generalisierbarkeit dieser Aspekte untersucht werden. Das betrifft die Fragen, ob der Produktivitätseinfluss bei jedem Einsatz von MDE gleich ist und ob der Produktivitätseinfluss über die Zeit stabil bleibt. Beide Fragen sind entscheidend, will man geeignete Risikobehandlung ermöglichen oder künftige Studien zum Erfolg von MDE planen. Diese Dissertation widmet sich der genannten Fragen. Dafür wird zuerst der Begriff MDE Setting'' eingeführt um eine differenzierte Betrachtung von MDE-Verwendungen zu ermöglichen. Ein MDE Setting ist dabei der technische Aufbau, inklusive manueller und automatische Aktivitäten, Artefakten, Sprachen und Werkzeugen. Welche Produktivitätseinflüsse von MDE Settings möglich sind, wird in der Dissertation mit Fokus auf Änderbarkeit und die Wechselwirkung mit Softwareentwicklungsprozessen betrachtet. Dafür wird einerseits eine Taxonomie von Changeability Concerns'' (potentiell betroffene Aspekte von Änderbarkeit) vorgestellt. Zusätzlich, werden drei MDE Traits'' (Charakteristika von MDE Settings die unterschiedlich ausgeprägt sein können) identifiziert. Es wird untersucht welche Ausprägungen dieser MDE Traits Einfluss auf Softwareentwicklungsprozesse haben können. Um die Erfassung und Bewertung dieser Einflüsse zu ermöglichen wird die Software Manufaktur Modell Sprache eingeführt. Diese Prozessmodellierungssprache ermöglicht eine Beschreibung, der Veränderungen von Artefaktbeziehungen während der Anwendung von Aktivitäten (z.B. Codegenerierung). Weiter werden auf Basis dieser Modelle, Analysetechniken eingeführt. Diese Analysetechniken erlauben es Risiken für bestimmte Changeability Concerns aufzudecken sowie die Ausprägung von MDE Traits zu erfassen (und damit den Einfluss auf Softwareentwicklungsprozesse). Um die Generalisierbarkeit der Ergebnisse zu studieren, wurden im Rahmen der Arbeit mehrere MDE Settings aus der Praxis sowie teilweise deren Evolutionshistorien erhoben. Daran wird gezeigt, dass MDE Settings sich in einem breiten Spektrum von Einflüssen auf Änderbarkeit und Prozesse bewegen. So ist es weder selten, dass ein MDE Setting neutral für Prozesse ist, noch, dass ein MDE Setting Einschränkungen für einen Prozess impliziert. Ähnlich breit gestreut ist der Einfluss auf die Änderbarkeit.Zusätzlich, wird diskutiert, inwiefern unterschiedliche Evolutionstypen den Einfluss eines MDE Settings auf Änderbarkeit und Prozesse verändern können. Diese Diskussion führt zur Identifikation der strukturellen Evolution'', die sich stark auf die genannten Charakteristika eines MDE Settings auswirken kann. Mithilfe der erfassten MDE Settings, wird gezeigt, dass strukturelle Evolution in der Praxis üblich ist. Schließlich, werden Beispiele aufgedeckt bei denen strukturelle Evolutionsschritte tatsächlich zu einer Änderung der Charakteristika des betreffenden MDE Settings geführt haben. Einerseits bestärkt die ermittelte Vielfalt den Bedarf nach Analysetechniken, wie sie in dieser Dissertation eingeführt werden. Zum Anderen erscheint es nun, dass Evolution zumindest zum Teil die unterschiedlichen Ausprägungen von MDE Settings erklärt. Zusammenfassend wird studiert wie MDE Settings und deren Evolution in der Praxis ausgeprägt sind. Als Ergebnis, werden Techniken zur Identifikation von Risiken für Produktivitätseinflüsse bereitgestellt um den Einsatz von MDE Settings zu unterstützen. KW - modelgetriebene Entwicklung KW - Softwareentwicklung KW - Softwareentwicklungsprozesse KW - Änderbarkeit KW - empirische Studien KW - model-driven engineering KW - software development KW - software development processes KW - changeability KW - empirical studies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70761 ER - TY - THES A1 - Herenz, Peter T1 - A study of the absorption characteristics of gaseous galaxy halos in the local Universe T1 - Untersuchung von Absorptionsstrukturen in den gasförmigen Halos von Galaxien im lokalen Universum. N2 - Today, it is well known that galaxies like the Milky Way consist not only of stars but also of gas and dust. The galactic halo, a sphere of gas that surrounds the stellar disk of a galaxy, is especially interesting. It provides a wealth of information about in and outflowing gaseous material towards and away from galaxies and their hierarchical evolution. For the Milky Way, the so-called high-velocity clouds (HVCs), fast moving neutral gas complexes in the halo that can be traced by absorption-line measurements, are believed to play a crucial role in the overall matter cycle in our Galaxy. Over the last decades, the properties of these halo structures and their connection to the local circumgalactic and intergalactic medium (CGM and IGM, respectively) have been investigated in great detail by many different groups. So far it remains unclear, however, to what extent the results of these studies can be transferred to other galaxies in the local Universe. In this thesis, we study the absorption properties of Galactic HVCs and compare the HVC absorption characteristics with those of intervening QSO absorption-line systems at low redshift. The goal of this project is to improve our understanding of the spatial extent and physical conditions of gaseous galaxy halos in the local Universe. In the first part of the thesis we use HST /STIS ultraviolet spectra of more than 40 extragalactic background sources to statistically analyze the absorption properties of the HVCs in the Galactic halo. We determine fundamental absorption line parameters including covering fractions of different weakly/intermediately/highly ionized metals with a particular focus on SiII and MgII. Due to the similarity in the ionization properties of SiII and MgII, we are able to estimate the contribution of HVC-like halo structures to the cross section of intervening strong MgII absorbers at z = 0. Our study implies that only the most massive HVCs would be regarded as strong MgII absorbers, if the Milky Way halo would be seen as a QSO absorption line system from an exterior vantage point. Combining the observed absorption-cross section of Galactic HVCs with the well-known number density of intervening strong MgII absorbers at z = 0, we conclude that the contribution of infalling gas clouds (i.e., HVC analogs) in the halos of Milky Way-type galaxies to the cross section of strong MgII absorbers is 34%. This result indicates that only about one third of the strong MgII absorption can be associated with HVC analogs around other galaxies, while the majority of the strong MgII systems possibly is related to galaxy outflows and winds. The second part of this thesis focuses on the properties of intervening metal absorbers at low redshift. The analysis of the frequency and physical conditions of intervening metal systems in QSO spectra and their relation to nearby galaxies offers new insights into the typical conditions of gaseous galaxy halos. One major aspect in our study was to regard intervening metal systems as possible HVC analogs. We perform a detailed analysis of absorption line properties and line statistics for 57 metal absorbers along 78 QSO sightlines using newly-obtained ultraviolet spectra obtained with HST /COS. We find clear evidence for bimodal distribution in the HI column density in the absorbers, a trend that we interpret as sign for two different classes of absorption systems (with HVC analogs at the high-column density end). With the help of the strong transitions of SiII λ1260, SiIII λ1206, and CIII λ977 we have set up Cloudy photoionization models to estimate the local ionization conditions, gas densities, and metallicities. We find that the intervening absorption systems studied by us have, on average, similar physical conditions as Galactic HVC absorbers, providing evidence that many of them represent HVC analogs in the vicinity of other galaxies. We therefore determine typical halo sizes for SiII, SiIII, and CIII for L = 0.01L∗ and L = 0.05L∗ galaxies. Based on the covering fractions of the different ions in the Galactic halo, we find that, for example, the typical halo size for SiIII is ∼ 160 kpc for L = 0.05L∗ galaxies. We test the plausibility of this result by searching for known galaxies close to the QSO sightlines and at similar redshifts as the absorbers. We find that more than 34% of the measured SiIII absorbers have galaxies associated with them, with the majority of the absorbers indeed being at impact parameters ρ ≤160 kpc. N2 - Galaxien bestehen nicht nur aus Planeten und Sternen, sondern sind u.a. auch von einer Hülle aus Gas und Staub, dem Halo, umgeben. Dieser Halo spielt für die Entwicklung der Galaxie eine zentrale Rolle, da er mit der galaktischen Scheibe wechselwirken kann. Für das Verständnis des galaktischen Materiekreislaufs ist es daher entscheidend, die Prozesse und Vorgänge sowie das Zusammenspiel der verschiedenen Gasphasen in diesem Übergangsbereich zum intergalaktischen Medium charakterisieren und verstehen zu können. In der vorliegenden Arbeit werden lokale Phänomene, die sogenannten Hochgeschwindigkeitswolken (HVCs), im Halo der Milchstraße mit Hilfe des Hubble-Weltraumteleskops analysiert und ausgewertet. Im Gegensatz zu dem normalen Halo Gas bewegen sich diese HVCs mit ungewöhnlich hohen Geschwindigkeiten durch die ̈ äußeren Bereiche der Milchstraße. Sie passen daher nicht in das Galaktische Ge- schwindigkeitsmodell und stellen eine eigene, wichtige Klasse von Objekten dar, welche mit der Galaxie wechselwirken und diese beeinflussen. Für die Analyse dieser HVCs werden mehr als 40 Spektren von extragalaktischen Hintergrundquellen statistisch untersucht, um u.a. den Bedeckungsanteil von verschiedenen niedrig-/mittel- und hochionisierten Metallen zu ermitteln. Wegen der Ähnlichkeit der Ionisationsparameter von einfach ionisiertem Silizium, SiII, und einfach ionisiertem Magnesium, MgII, ist es möglich, den Beitrag von HVCs zum Wirkungsquerschnitt von starken MgII Absorbern im lokalen Universum zu bestimmen. Es stellt sich heraus, dass, würde man von außen auf die Milchstraße schauen, Galaktische HVCs etwa 52 % zum totalen Wirkungsquerschnitt von starken MgII Absorptionssystemen in der Milchstraße beitragen. Weiterhin ergibt sich, dass nur etwa ein Drittel der starken MgII Absorptionssysteme in der Umgebung von Milchstraßen-ähnlichen Galaxien als HVC Gegenstücke identifziert werden kann. Betrachtet man die große Anzahl an bekannten MgII Absorptionssystemen folgt daraus, dass das HVC-Phänomen nicht alleine auf unsere Galaxie beschränkt ist, sondern im Gegenteil, weit verbreitet zu sein scheint. Weiterhin werden die Eigenschaften von Metallsystemen bei niedriger Rotverschiebung in Quasarspektren analysiert. Die Suche nach extragalaktischen Metallsystemen in einer Vielzahl von Spektren und deren statistische Auswertung bezogen auf ihre Ursprungsgalaxien ermöglicht es, neue Erkenntnisse über die typische Struktur von Halos Milchstraßen-ähnlicher Galaxien zu erlangen. Eine der Hauptfragestellungen ist die Identifizierung von entfernten Metallsystemen als HVC-Analoga. Dazu wurden weitere Quasarspektren des Hubble-Teleskops ausgewertet und mit den Ergebnissen über Galaktische HVCs verglichen. Es zeigt sich hierbei, dass z.B. in der Säulendichteverteilung von neutralem Wasserstoff eine deutliche zweikomponentige Struktur zu erkennen ist. Diese könnte das Resultat von zwei verschiedenen Absorber Populationen sein, wobei eine HVC-ähnliche Eigenschaften aufweist. Diese Absorptionssysteme besitzen im Mittel sehr ähnliche Eigenschaften wie Galaktische Absorber, z.B. in Bezug auf die Eigenschaften des Gases oder dessen Zusammensetzung. Das impliziert u.a., dass sich auch dazugehörige Galaxien innerhalb eines bestimmten Abstandes um diese Absorber befinden sollten. Diese Vermutung wird anhand der Daten exemplarisch für zweichfach ionisiertes Silizium, SiII, untersucht. Es stellt sich heraus, dass sich in mehr als 34 % der Fälle zugehörige Galaxien bei SiIII Absorbern befinden, wobei die Mehrheit sogar innerhalb des von uns ermittelten mittleren Detektionsradius von 160 kpc zu finden ist. Allgemein können wir viele Hinweise darauf finden, dass das HVC-Phänomen nicht nur auf die Milchstraße beschränkt, sondern weit verbreitet ist. Zusätzlich scheinen Metallsysteme in Quasarspektren gute Indikatoren für HVC-Analoga in der Umgebung von anderen entfernten Galaxien zu sein. KW - Halo KW - Hochgeschwindigkeitswolken KW - Galaxien KW - Spektroskopie KW - halo KW - high-velocity-clouds KW - galaxies KW - spectroscopy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70513 ER - TY - THES A1 - Hohberger, Horst T1 - Semiclassical asymptotics for the scattering amplitude in the presence of focal points at infinity T1 - Semiklassische Asymptotik der Streuamplitude bei unendlich fernen Fokalpunkten N2 - We consider scattering in $\R^n$, $n\ge 2$, described by the Schr\"odinger operator $P(h)=-h^2\Delta+V$, where $V$ is a short-range potential. With the aid of Maslov theory, we give a geometrical formula for the semiclassical asymptotics as $h\to 0$ of the scattering amplitude $f(\omega_-,\omega_+;\lambda,h)$ $\omega_+\neq\omega_-$) which remains valid in the presence of focal points at infinity (caustics). Crucial for this analysis are precise estimates on the asymptotics of the classical phase trajectories and the relationship between caustics in euclidean phase space and caustics at infinity. N2 - Wir betrachten Streuung in $\R^n$, $n\ge 2$, beschrieben durch den Schr\"odinger operator $P(h)=-h^2\Delta+V$, wo $V$ ein kurzreichweitiges Potential ist. Mit Hilfe von Maslov Theorie erhalten wir eine geometrische Formel fuer die semiklassische Asymptotik ($h\to 0$) der Streuamplitude $f(\omega_-,\omega_+;\lambda,h)$ ($\omega_+\neq\omega_-$) welche auch bei Vorhandensein von Fokalpunkten bei Unendlich (Kaustiken) gueltig bleibt. KW - Mathematik KW - Physik KW - Streutheorie KW - Streuamplitude KW - Semiklassik KW - mathematics KW - physics KW - scattering theory KW - semiclassics KW - scattering amplitude Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-11574 ER - TY - THES A1 - Inal, Sahika T1 - Responsive polymers for optical sensing applications T1 - Responsive Polymere für optische Sensoren N2 - LCST-type synthetic thermoresponsive polymers can reversibly respond to certain stimuli in aqueous media with a massive change of their physical state. When fluorophores, that are sensitive to such changes, are incorporated into the polymeric structure, the response can be translated into a fluorescence signal. Based on this idea, this thesis presents sensing schemes which transduce the stimuli-induced variations in the solubility of polymer chains with covalently-bound fluorophores into a well-detectable fluorescence output. Benefiting from the principles of different photophysical phenomena, i.e. of fluorescence resonance energy transfer and solvatochromism, such fluorescent copolymers enabled monitoring of stimuli such as the solution temperature and ionic strength, but also of association/disassociation mechanisms with other macromolecules or of biochemical binding events through remarkable changes in their fluorescence properties. For instance, an aqueous ratiometric dual sensor for temperature and salts was developed, relying on the delicate supramolecular assembly of a thermoresponsive copolymer with a thiophene-based conjugated polyelectrolyte. Alternatively, by taking advantage of the sensitivity of solvatochromic fluorophores, an increase in solution temperature or the presence of analytes was signaled as an enhancement of the fluorescence intensity. A simultaneous use of the sensitivity of chains towards the temperature and a specific antibody allowed monitoring of more complex phenomena such as competitive binding of analytes. The use of different thermoresponsive polymers, namely poly(N-isopropylacrylamide) and poly(meth)acrylates bearing oligo(ethylene glycol) side chains, revealed that the responsive polymers differed widely in their ability to perform a particular sensing function. In order to address questions regarding the impact of the chemical structure of the host polymer on the sensing performance, the macromolecular assembly behavior below and above the phase transition temperature was evaluated by a combination of fluorescence and light scattering methods. It was found that although the temperature-triggered changes in the macroscopic absorption characteristics were similar for these polymers, properties such as the degree of hydration or the extent of interchain aggregations differed substantially. Therefore, in addition to the demonstration of strategies for fluorescence-based sensing with thermoresponsive polymers, this work highlights the role of the chemical structure of the two popular thermoresponsive polymers on the fluorescence response. The results are fundamentally important for the rational choice of polymeric materials for a specific sensing strategy. N2 - Als Reaktion auf bestimmte äußere Stimuli ändern bestimmte wasserlösliche Polymere reversibel ihren physikalischen Zustand. Dieser Vorgang kann mithilfe von Fluorophoren, die in die Polymerstrukturen eingebaut werden und deren Fluoreszenzeigenschaften vom Polymer¬zustand abhängen, detektiert werden. Diese Idee ist der Ausgangspunkt der vorliegenden Arbeit, die sich damit beschäftigt, wie äußerlich induzierte Änderungen der Löslichkeit solcher Polymere mit kovalent gebundenen Fluorophoren in Wasser in ein deutlich messbares Fluoreszenzsignal übersetzt werden können. Dazu werden photophysikalische Phänomene wie Fluoreszenz-Resonanz¬energie¬transfer und Solvatochromie ausgenutzt. In Kombination mit einem responsiven Polymergerüst wird es möglich, verschiedene Stimuli wie Lösungs¬temperatur oder Ionenstärke, oder auch Assoziation-Dissoziation Reaktionen mit anderen Makromolekülen oder biochemische Bindungs¬reaktionen über die Änderung von Fluorezenz¬farbe bzw. –Intensität autonom mit bloßem Auge zu detektieren. Unter anderem wurde ein wässriger ratiometrischer Temperatur- und Salzsensor entwickelt, der auf der komplexen supramolekularen Struktur eines thermoresponsiven Copolymers und eines thiophenbasierten konjugierten Polyelektrolyts beruht. Die Anbindung solvato¬chromer Fluorophore erlaubte den empfindlichen Nachweis einer Temperatur¬änderung oder des Vorhandenseins von Analyten. Komplexere Phänomene wie das kompetitive Anbinden von Analyten ließen sich hochempfindlich steuern und auslesen, indem gleichzeitig die Sensitivität dieser Polymeren gegenüber der Temperatur und spezifischen Antikörpern ausgenutzt wurde. Überraschenderweise wiesen die hier untersuchten thermoresponsiven Polymere wie poly-N-isopropylacrylamid (pNIPAm) oder poly-Oligoethylenglykolmethacrylate (pOEGMA) große Unterschiede bzgl. ihrer responsiven optischen Eigenschaften auf. Dies erforderte eine ausführliche Charakterisierung des Fluoreszenz- und Aggregationsverhaltens, unter- und oberhalb des Phasenübergangs, im Bezug auf die chemische Struktur. Ein Ergebnis war, dass alle drei Polymertypen sehr ähnliche temperaturabhängige makroskopische Absorptionseigenschaften aufweisen, während sich die Eigenschaften auf molekularer Ebene, wie der Hydratisierungsgrad oder die intermolekulare Polymerkettenaggregation, bei diesen Polymeren sehr unterschiedlich. Diese Arbeit zeigt damit anhand zweier sehr etablierter thermoresponsiver Polymere, nämlich pNIPAm und pOEGMA, das die chemische Struktur entscheidend für den Einsatz dieser Polymere in fluoreszenzbasierten Sensoren ist. Diese Ergebnisse haben große Bedeutung für die gezielte Entwicklung von Polymermaterialien für fluoreszenzbasierte Assays. KW - Responsive Polymere KW - Fluoreszenz KW - Sensor KW - Konjugierten polyelektrolyt KW - responsive polymer KW - fluorescence KW - sensor KW - conjugated polyelectrolyte Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70806 ER - TY - THES A1 - Krügel, André T1 - Eye movement control during reading : factors and principles of computing the word center for saccade planning T1 - Augenbewegungskontrolle beim Lesen : Faktoren und Prinzipien der Bestimmung der Wortmitte zur Sakkadenplanung N2 - Reading is a complex cognitive task based on the analyses of visual stimuli. Due to the physiology of the eye, only a small number of letters around the fixation position can be extracted with high visual acuity, while the visibility of words and letters outside this so-called foveal region quickly drops with increasing eccentricity. As a consequence, saccadic eye movements are needed to repeatedly shift the fovea to new words for visual word identification during reading. Moreover, even within a foveated word fixation positions near the word center are superior to other fixation positions for efficient word recognition (O’Regan, 1981; Brysbaert, Vitu, and Schroyens, 1996). Thus, most reading theories assume that readers aim specifically at word centers during reading (for a review see Reichle, Rayner, & Pollatsek, 2003). However, saccades’ landing positions within words during reading are in fact systematically modulated by the distance of the launch site from the word center (McConkie, Kerr, Reddix, & Zola, 1988). In general, it is largely unknown how readers identify the center of upcoming target words and there is no computational model of the sensorimotor translation of the decision for a target word into spatial word center coordinates. Here we present a series of three studies which aim at advancing the current knowledge about the computation of saccade target coordinates during saccade planning in reading. Based on a large corpus analyses, we firstly identified word skipping as a further factor beyond the launch-site distance with a likewise systematic and surprisingly large effect on within-word landing positions. Most importantly, we found that the end points of saccades after skipped word are shifted two and more letters to the left as compared to one-step saccades (i.e., from word N to word N+1) with equal launch-site distances. Then we present evidence from a single saccade experiment suggesting that the word-skipping effect results from highly automatic low-level perceptual processes, which are essentially based on the localization of blank spaces between words. Finally, in the third part, we present a Bayesian model of the computation of the word center from primary sensory measurements of inter-word spaces. We demonstrate that the model simultaneously accounts for launch-site and saccade-type contingent modulations of within-word landing positions in reading. Our results show that the spatial saccade target during reading is the result of complex estimations of the word center based on incomplete sensory information, which also leads to specific systematic deviations of saccades’ landing positions from the word center. Our results have important implications for current reading models and experimental reading research. N2 - Lesen ist eine komplexe kognitive Aufgabe, die auf der Analyse visueller Reize beruht. Aufgrund der Physiologie des Auges kann jedoch nur eine kleine Anzahl von Buchstaben um den Fixationsort mit hoher visueller Genauigkeit wahrgenommen werden, während die Sichtbarkeit der Buchstaben und Wörter außerhalb der sogenannten fovealen Zone mit zunehmender Entfernung stark abnimmt. Während des Lesens sind deshalb sakkadische Augenbewegungen erforderlich, um die Fovea zur visuellen Identifikation neuer Wörter wiederholt innerhalb des Textes zu verschieben. Auch innerhalb eines direkt betrachteten Wortes erlauben mittige Fixationsorte eine effizientere Wortverarbeitung als randnahe Blickpositionen (O’Regan, 1981; Brysbaert, Vitu, and Schroyens, 1996). Die meisten Lesemodelle nehmen deshalb an, dass Leser auf die Mitte von Worten zielen (für eine Übersicht siehe Reichle, Rayner, & Pollatsek, 2003). Es zeigt sich aber, dass Landepositionen innerhalb von Wörtern im Lesen von der Distanz der Startposition einer Sakkade zur Mitte des Zielwortes moduliert werden (McConkie, Kerr, Reddix, & Zola, 1988). Noch ist weitgehend unklar, wie Leser die Mitte eines Zielwortes identifizieren. Es fehlt an computationalen Modellen die die sensumotorische Umwandlung der Auswahl eines Zielwortes in eine räumliche Koordinate der Wortmitte beschreiben. Wir präsentieren hier eine Reihe von drei Studien, die darauf abzielen, das Wissen über die Berechnung von Sakkadenzielkoordinaten im Lesen zu erweitern. In einer umfangreichen Korpusanalyse identifizerten wir zunächst das Überspringen von Wörtern als weiteren wichtigen Faktor bei der Sakkadenprogrammierung, der einen ähnlich systematischen und großen Effekt auf die Landepositionen hat wie die Startpositionen der Sakkaden. Anschließend zeigen wir Ergebnisse eines einfachen Sakkadenexperiments, welche nahelegen, dass der Effekt übersprungener Wörter das Ergebnis hoch automatisierter perzeptueller Prozesse ist, die wesentlich auf der Bestimmung von Leerzeichen zwischen Wörtern basieren. Schließlich präsentieren wir ein Bayesianisches Modell der Berechnung von Wortmitten auf der Grundlage der primären sensorischen Erfassungen von Leerzeichen zwischen Wörtern. Wir zeigen, dass das Modell gleichzeitig Effekte der Startposition und des Sakkadentyps erklärt. Unsere Arbeiten zeigen, dass die Berechnung räumlicher Koordinaten für die Sakkadenprogrammierung im Lesen auf einer komplexen Schätzung der Wortmitte anhand unvollständiger sensorischer Informationen beruht, die zu systematischen Abweichungen von der tatsächlichen Wortmitte führt. Unsere Ergebnisse haben wichtige Folgen für gegenwärtige Lesemodelle und für die experimentelle Leseforschung. KW - Blickbewegungen beim Lesen KW - Landepositionen KW - Modell der Bayesianischen Sakkadenplanung KW - Überspringen von Wörtern KW - Wortgrenzen KW - eye movements during reading KW - landing positions KW - model of Bayesian saccade planning KW - word skipping KW - word boundaries Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72599 ER - TY - THES A1 - Lorey, Johannes T1 - What's in a query : analyzing, predicting, and managing linked data access T1 - Was ist in einer Anfrage : Analyse, Vorhersage und Verwaltung von Zugriffen auf Linked Data N2 - The term Linked Data refers to connected information sources comprising structured data about a wide range of topics and for a multitude of applications. In recent years, the conceptional and technical foundations of Linked Data have been formalized and refined. To this end, well-known technologies have been established, such as the Resource Description Framework (RDF) as a Linked Data model or the SPARQL Protocol and RDF Query Language (SPARQL) for retrieving this information. Whereas most research has been conducted in the area of generating and publishing Linked Data, this thesis presents novel approaches for improved management. In particular, we illustrate new methods for analyzing and processing SPARQL queries. Here, we present two algorithms suitable for identifying structural relationships between these queries. Both algorithms are applied to a large number of real-world requests to evaluate the performance of the approaches and the quality of their results. Based on this, we introduce different strategies enabling optimized access of Linked Data sources. We demonstrate how the presented approach facilitates effective utilization of SPARQL endpoints by prefetching results relevant for multiple subsequent requests. Furthermore, we contribute a set of metrics for determining technical characteristics of such knowledge bases. To this end, we devise practical heuristics and validate them through thorough analysis of real-world data sources. We discuss the findings and evaluate their impact on utilizing the endpoints. Moreover, we detail the adoption of a scalable infrastructure for improving Linked Data discovery and consumption. As we outline in an exemplary use case, this platform is eligible both for processing and provisioning the corresponding information. N2 - Unter dem Begriff Linked Data werden untereinander vernetzte Datenbestände verstanden, die große Mengen an strukturierten Informationen für verschiedene Anwendungsgebiete enthalten. In den letzten Jahren wurden die konzeptionellen und technischen Grundlagen für die Veröffentlichung von Linked Data gelegt und verfeinert. Zu diesem Zweck wurden eine Reihe von Technologien eingeführt, darunter das Resource Description Framework (RDF) als Datenmodell für Linked Data und das SPARQL Protocol and RDF Query Language (SPARQL) zum Abfragen dieser Informationen. Während bisher hauptsächlich die Erzeugung und Bereitstellung von Linked Data Forschungsgegenstand war, präsentiert die vorliegende Arbeit neuartige Verfahren zur besseren Nutzbarmachung. Insbesondere werden dafür Methoden zur Analyse und Verarbeitung von SPARQL-Anfragen entwickelt. Zunächst werden daher zwei Algorithmen vorgestellt, die die strukturelle Ähnlichkeit solcher Anfragen bestimmen. Beide Algorithmen werden auf eine große Anzahl von authentischen Anfragen angewandt, um sowohl die Güte der Ansätze als auch die ihrer Resultate zu untersuchen. Darauf aufbauend werden verschiedene Strategien erläutert, mittels derer optimiert auf Quellen von Linked Data zugegriffen werden kann. Es wird gezeigt, wie die dabei entwickelte Methode zur effektiven Verwendung von SPARQL-Endpunkten beiträgt, indem relevante Ergebnisse für mehrere nachfolgende Anfragen vorgeladen werden. Weiterhin werden in dieser Arbeit eine Reihe von Metriken eingeführt, die eine Einschätzung der technischen Eigenschaften solcher Endpunkte erlauben. Hierfür werden praxisrelevante Heuristiken entwickelt, die anschließend ausführlich mit Hilfe von konkreten Datenquellen analysiert werden. Die dabei gewonnenen Erkenntnisse werden erörtert und in Hinblick auf die Verwendung der Endpunkte interpretiert. Des Weiteren wird der Einsatz einer skalierbaren Plattform vorgestellt, die die Entdeckung und Nutzung von Beständen an Linked Data erleichtert. Diese Plattform dient dabei sowohl zur Verarbeitung als auch zur Verfügbarstellung der zugehörigen Information, wie in einem exemplarischen Anwendungsfall erläutert wird. KW - Vernetzte Daten KW - SPARQL KW - RDF KW - Anfragepaare KW - Informationsvorhaltung KW - linked data KW - SPARQL KW - RDF KW - query matching KW - prefetching Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72312 ER - TY - THES A1 - Lotkowska, Magda Ewa T1 - Functional analysis of MYB112 transcription factor in the model plant Arabidopsis thaliana T1 - Funktionelle Charakterisierung von MYB112 Transkriptionsfaktor aus der Modellpflanze Arabidopsis thaliana N2 - Transcription factors (TFs) are ubiquitous gene expression regulators and play essential roles in almost all biological processes. This Ph.D. project is primarily focused on the functional characterisation of MYB112 - a member of the R2R3-MYB TF family from the model plant Arabidopsis thaliana. This gene was selected due to its increased expression during senescence based on previous qRT-PCR expression profiling experiments of 1880 TFs in Arabidopsis leaves at three developmental stages (15 mm leaf, 30 mm leaf and 20% yellowing leaf). MYB112 promoter GUS fusion lines were generated to further investigate the expression pattern of MYB112. Employing transgenic approaches in combination with metabolomics and transcriptomics we demonstrate that MYB112 exerts a major role in regulation of plant flavonoid metabolism. We report enhanced and impaired anthocyanin accumulation in MYB112 overexpressors and MYB112-deficient mutants, respectively. Expression profiling reveals that MYB112 acts as a positive regulator of the transcription factor PAP1 leading to increased anthocyanin biosynthesis, and as a negative regulator of MYB12 and MYB111, which both control flavonol biosynthesis. We also identify MYB112 early responsive genes using a combination of several approaches. These include gene expression profiling (Affymetrix ATH1 micro-arrays and qRT-PCR) and transactivation assays in leaf mesophyll cell protoplasts. We show that MYB112 binds to an 8-bp DNA fragment containing the core sequence (A/T/G)(A/C)CC(A/T)(A/G/T)(A/C)(T/C). By electrophoretic mobility shift assay (EMSA) and chromatin immunoprecipitation coupled to qPCR (ChIP-qPCR) we demonstrate that MYB112 binds in vitro and in vivo to MYB7 and MYB32 promoters revealing them as direct downstream target genes. MYB TFs were previously reported to play an important role in controlling flavonoid biosynthesis in plants. Many factors acting upstream of the anthocyanin biosynthesis pathway show enhanced expression levels during nitrogen limitation, or elevated sucrose content. In addition to the mentioned conditions, other environmental parameters including salinity or high light stress may trigger anthocyanin accumulation. In contrast to several other MYB TFs affecting anthocyanin biosynthesis pathway genes, MYB112 expression is not controlled by nitrogen limitation, or carbon excess, but rather is stimulated by salinity and high light stress. Thus, MYB112 constitutes a previously uncharacterised regulatory factor that modifies anthocyanin accumulation under conditions of abiotic stress. N2 - Transkriptionsfaktoren (TFs) sind ubiquitäre Regulatoren der Genexpression und spielen eine essentielle Rolle in nahezu allen biologischen Prozessen. Diese Doktorarbeit hat vor allem die funktionelle Charakterisierung von MYB112 zum Thema, einem Mitglied der R2R3-MYB-TF-Familie aus der Modellpflanze Arabidopsis thaliana. Ausgesucht wurde das Gen aufgrund seiner erhöhten Expression in seneszenten Blättern, basierend auf vorangegangenen qRT-PCR Expressions-Profiling Experimenten für 1880 TFs in Arabidopsis Blättern aus drei Entwicklungsstadien (15 mm Blatt, 30 mm Blatt und 20 % vergilbtes Blatt). MYB112-Promotor-GUS-Fusionslinien wurden generiert um das Expressionsmuster von MYB112 detailliert zu untersuchen. Unter Zuhilfenahme transgener Ansätze in Kombination mit Metabolomics und Transcriptomics können wir zeigen, dass MYB112 eine wichtige Rolle in der Regulation des pflanzlichen Flavonoid-Metabolismus spielt. In MYB112 Überexpressoren und MYB112-defizienten Mutanten kommt es zu erhöhter bzw. verminderter Anthocyanin-Akkumulation. Expressions-Profiling zeigt, dass MYB112 einerseits als ein positiver Regulator des Transkriptionsfaktors PAP1 fungiert, was zu einer erhöhten Anthocyanin-Biosynthese führt, andererseits als negativer Regulator von MYB12 und MYB111 auftritt, welche beide die Flavonol-Biosynthese kontrollieren. Wir haben früh auf MYB112 reagierende Gene durch eine Kombination verschiedener Ansätze identifiziert. Diese umfassen Genexpressions-Profiling (Affymetrix ATH1 Microarrays und qRT-PCR) und Transaktivierungs-Experimente in Mesophyll-Protoplasten aus Blättern. Wir zeigen, dass MYB112 an eine 8-bp DNA-Fragment, welches die Kernsequenz (A/T/G)(A/C)CC(A/T)(A/G/T)(A/C)(T/C) aufweist. Mit Hilfe von Electrophoretic Mobility Shift Assay (EMSA) und Chromatin-Immunopräzipitation gekoppelt mit qPCR (ChIP-qPCR) zeigen wir, dass MYB112 in vitro und in vivo an die Promotoren von MYB7 und MYB32 bindet was sie damit als direkte Zielgene von MYB112 identifiziert. Es wurde bereits gezeigt, dass MYB TFs eine wichtige Rolle bei der Kontrolle der Flavonoid-Biosynthese in Pflanzen haben. Viele Faktoren, die oberhalb des Anthocyanin-Biosyntheseweges agieren, werden bei Stickstofflimitierung oder erhöhter Saccharose-Konzentration auch verstärkt exprimiert. Außer den erwähnten Bedingungen können auch andere Umweltparameter, wie z. B. erhöhter Salzgehalt und Starklicht zu erhöhter Expression führen. Im Gegensatz jedoch zu einigen anderen MYB TFs, die einen Einfluss auf Gene des Anthocyanin-Biosyntheseweges ausüben, ist die Expression von MYB112 nicht durch Stickstoff-Limitierung oder Kohlenstoffüberfluss kontrolliert, sondern wird durch erhöhten Salzgehalt sowie Starklicht stimuliert. Somit ist MYB112 ein neuer Regulator, der eine Anthocyanin-Akkumulation unter abiotischen Stressbedingungen kontrolliert. KW - Transkriptionsfaktoren KW - Flavonoid-Metabolismus KW - Stress KW - Transaktivierungs-Experimente KW - Chromatin-Immunopräzipitation KW - transcription factors KW - flavonoid biosynthesis KW - stress KW - transactivation assay KW - chromatin immunoprecipitation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72131 ER - TY - THES A1 - Maltseva, Elena T1 - Model membrane interactions with ions and peptides at the air/water interface T1 - Wechselwirkungen von Modellmembranen mit Ionen und Peptiden - studiert an der Luft-Wasser-Grenzfläche N2 - The interactions between peptides and lipids are of fundamental importance in the functioning of numerous membrane-mediated biochemical processes including antimicrobial peptide action, hormone-receptor interactions, drug bioavailability across the blood-brain barrier and viral fusion processes. Alteration of peptide structure could be a cause of many diseases. Biological membranes are complex systems, therefore simplified models may be introduced in order to understand processes occurring in nature. The lipid monolayers at the air/water interface are suitable model systems to mimic biological membranes since many parameters can be easily controlled. In the present work the lipid monolayers were used as a model membrane and their interactions with two different peptides B18 and Amyloid beta (1-40) peptide were investigated. B18 is a synthetic peptide that binds to lipid membranes that leads to the membrane fusion. It was demonstrated that it adopts different structures in the aqueous solutions and in the membrane interior. It is unstructured in solutions and forms alpha-helix at the air/water interface or in the membrane bound state. The peptide has affinity to the negatively charged lipids and even can fold into beta-sheet structure in the vicinity of charged membranes at high peptide to lipid ratio. It was elucidated that in the absence of electrostatic interactions B18 does not influence on the lipid structure, whereas it provides partial liquidization of the negatively charged lipids. The understanding of mechanism of the peptide action in model system may help to develop the new type of antimicrobial peptides as well as it can shed light on the general mechanisms of peptide/membrane binding. The other studied peptide - Amyloid beta (1-40) peptide, which is the major component of amyloid plaques found in the brain of patients with Alzheimer's disease. Normally the peptide is soluble and is not toxic. During aging or as a result of the disease it aggregates and shows a pronounced neurotoxicity. The peptide aggregation involves the conformational transition from a random coil or alpha-helix to beta-sheets. Recently it was demonstrated that the membrane can play a crucial role for the peptide aggregation and even more the peptide can cause the change in the cell membranes that leads to a neuron death. In the present studies the structure of the membrane bound Amyloid beta peptide was elucidated. It was found that the peptide adopts the beta-sheet structure at the air/water interface or being adsorbed on lipid monolayers, while it can form alpha-helical structure in the presence of the negatively charged vesicles. The difference between the monolayer system and the bulk system with vesicles is the peptide to lipid ratio. The peptide adopts the helical structure at low peptide to lipid ratio and folds into beta-sheet at high ratio. Apparently, Abeta peptide accumulation in the brain is concentration driven. Increasing concentration leads to a change in the lipid to peptide ratio that induces the beta-sheet formation. The negatively charged lipids can act as seeds in the plaque formation, the peptide accumulates on the membrane and when the peptide to lipid ratio increases it the peptide forms toxic beta-sheet containing aggregates. N2 - Wechselwirkungen zwischen Peptiden und Lipiden sind von grundlegender Bedeutung für die Funktion vieler Membran-vermittelter biochemischer Prozesse wie der Wirkung von antimikrobiellen Peptiden, Hormon-Rezeptor Wechselwirkungen, Bioverfügbarkeit von Arzneistoffen durch die Blut-Hirn-Schranke und viraler Fusionsprozesse. Veränderungen in der Peptidstruktur können die Ursache für viele Erkrankungen sein. Biologische Membranen sind für grundlegende physikalisch-chemische Untersuchungen von Naturprozessen zu komplexe Systeme, so dass vereinfachte Modelle für solche Studien eingesetzt werden. Eine Lipidmonoschicht an der Wasser/Luft Grenzfläche ist ein geeignetes Modellsystem für eine Membranoberfläche. Viele physikalisch-chemischen Parameter können auf einfache Weise gezielt verändert werden. In der vorliegenden Arbeit wurden Lipidmonoschichten genutzt, um Wechselwirkungen mit zwei unterschiedlichen Peptiden (B18 and Amyloid Beta (1-40) Peptid) zu untersuchen. B18 ist ein oberflächenaktives synthetisches Peptid, das an Lipidmembranen bindet und zu Membranfusion führt. Es kann verschiedene Sekundärstrukturen ausbilden. So ist B18 in wässrigen Lösungen ungeordnet und bildet eine alpha-helikale Struktur an der Wasser/Luft Grenzfläche. Das Peptid hat eine große Affinität zu negativ geladenen Lipiden und kann in der Nähe von geladenen Membranoberflächen bei einem großen Peptid/Lipid Verhältnis eine Beta-Faltblatt Struktur ausbilden. Beim Fehlen elektrostatischer Wechselwirkungen hat B18 keinen Einfluss auf die Lipidstruktur. Es wirkt jedoch strukturabbauend auf anionische Lipide. Das Verständnis der Peptidwirkungen in Modellsystemen kann helfen, generelle Mechanismen von Peptide-Membran Wechselwirkungen zu verstehen und zur Entwicklung neuer antimikrobieller Peptide beizutragen. Amyloid Beta (1-40) Peptid ist die Hauptkomponente von Amyloid-Plaque, das im Gehirn von Alzheimer Patienten gefunden wird. Normalerweise ist das Peptid löslich und nicht toxisch. Hohe Neurotoxizität wird bei Peptidaggregation, die eine Strukturumwandlung von ungeordnet oder alpha-helikal zu Beta-Faltblatt nach sich zieht, beobachtet. In der vorliegenden Arbeit wurde die Struktur des Membran-gebundenen Amyloid Beta (1-40) Peptids untersucht. Es zeigte sich, dass das Peptid nach Adsorption an die Wasser/Luft Grenzfläche oder an Lipidmonoschichten eine Beta-Faltblatt Struktur ausbildet. Eine alpha-helikale Sekundärstruktur wird nur bei Anwesenheit negativ geladenen Lipidvesikel gefunden. Der entscheidende Unterschied zwischen den Monoschicht- und Vesikel-Systemen ist das Peptid/Lipid Verhältnis. Die alpha-helikale Struktur wird nur bei kleinem Peptid/Lipid Verhältnis beobachtet, während bei großem eine Beta-Faltblatt Struktur auftritt. Steigende Konzentration an Amyloid Beta (1-40) Peptid führt zum Anstieg des Peptid/Lipid Verhältnisses und damit zur Ausbildung der Beta-Faltblatt Struktur. Negativ geladene Lipide können somit als Keimpunkte für die Plaquebildung fungieren. KW - Lipide KW - Monoschicht KW - Peptide KW - Phospholipid KW - Langmuir monolayers KW - IRRAS KW - Amyloid peptide Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5670 ER - TY - THES A1 - Marcano Romero, Gabriela Helena T1 - Investigations on sedimentology and early diagenesis in shallow-water warm-temperate to tropical miocene carbonates : a case study from Northern Sardinia, Italy T1 - Untersuchungen zur Sedimentologie und frühen Diagenese in warmgemäßigten bis tropischen Flachwasser-Carbonaten des Miozäns : eine Fallstudie aus Nord-Sardinien, Italien N2 - This study investigated the warm-temperate to tropical shallow-water Miocene carbonates of the Perfugas basin (Anglona area), northern Sardinia, Italy (Central Mediterranean). The aim of this study was to identify and document the existence and significance of early diagenesis in this carbonate system, especially the diagenetic history, which reflects the diagenetic potential in terms of skeletal mineralogy. The motivation behind the present study was to investigate the role that early cementation has over facies stabilization linked to differences in biotic associations in shallow-water settings. Principal to this was to unravel the amount, kind and distribution of early cements in this type of carbonates, in order to complement previous studies, and hence acquire a more global perspective on non-tropical carbonate settings. The shallow-buried Sedini Limestone Unit was investigated for variations on early diagenetic features, as well as for the type of biotic association, and oxygen and carbon stable isotope stratigraphy. Results showed, that particularly at the Perfugas basin (< 15 km2), which evolves in time from a ramp into a steep-flanked platform, shallow-water facies are characterized by a “transitional” type of biotic association. The biotic assemblages change gradually over time from a heterozoan-rich into a photozoan-rich depositional system. This transition implies a change in the depositional environmental control factors such as temperature. It is considered that sedimentation took place under warm-temperate waters, which shifted to more warmer or tropical waters through time. Moreover, it was noticed that along with these changes, marine early syn-depositional cements (high-Mg calcite), with particular fabrics (e.g. fibrous), gradually contributed to the early lithification of rocks, favoring a steepening of the platform relief. The major controls for the shift of the depositional geometry was triggered by the change of the type of biotic associations (carbonate factory), related with the shift towards warmer conditions, and the development of early marine cementation. The identification of the amount and distribution of different cement phases, porosities and early diagenetic features, within facies and stratigraphy, showed that diagenesis is differential along depth, and within the depositional setting. High-Mg calcite cements (micrite, fibrous and syntaxial inclusion-rich) are early syn-depositional, facies-related (shallow-water), predominant at the platform phase, and marine in origin. Low-Mg calcite cements (bladed, syntaxial inclusionpoor and blocky) are early to late post-depositional, non-facies related (shallow- to deep-water) and shallow-burial marine in origin. However, a particular difference exists when looking at the amount and distribution of low-Mg calcite bladed cements. They become richer in shallow-water facies at the platform phase, suggesting that the enrichment of bladed cementation is linked to the appearance of metastable grains (e.g. aragonite). In both depositional profiles, the development of secondary porosity is the product of fabric-selective dissolution of grains (aragonite, high-Mg calcite) and/or cements (syntaxial inclusion-rich). However, stratigraphy and stable isotopes (oxygen and carbon), indicate that the molds found at shallower facies located beneath, and close to stratigraphic boundaries, have been produced by the infiltration of meteoric-derived water, which caused recrystallization without calcite cementation. Away from these stratigraphic locations, shallow- and deep-water facies show molds, and recrystallization, as well as low-Mg calcite cementation, interpreted as occurring during burial of these sediments by marine waters. The main cement source is suggested to be aragonite. Our results indicate that the Sedini Limestone Unit was transformed in three different diagenetic environments (marine, meteoric and shallow-burial marine); however, the degree of transformation in each diagenetic environment differs in the heterozoan-dominated ramp from the photozoan-dominated platform. It is suggested that the sediments from the ramp follow a diagenetic pathway similar to their heterozoan counterparts (i.e. lack of marine cementation, and loss of primary porosity by compaction), and the sediments from the platform follow a diagenetic pathway similar to their photozoan counterparts (i.e. marine cementation occluding primary porosity). However, in this carbonate setting, cements are Mg-calcite, no meteoric cementation was produced, and secondary porosity at shallow-water facies of the platform phase is mostly open and preserved. Despite the temporal and transitional change in biotic associations, ramp and platform facies (shallow- to deep-water facies) showed an oxygen isotope record overprinted by diagenesis. Oxygen primary marine signatures were not found. It is believed that burial diagenesis (recrystallization and low-Mg calcite cementation) was the main reason. This was unexpected at the ramp, since heterozoan-rich carbonates can hold isotope values close to primary marine signals due to their low-Mg calcite original composition. Ramp and platform facies (shallow- to deep-water facies) showed a carbon isotope record that was less affected by diagenesis. However, only at deep-water facies, did the carbon record show positive values comparable with carbon primary marine signals. The positive carbon values were noticed with major frequency at the platform deep-water facies. Moreover, these values usually showed a covariant trend with the oxygen isotope record; even that the latter did not hold positive values. The main conclusion of this work is that carbonates, deposited under warm-temperate to tropical conditions, have a unique facies, diagenesis and chemostratigraphic expression, which is different from their cool-water heterozoan or warm-water photozoan counterparts, reflecting the “transitional” nature of biotic association. N2 - Diese Arbeit befasst sich mit den warmen bis tropischen miozänen Flachwasserkarbonaten des Perfugas Beckens (Region Anglona) im nördlichen Sardinien, Italien. Ziel dieser Arbeit war es, die Existenz und Signifikanz der frühen Diagenese in diesem Karbonatsystem zu identifizieren und zu dokumentieren. Die Geschichte der Verfestigung reflektiert dabei das diagenetische Potential, welches von der Mineralogie der Grundgerüste ehemaliger Lebewesen abhängig ist. Die Motivation bestand darin, die frühe Zementation der Karbonate zu beschreiben, da sie eine wesentliche Rolle bei der Faziesstabilisierung spielt wenn diese durch unterschiedliche biotische Verbindungen im Flachwasser aufgebaut wurde. Der Fokus dieser Studie liegt bei der Trennung von Menge, Art und Verteilung der frühen Zemente in Karbonaten. Frühere Arbeiten wurden ergänzt und zusammen gefasst, um eine globale Übersicht bezüglich nicht tropischer karbonatischer Milieus zu erlangen. Die flach abgelagerte Einheit der Sedini Karbonate wurde unter multiplen Gesichtspunkten z.B. früher diagenetischer Strukturen, biotischer Gesellschaften sowie durch Messungen stabiler Isotope an Sauerstoff und Kohlenstoff untersucht. Die Ergebnisse zeigen, dass das Perfugas Becken (< 15 km2), welches sich von einer Rampe zu einem, von steilen Flanken begrenzten, Plateau entwickelte und sich durch eine Flachwasserfazies auszeichnet, die auf eine “Übergangsart” der biotischen Gemeinschaft hinweist. Diese Gemeinschaft veränderte sich allmählich von einem heterozoischen zu einem photozoischen Ablagerungssystem. Diese Verschiebung impliziert einen Wechsel der Faktoren, wie der Temperatur, die das Ablagerungsmilieu beeinflussen. Es wird angenommen, dass die Sedimentation in warmen Gewässern stattfand, welche sich bis hin zu tropischen Temperaturen kontinuiertlich erwärmten. Es ist bekannt, dass sich parallel zu diesen marinen Veränderungen frühe Mg- reiche kalzitische Zemente bildeten, die ein ausgeprägtes z.T. faseriges Gefüge zeigen. Diese unterstützen die frühe Verfestigung der Kalke und ermöglichen eine Versteilung des Reliefs der Plattform. Die hauptsächlichen Faktoren, die eine Verschiebung der Ablagerungsumgebung hervorriefen, wurden durch die Veränderung der biotischen Gesellschaft und durch die Entwicklung früher Zemente aufgezeichnet, die wiederum mit der Erwärmung des Habitats zusammenhängen. Die Identifizierung der Menge und Verteilung der verschiedenen Zementphasen, der Porosität und der frühen diagenetischen Elemente in Fazies und Stratigraphie zeigen, dass die Verfestigung mit zunehmender Tiefe und innerhalb des Ablagerungsareals variiert. Mg- reiche kalzitische Zemente (mikritisch, faserig, syntaxial einschlussreich) wurden im frühen, marinen Stadium während der Ablagerung gebildet. Mg- arme kalzitische Zemente (blättrig, syntaxial einschlussarm, blockig) entstanden nach der Ablagerung im flachen bis tiefen marinen Wasser z.T. unter überlagernden Einheiten. Ein offensichtlicher Unterschied existiert bei Menge und Verteilung von Mg-armen, blättrigen Zementen. Sie werden in der Flachwasserfazies innerhalb der Plattformphase häufiger, was mit dem Auftreten metastabiler aragonitischer Körner zusammen fällt. In beiden Ablagerungsprofilen ist die Entwicklung der Sekundärporosität das Produkt einer gefügeabhängigen Auflösung der Körner (aragonit, Mg-reiche Kalzite) und/oder der Zemente (syntaxial einschlussreich). Stratigraphie und stabile Isotope (Sauerstoff, Kohlenstoff) zeigen jedoch, dass sich Abdrücke in der Flachwasserfazies finden lassen, die sich zwischen und in der Nähe der stratigraphischen Grenze befinden. Die Abdrücke entstanden durch Infiltration von meteorischen Wässern, was zu Rekristallisation ohne kalzitische Verfestigung führte. Fernab dieser stratigraphischen Lokalitäten, zeigen Flach- und Tiefwasserfazien Abdrücke, Rekristallisationen und Mg-arme kalzitische Zemente die offensichtlich durch Überlagerung dieser Sedimente in marinen Gewässern entstanden sind. Als Hauptzementkomponent wird Aragonit angenommen. Unsere Ergebnisse zeigen, dass die Sedini Kalksteineinheit in drei verschiedene diagenetische Umgebungen umstrukturiert wurde (marin, meteorisch, flach überlagert). Der Grad der Umwandlung in den einzelnen diagenetischen Umgebungen unterscheidet sich von der heterozoisch dominierten Rampe zur photozoisch dominierten Plattform. Es wird angenommen, dass die Sedimente der Rampe einem diagenitischen Pfad folgen, der ähnlich des heterozoischen Gegenstücks verläuft (z.B. Fehlen der marinen Zementation, Verlust primärer Porosität durch Kompaktion). Die Plattformsedimente folgen einer diagenetischen Abfole ähnlich ihrer photozoischen Pendants (z.B. marine Zementation welche die primäre Porosität). In diesem Karbonatumfeld sind die Zemente Mg-reich und nicht meteorische verfestigt. Eine sekundäre Porosität der Flachwasserfazien in der Plattformphase ist offen und gut erhalten. Trotz der temporären und vorübergehenden Wechsel in den biotischen Vergesellschaftungen, in den Flachwasserfazien von Rampe und Plattform wie in den Tiefwasserfazien der Rampen, sind Signale in den Sauerstoffisotopen erkennbar, wenn diese auch durch von der Diagenese überdeckt. In diesen Fazien wurden keine primären, marinen Sauerstoffisotopien gefunden. Es wird angenomen, dass die erfolgte überdeckt Diagenese (rekristallisation, Mg-arme kalzitische Zementation) der Hauptgrund dieser fehlenden Isotopensignale darstellen. Dies war an der Rampe unerwartet, da heterozoen-reiche Karbonate primäre, marine Isotopenwerte speichern können, welches aufgrund ihrer Mg-armen Zusammensetzung ermöglicht wird. Das Kohlenstoffisotopensignal der unterscheidlichen Fazien von Rampe und Plattform, zeigten sich weniger von der Diagenese betroffen. Nur in den Tiefwasserfazien zeigte das Kohlenstoffsignal positive Werte, vergleichbar mit primären, marinen Signalen. Die positiven Kohlenstoffwerte wurden an den Plattformtiefenwasserfazien mit größter Häufighkeit registriert. Diese Werte zeigten in der Regel einen kovarianten Trend mit dem Sauerstoffisotopensignal, sogar wenn letzterer keine positiven Werte enthielt. Die Schlussfolgerung aus dieser Arbeit ist, dass Karbonate welche unter warmen bis tropischen Verhältnissen abgelagert wurden, eine einmalige Faziesgenese und chemische Stratigraphie aufweisen. Diese ist unterschiedlich zu ihren heterozoischen Kaltwasser oder ihren photozoischen Gegenstücken aus wärmeren Wässern. Dies wiederum reflektiert gut das “transitionale” Wesen einer biotischen Gesellschaft. KW - Diagenese KW - Carbonate KW - Miozän KW - Sardinien KW - Sedimentologie KW - Diagenesis KW - Carbonates KW - Miocene KW - Sardinia KW - Sedimentology Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29207 ER - TY - THES A1 - Marquart, Arnim T1 - Feedbacks between macropores and soil water infiltration in semi-arid savanna systems Y1 - 2019 ER - TY - THES A1 - Mondal, Suvendu Sekhar T1 - Design of isostructural metal-imidazolate frameworks : application for gas storage T1 - Synthese isostruktureller Metall-Imidazolat Frameworks : Anwendung für Gasspeicherung N2 - The sharply rising level of atmospheric carbon dioxide resulting from anthropogenic emissions is one of the greatest environmental concerns facing our civilization today. Metal-organic frameworks (MOFs) are a new class of materials that constructed by metal-containing nodes bonded to organic bridging ligands. MOFs could serve as an ideal platform for the development of next generation CO2 capture materials owing to their large capacity for the adsorption of gases and their structural and chemical tunability. The ability to rationally select the framework components is expected to allow the affinity of the internal pore surface toward CO2 to be precisely controlled, facilitating materials properties that are optimized for the specific type of CO2 capture to be performed (post-combustion capture, precombustion capture, or oxy-fuel combustion) and potentially even for the specific power plant in which the capture system is to be installed. For this reason, significant effort has been made in recent years in improving the gas separation performance of MOFs and some studies evaluating the prospects of deploying these materials in real-world CO2 capture systems have begun to emerge. We have developed six new MOFs, denoted as IFPs (IFP-5, -6, -7, -8, -9, -10, IFP = Imidazolate Framework Potsdam) and two hydrogen-bonded molecular building block (MBB, named as 1 and 2 for Zn and Co based, respectively) have been synthesized, characterized and applied for gas storage. The structure of IFP possesses 1D hexagonal channels. Metal centre and the substituent groups of C2 position of the linker protrude into the open channels and determine their accessible diameter. Interestingly, the channel diameters (range : 0.3 to 5.2 Å) for IFP structures are tuned by the metal centre (Zn, Co and Cd) and substituent of C2 position of the imidazolate linker. Moreover hydrogen bonded MBB of 1 and 2 is formed an in situ functionalization of a ligand under solvothermal condition. Two different types of channels are observed for 1 and 2. Materials contain solvent accessible void space. Solvent could be easily removed by under high vacuum. The porous framework has maintained the crystalline integrity even without solvent molecules. N2, H2, CO2 and CH4 gas sorption isotherms were performed. Gas uptake capacities are comparable with other frameworks. Gas uptake capacity is reduced when the channel diameter is narrow. For example, the channel diameter of IFP-5 (channel diameter: 3.8 Å) is slightly lower than that of IFP-1 (channel diameter: 4.2 Å); hence, the gas uptake capacity and Brunauer-Emmett-Teller (BET) surface area are slightly lower than IFP-1. The selectivity does not depend only on the size of the gas components (kinetic diameter: CO2 3.3 Å, N2 3.6 Å and CH4 3.8 ) but also on the polarizability of the surface and of the gas components. IFP-5 and-6 have the potential applications for the separation of CO2 and CH4 from N2-containing gas mixtures and CO2 and CH4 containing gas mixtures. Gas sorption isotherms of IFP-7, -8, -9, -10 exhibited hysteretic behavior due to flexible alkoxy (e.g., methoxy and ethoxy) substituents. Such phenomenon is a kind of gate effects which is rarely observed in microporous MOFs. IFP-7 (Zn-centred) has a flexible methoxy substituent. This is the first example where a flexible methoxy substituent shows the gate opening behavior in a MOF. Presence of methoxy functional group at the hexagonal channels, IFP-7 acted as molecular gate for N2 gas. Due to polar methoxy group and channel walls, wide hysteretic isotherm was observed during gas uptake. The N2 The estimated BET surface area for 1 is 471 m2 g-1 and the Langmuir surface area is 570 m2 g-1. However, such surface area is slightly higher than azolate-based hydrogen-bonded supramolecular assemblies and also comparable and higher than some hydrogen-bonded porous organic molecules. N2 - Metallorganische Gerüstverbindungen (MOFs) sind eine neue Klasse von porösen Koordinationspolymeren, die aus Metall-Knoten und verbrückenden Liganden bestehen. MOFs können Gasgemische trennen und Gase speichern. Aufgrund ihres modularen Aufbaus können die MOF-Eigenschaften systematisch variiert werden. Ein wichtiges Ziel für das Design von MOFs ist die Synthese von Materialien, die eine hohe selektive Aufnahmefähigkeit und -kapazität für Kohlenstoffdioxid besitzen. Im Rahmen der Arbeit ist es gelungen sechs neue MOFs (IFP-5, -6, -7, -8, -9 und -10) zu synthetisieren. Diese MOFs tragen die Kurzbezeichnung IFP. IFP steht als Abkürzung für Imidazolat-Framework-Potsdam (Imidazolat-basierte Gerüstverbindung Potsdam). In diesen IFPs wurde der Metallknoten (Zink, Cobalt, Cadmium) und der Brückenligand, ein 2-substituiertes Imidazolat-amid-imidat, in der Position variiert, um gute und selektive Sorptionseigenschaften für Kohlenstoffdioxid zu erzielen. Von den synthetisierten Verbindungen hat das IFP-5 die besten Sorptionseigenschaften für Kohlenstoffdioxid. Es konnte weiter gezeigt werden, dass sich die IFP-Struktur bei der Wahl von geeigneten Substituenten 2, wie z.B. Methoxy und Ethoxy auch für das Design von gate-opening (Tür-öffnenden) Effekten eignet. Diese Effekte können wiederum genutzt werden, um selektiv Gasmischungen zu trennen. Wenn man das 4,5-Dicyano-2-methoxy-imidazol in Gegenwart von Zink- und Cobalt-Salzen unter solvothermalen Bedingungen zur Reaktion bringt, erhält man beispiellose supramolekulare Wasserstoffbrückenbindungen zu einem dreidimensionalen Netzwerk, die mit Kanälen verknüpft sind. Diese Kanäle können von Lösungsmittelmolekülen (Wasser und Dimethylformamid) befreit werden und Gase aufnehmen. Insgesamt besteht nun die neue MOF-Klasse der Imidazolat-basierten IFPs aus Vertretern. Das Potential der 2-substituierten 4,5-Dicyanoimidazole ist nicht nur auf die Bildung von porösen Koordinationspolymeren beschränkt, sondern kann auch für die Synthese von bisher unbekannten supramolekularen Strukturen genutzt werden. KW - Metal-organic framework KW - Gas Sorption KW - Cobalt KW - Zinc KW - Ionic Liquid KW - metal-organic framework KW - gas sorption KW - cobalt KW - zinc KW - ionic liquid Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69692 ER - TY - THES A1 - Nowak, Jacqueline T1 - Devising computational tools to quantify the actin cytoskeleton and pavement cell shape using network-based approaches N2 - Recent advances in microscopy have led to an improved visualization of different cell processes. Yet, this also leads to a higher demand of tools which can process images in an automated and quantitative fashion. Here, we present two applications that were developed to quantify different processes in eukaryotic cells which rely on the organization and dynamics of the cytoskeleton.. In plant cells, microtubules and actin filaments form the backbone of the cytoskeleton. These structures support cytoplasmic streaming, cell wall organization and tracking of cellular material to and from the plasma membrane. To better understand the underlying mechanisms of cytoskeletal organization, dynamics and coordination, frameworks for the quantification are needed. While this is fairly well established for the microtubules, the actin cytoskeleton has remained difficult to study due to its highly dynamic behaviour. One aim of this thesis was therefore to provide an automated framework to quantify and describe actin organization and dynamics. We used the framework to represent actin structures as networks and examined the transport efficiency in Arabidopsis thaliana hypocotyl cells. Furthermore, we applied the framework to determine the growth mode of cotton fibers and compared the actin organization in wild-type and mutant cells of rice. Finally, we developed a graphical user interface for easy usage. Microtubules and the actin cytoskeleton also play a major role in the morphogenesis of epidermal leaf pavement cells. These cells have highly complex and interdigitated shapes which are hard to describe in a quantitative way. While the relationship between microtubules, the actin cytoskeleton and shape formation is the object of many studies, it is still not clear how and if the cytoskeletal components predefine indentations and protrusions in pavement cell shapes. To understand the underlying cell processes which coordinate cell morphogenesis, a quantitative shape descriptor is needed. Therefore, the second aim of this thesis was the development of a network-based shape descriptor which captures global and local shape features, facilitates shape comparison and can be used to evaluate shape complexity. We demonstrated that our framework can be used to describe and compare shapes from various domains. In addition, we showed that the framework accurately detects local shape features of pavement cells and outperform contending approaches. In the third part of the thesis, we extended the shape description framework to describe pavement cell shape features on tissue-level by proposing different network representations of the underlying imaging data. N2 - Aktuelle Entwicklungen in der Mikroskopie haben zu einer verbesserten Visualisierung von verschiedenen Zellprozessen geführt. Dennoch führt das auch zu einem höheren Bedarf an Werkzeugen, die Bilder in einer automatisierten und quantitativen Weise bearbeiten und analysieren können. Hier präsentieren wir zwei Anwendungen, die entwickelt wurden, um verschiedene Prozesse in eukaryotischen Zellen zu quantifizieren, welche von der Organisation und Dynamik des Zytoskeletts abhängig sind. In Pflanzenzellen bilden Mircotubuli und Aktinfilamente das Rückgrat des Zytoskeletts. Diese Strukturen unterstützen die Zytoplasmaströmung, die Organisation der Zellwand und den Transport von zellulärem Material zu und von der Plasmamembran. Um die zugrundeliegenden Mechanismen der Organisation, Dynamik und Koordination des Zytoskeletts zu verstehen, sind Hilfsmittel zur Quantifizierung notwendig. Während das ziemlich ausführlich für Microtubuli getan wurde, bleibt das Aktin-Zytoskelett schwer zu studieren aufgrund seines hoch dynamischen Verhaltens. Das erste Ziel dieser Arbeit war es daher, einen automatisierten Framework zu entwickeln, der die Aktin-Organisation und Dynamik quantifiziert und beschreibt. Wir haben diesen Framework genutzt, um Aktin-Strukturen als Netzwerke zu repräsentieren und haben damit die Transporteffizienz in Arabidopsis thaliana Hypocotylzellen untersucht. Des Weiteren haben wir den Framework genutzt, um den Wachstumsmodus in Baumwollfasern zu bestimmen und um die Aktin-Organisation in Reis-Wildtyp und Mutanten zu vergleichen. Zuletzt haben wir eine grafische Benutzeroberfläche zur einfacheren Benutzung entwickelt. Microtubuli und das Aktin-Zytoskelett spielen auch eine große Rolle in der Morphogenese von epidermalen Blattzellen. Diese Zellen haben hochkomplexe und interdigitale Formen, welche sehr schwer in einer quantitativen Art zu beschreiben sind. Während die Beziehung zwischen Microtubuli, dem Aktin-Zytoskelett und Formgestaltung der Zellen in vielen Studien untersucht wurde, ist es immer noch nicht ganz klar wie und ob die Zytoskelettkomponenten die Ein- und Ausbuchtungen in Blattzellen vorherbestimmen. Um die zugrundeliegenden Zellprozesse zu verstehen, die die Zellmorphogenese koordinieren, sind quantitative Beschreiber von Formen notwendig. Daher war das zweite Ziel dieser Arbeit die Entwicklung eines netzwerkbasierten Gestaltbeschreibers, welcher globale und lokale Gestaltmerkmale erfasst, einen Gestaltvergleich ermöglich und die Komplexität von Formen evaluieren kann. Wir haben nachgewiesen, dass unser Framework benutzt werden kann, um Formen aus verschiedenen Bereichen zu beschreiben und zu vergleichen. Darüber hinaus haben wir gezeigt, dass der Framework lokale Gestaltmerkmale in Blattzellen akkurat ermittelt und andere konkurrierende Methoden hinter sich lässt. Im dritten Teil der Arbeit haben wir den Gestaltbeschreiber erweitert, um Gestaltmerkmale von Blattzellen, bezogen auf das ganze Zellgewebe, zu beschreiben, indem wir verschiedene Netzwerkrepräsentationen der zugrundeliegenden Bilddaten vorstellen. KW - Netzwerke KW - Bildanalyse KW - Pflanzenzellen KW - Aktinzytoskelett KW - Zellform KW - pavement cells image analysis KW - cell shape KW - cell morphogenesis KW - actin cytoskeleton machine KW - learning networks plant KW - cells epidermis Y1 - 2020 ER - TY - THES A1 - Ott, Christian David T1 - Stellar iron core collapse in {3+1} general relativity and the gravitational wave signature of core-collapse supernovae T1 - Stellarer Eisenkernkollaps in Allgemeiner Relativitätstheorie und die Gravitationswellensignatur von Kern-Kollaps-Supernovae N2 - I perform and analyse the first ever calculations of rotating stellar iron core collapse in {3+1} general relativity that start out with presupernova models from stellar evolutionary calculations and include a microphysical finite-temperature nuclear equation of state, an approximate scheme for electron capture during collapse and neutrino pressure effects. Based on the results of these calculations, I obtain the to-date most realistic estimates for the gravitational wave signal from collapse, bounce and the early postbounce phase of core collapse supernovae. I supplement my {3+1} GR hydrodynamic simulations with 2D Newtonian neutrino radiation-hydrodynamic supernova calculations focussing on (1) the late postbounce gravitational wave emission owing to convective overturn, anisotropic neutrino emission and protoneutron star pulsations, and (2) on the gravitational wave signature of accretion-induced collapse of white dwarfs to neutron stars. N2 - Ich präsentiere die ersten Computer-Simulationen des rotierenden Kollapses stellarer Eisenkerne, die in der {3+1}-Zerlegung der Allgemeinen Relativitätstheorie durchgeführt werden und Vorsupernova-Sternmodelle aus Sternentwicklungsrechnungen, eine heiße nukleare Zustandsgleichung und ein näherungsweises Verfahren zur Beschreibung des Elektroneneinfangs enthalten und Neutrinodruck-Effekte berücksichtigen. Basierend auf den Ergebnissen dieser Rechnungen erhalte ich die zur Zeit realistischsten Vorhersagen für das Gravitationswellensignal der Kollaps, Abprall, Abkling und frühen Nach-Abprallphase einer Kern-Kollaps-Supernova. Neben den {3+1} Simulationen diskutiere ich newtonsche axisymmetrische Kern-Kollaps-Supernova-Simulationen mit Schwerpunkten auf: (1) der Gravitationswellenabstrahlung in der späten Nach-Abprallphase durch Konvektionsströmungen, anisotropische Neutrinoemission und Proto-Neutronenstern Pulsationen und (2) der Gravitationswellensignatur des Kollapses weißer Zwergsterne zu Neutronensternen, der durch Akkretion eingeleitet wird. KW - Gravitationswellen KW - Kern-Kollaps-Supernovae KW - Allgemeine Relativitätstheorie KW - Gravitational Waves KW - Core-Collapse Supernovae KW - General Relativity Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-12986 ER - TY - THES A1 - Paraskevopoulou, Sofia T1 - Adaptive genetic variation and responses to thermal stress in brachionid rotifers N2 - The importance of cryptic diversity in rotifers is well understood regarding its ecological consequences, but there remains an in depth comprehension of the underlying molecular mechanisms and forces driving speciation. Temperature has been found several times to affect species spatio-temporal distribution and organisms’ performance, but we lack information on the mechanisms that provide thermal tolerance to rotifers. High cryptic diversity was found recently in the freshwater rotifer “Brachionus calyciflorus”, showing that the complex comprises at least four species: B. calyciflorus sensu stricto (s.s.), B. fernandoi, B. dorcas, and B. elevatus. The temporal succession among species which have been observed in sympatry led to the idea that temperature might play a crucial role in species differentiation. The central aim of this study was to unravel differences in thermal tolerance between species of the former B. calyciflorus species complex by comparing phenotypic and gene expression responses. More specifically, I used the critical maximum temperature as a proxy for inter-species differences in heat-tolerance; this was modeled as a bi-dimensional phenotypic trait taking into consideration the intention and the duration of heat stress. Significant differences on heat-tolerance between species were detected, with B. calyciflorus s.s. being able to tolerate higher temperatures than B. fernandoi. Based on evidence of within species neutral genetic variation, I further examined adaptive genetic variability within two different mtDNA lineages of the heat tolerant B. calyciflorus s.s. to identify SNPs and genes under selection that might reflect their adaptive history. These analyses did not reveal adaptive genetic variation related to heat, however, they show putatively adaptive genetic variation which may reflect local adaptation. Functional enrichment of putatively positively selected genes revealed signals of adaptation in genes related to “lipid metabolism”, “xenobiotics biodegradation and metabolism” and “sensory system”, comprising candidate genes which can be utilized in studies on local adaptation. An absence of genetically-based differences in thermal adaptation between the two mtDNA lineages, together with our knowledge that B. calyciflorus s.s. can withstand a broad range of temperatures, led to the idea to further investigate shared transcriptomic responses to long-term exposure to high and low temperatures regimes. With this, I identified candidate genes that are involved in the response to temperature imposed stress. Lastly, I used comparative transcriptomics to examine responses to imposed heat-stress in heat-tolerant and heat-sensitive Brachionus species. I found considerably different patterns of gene expression in the two species. Most striking are patterns of expression regarding the heat shock proteins (hsps) between the two species. In the heat-tolerant, B. calyciflorus s.s., significant up-regulation of hsps at low temperatures was indicative of a stress response at the cooler end of the temperature regimes tested here. In contrast, in the heat-sensitive B. fernandoi, hsps generally exhibited up-regulation of these genes along with rising temperatures. Overall, identification of differences in expression of genes suggests suppression of protein biosynthesis to be a mechanism to increase thermal tolerance. Observed patterns in population growth are correlated with the hsp gene expression differences, indicating that this physiological stress response is indeed related to phenotypic life history performance. N2 - Obwohl die kryptische Diversität von Rotatorien (Rädertierchen) und die daraus resultierenden ökologischen Konsequenzen inzwischen sehr gut verstanden sind, sind die zugrunde liegenden molekularen Mechanismen und die Artbildungsprozesse bisher weitgehend unbekannt. Bekannt ist, dass die Temperatur eine bedeutende Rolle in den raum-zeitlichen Verbreitungsmustern der Arten sowie der Leistungsfähigkeit der Organismen, spielt. Es fehlen jedoch konkrete Informationen über die der Thermotoleranz zugrundeliegenden Mechanismen bei Rotatorien. Vor kurzem wurde hohe kryptische Diversität in der unter anderem in Süßwasser vorkommenden Art „Brachionus calyciflorus“ gefunden, so dass diese nun in mindestens vier Arten (B. calyciflorus sensu stricto (s.s.), B. fernandoi, B. dorcas und B. elevatus) unterteilt wurde. Beobachtungen von in Sympatrie vorkommenden Arten haben gezeigt, dass eine zeitliche Suksession innerhalb dieser Arten existiert, was vermuten lässt, dass Temperatur eine entscheidende Rolle bei der Artbildung gespielt haben könnte. Ziel dieser Arbeit ist es, Thermotoleranzunterschiede zwischen Arten des früheren B. calyciflorus-Artenkomplexes durch den Vergleich von phänotypischen und molekularen (Genexpression) Reaktionen auf Temperatur festzustellen. Die in dieser Untersuchung ermittelte kritische Maximaltemperatur wurde als Schätzer für zwischenartliche Hitzetoleranz verwendet. Mit Hilfe eines zweidimensionalen Verfahrens, welches sowohl die Dauer als auch die Stärke des Hitzestresses detektiert, konnte festgestellt werden, dass B. calyciflorus s.s. im Vergleich zu B. fernandoi hitzetoleranter ist. Auf Basis der innerartlichen genetischen Variation erfolgte eine tiefergehende Untersuchung zweier unterschiedlicher maternaler (mtDNA) Evolutionslinien der hitzetoleranteren Art B. calyciflorus s.s mit dem Ziel, unter divergenter Selektion stehende SNPs und Gene zu identifizieren, welche die Anpassung an verschiedene Temperaturen widerspiegeln könnten. Mit Hilfe dieses Experimentes war es möglich, potentiell positiv selektiere Kandidatengene zu identifizieren, welche im Zusammenhang mit dem „Lipidmetabolismus“, dem „Metabolismus und Abbau von Xenobiotika“ sowie dem „Sensorischen System“ stehen. Diese Kandidatengene lassen Rückschlüsse auf lokale Anpassungen zu. Es konnten keine genetischen Unterschiede gefunden werden, die im Zusammenhang mit der Temperaturanpassung der beiden untersuchten Evolutionslinien stehen. Um molekulare Grundlagen für die Toleranz von B. calyciflorus s.s für einen großen Temperaturbereich zu identifizieren, wurde das Transkriptom untersucht. Mit Hilfe der erhobenen Daten konnten Kandidatengene identifiziert werden, die für die Temperaturtoleranz von Bedeutung sind. Der letzte Teil dieser Arbeit konzentrierte sich auf die Untersuchung der Hitzestressantwort in einer hitzetoleranten und einer hitzesensitiven Brachionus Art. Diese Untersuchung konnte erhebliche Unterschiede in den Genexpre-ssionsmustern der beiden Arten aufzeigen. Die deutlichsten Unterschiede der Genexpression wurden hierbei in der Expression von Genen detektiert, die für die sogenannten Hitze-Schock-Proteinen (Heat-shock-proteins: hsp) codieren. In der hitzetoleranten Art B. calyciflorus s.s wurde ein signifikanter Anstieg der hsp-Genexpression bei geringen Temperaturen festgestellt, während bei der hitzesensitiven Art B. fernandoi ein signifikanter Anstieg bei hohen Temperaturen detektiert wurde. Die in dieser Arbeit gefundenen Unterschiede in der Genexpression zeigen, dass Temperaturstress eine Hemmung der Proteinbiosynthese bewirken kann, was zu einer erhöhten Thermotoleranz führt. Darüber hinaus ist Populationswachstum mit der Expression von Hitze-Schock-Proteingenen korreliert. Dies deutet darauf hin, dass die hier beschriebene physiologische Temperaturstressantwort tatsächlich mit den beobachteten phänotypischen Fitnessparametern im Zusammenhang steht. KW - Brachionus KW - zooplankton KW - temperature KW - RNA-seq KW - transcriptome KW - adaptation Y1 - 2019 ER - TY - THES A1 - Patterson, Clare T1 - The role of structural and discourse-level cues during pronoun resolution T1 - Zur Rolle von struktureller und diskursbasierter Information während der Pronomenverarbeitung N2 - Pronoun resolution normally takes place without conscious effort or awareness, yet the processes behind it are far from straightforward. A large number of cues and constraints have previously been recognised as playing a role in the identification and integration of potential antecedents, yet there is considerable debate over how these operate within the resolution process. The aim of this thesis is to investigate how the parser handles multiple antecedents in order to understand more about how certain information sources play a role during pronoun resolution. I consider how both structural information and information provided by the prior discourse is used during online processing. This is investigated through several eye tracking during reading experiments that are complemented by a number of offline questionnaire experiments. I begin by considering how condition B of the Binding Theory (Chomsky 1981; 1986) has been captured in pronoun processing models; some researchers have claimed that processing is faithful to syntactic constraints from the beginning of the search (e.g. Nicol and Swinney 1989), while others have claimed that potential antecedents which are ruled out on structural grounds nonetheless affect processing, because the parser must also pay attention to a potential antecedent’s features (e.g. Badecker and Straub 2002). My experimental findings demonstrate that the parser is sensitive to the subtle changes in syntactic configuration which either allow or disallow pronoun reference to a local antecedent, and indicate that the parser is normally faithful to condition B at all stages of processing. Secondly, I test the Primitives of Binding hypothesis proposed by Koornneef (2008) based on work by Reuland (2001), which is a modular approach to pronoun resolution in which variable binding (a semantic relationship between pronoun and antecedent) takes place before coreference. I demonstrate that a variable-binding (VB) antecedent is not systematically considered earlier than a coreference (CR) antecedent online. I then go on to explore whether these findings could be attributed to the linear order of the antecedents, and uncover a robust recency preference both online and offline. I consider what role the factor of recency plays in pronoun resolution and how it can be reconciled with the first-mention advantage (Gernsbacher and Hargreaves 1988; Arnold 2001; Arnold et al., 2007). Finally, I investigate how aspects of the prior discourse affect pronoun resolution. Prior discourse status clearly had an effect on pronoun resolution, but an antecedent’s appearance in the previous context was not always facilitative; I propose that this is due to the number of topic switches that a reader must make, leading to a lack of discourse coherence which has a detrimental effect on pronoun resolution. The sensitivity of the parser to structural cues does not entail that cue types can be easily separated into distinct sequential stages, and I therefore propose that the parser is structurally sensitive but not modular. Aspects of pronoun resolution can be captured within a parallel constraints model of pronoun resolution, however, such a model should be sensitive to the activation of potential antecedents based on discourse factors, and structural cues should be strongly weighted. N2 - Pronomenauflösung erfolgt normalerweise scheinbar mühelos und ohne bewusste Anstrengung. Jedoch ist die Verarbeitung von pronominalen Referenzen aus linguistischer Sicht ein hochkomplexer Prozess. Durch unterschiedliche wissenschaftliche Studien wurden bereits zahlreiche Faktoren ermittelt, die bei der Pronomenauflösung eine Rolle spielen, allerdings herrscht weitgehend noch keine Einigkeit darüber, wie genau diese Faktoren die Verarbeitung von Pronomen beeinflussen. Ziel dieser Dissertation ist es zu untersuchen, wie der Leser/Hörer mit Pronomen umgeht, denen mehrere Antezedenten zugeordnet werden können, um zu verstehen, welche Rolle bestimmte Informationsquellen in der Verarbeitung von Pronomen spielen. Besondere Beachtung findet dabei, wie strukturelle Eigenschaften sowie Informationen aus dem vorangegangenen Diskurs für die Suche nach einem passenden Antezedenten benutzt werden. Die angewandte Untersuchungsmethode der vorliegenden Dissertation ist Eye-tracking during reading, ergänzt mit verschiedenen offline-Fragebögen. Die Experimente erforschen die Rolle der folgenden Aspekte in der Verarbeitung von Pronomen: Prinzip B der Bindungstheorie (Chomsky 1981; 1986), Koreferenz und Variablenbindung laut der Primitives of Binding Hypothese (Reuland 2001, Koornneef 2008), Antezedentenreihenfolge im Satz, und Diskursstatus des Antezedents. Obwohl es zeigt sich, dass der Hörer/Leser sensibel für subtile Veränderungen in der syntaktischen Konfiguration ist, wie z.B. für die Reihenfolge der Antezedenten im Satz und für den Diskursstatus des Antezedenten, gibt es keinen Nachweis dafür, dass Variablenbindung zeitlich vor Koreferenz erfolgt. Einige Aspekte der Auflösung pronominaler Referenzen können in einem parallel constraints model erfasst werden, allerdings sollte so ein Modell strukturelle Informationen stark gewichten und sensitiv sein für die Aktivierung potenzieller Antezedenten aufgrund von Diskursfaktoren. KW - Pronomen KW - Anaphora KW - Psycholinguistik KW - Pronouns KW - anaphora KW - psycholinguistics KW - Binding Theory KW - Centering Theory Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71280 ER - TY - THES A1 - Perscheid, Michael T1 - Test-driven fault navigation for debugging reproducible failures T1 - Die test-getriebene Fehlernavigation zur Beseitigung von reproduzierbaren Softwarefehlern N2 - The correction of software failures tends to be very cost-intensive because their debugging is an often time-consuming development activity. During this activity, developers largely attempt to understand what causes failures: Starting with a test case that reproduces the observable failure they have to follow failure causes on the infection chain back to the root cause (defect). This idealized procedure requires deep knowledge of the system and its behavior because failures and defects can be far apart from each other. Unfortunately, common debugging tools are inadequate for systematically investigating such infection chains in detail. Thus, developers have to rely primarily on their intuition and the localization of failure causes is not time-efficient. To prevent debugging by disorganized trial and error, experienced developers apply the scientific method and its systematic hypothesis-testing. However, even when using the scientific method, the search for failure causes can still be a laborious task. First, lacking expertise about the system makes it hard to understand incorrect behavior and to create reasonable hypotheses. Second, contemporary debugging approaches provide no or only partial support for the scientific method. In this dissertation, we present test-driven fault navigation as a debugging guide for localizing reproducible failures with the scientific method. Based on the analysis of passing and failing test cases, we reveal anomalies and integrate them into a breadth-first search that leads developers to defects. This systematic search consists of four specific navigation techniques that together support the creation, evaluation, and refinement of failure cause hypotheses for the scientific method. First, structure navigation localizes suspicious system parts and restricts the initial search space. Second, team navigation recommends experienced developers for helping with failures. Third, behavior navigation allows developers to follow emphasized infection chains back to root causes. Fourth, state navigation identifies corrupted state and reveals parts of the infection chain automatically. We implement test-driven fault navigation in our Path Tools framework for the Squeak/Smalltalk development environment and limit its computation cost with the help of our incremental dynamic analysis. This lightweight dynamic analysis ensures an immediate debugging experience with our tools by splitting the run-time overhead over multiple test runs depending on developers’ needs. Hence, our test-driven fault navigation in combination with our incremental dynamic analysis answers important questions in a short time: where to start debugging, who understands failure causes best, what happened before failures, and which state properties are infected. N2 - Die Beseitigung von Softwarefehlern kann sehr kostenintensiv sein, da die Suche nach der Fehlerursache meist sehr lange dauert. Während der Fehlersuche versuchen Entwickler vor allem die Ursache für den Fehler zu verstehen: Angefangen mit einem Testfall, welcher den sichtbaren Fehler reproduziert, folgen sie den Fehlerursachen entlang der Infektionskette bis hin zum ursprünglichen Defekt. Dieses idealisierte Vorgehen benötigt ein grundlegendes Verständnis über das Systemverhalten, da Fehler und Defekt sehr weit auseinander liegen können. Bedauerlicherweise bieten jedoch gebräuchliche Entwicklungswerkzeuge wenig Unterstützung, um solche Infektionsketten detailliert zu untersuchen. Dementsprechend müssen Entwickler primär auf ihr Gespür vertrauen, so dass die Lokalisierung von Fehlerursachen sehr viel Zeit in Anspruch nehmen kann. Um ein willkürliches Vorgehen zu verhindern, verwenden erfahrene Entwickler deshalb die wissenschaftliche Methode, um systematisch Hypothesen über Fehlerursachen zu prüfen. Jedoch kann auch noch mittels der wissenschaftlichen Methode die Suche nach Fehlerursachen sehr mühsam sein, da passende Hypothesen meist manuell und ohne die systematische Hilfe von Werkzeugen aufgestellt werden müssen. Diese Dissertation präsentiert die test-getriebene Fehlernavigation als einen zusammenhängenden Wegweiser zur Beseitigung von reproduzierbaren Fehlern mit Hilfe der wissenschaftlichen Methode. Basierend auf der Analyse von funktionierenden und fehlschlagenden Testfällen werden Anomalien aufgedeckt und in eine Breitensuche integriert, um Entwickler zum Defekt zu führen. Diese systematische Suche besteht aus vier spezifischen Navigationstechniken, welche zusammen die Erstellung, Evaluierung und Verfeinerung von Hypothesen für die wissenschaftliche Methode unterstützen. Erstens grenzt die Strukturnavigation verdächtige Systemteile und den initialen Suchraum ein. Zweitens empfiehlt die Team-Navigation erfahrene Entwickler zur Behebung von Fehlern. Drittens erlaubt es die Verhaltensnavigation Entwicklern, die hervorgehobene Infektionskette eines fehl- schlagenden Testfalls zurückzuverfolgen. Viertens identifiziert die Zustandsnavigation fehlerhafte Zustände, um automatisch Teile der Infektionskette offenzulegen. Alle vier Navigationen wurden innerhalb des Path Tools Framework für die Squeak/Smalltalk Entwicklungsumgebung implementiert. Dabei bauen alle Werkzeuge auf die inkrementelle dynamische Analyse, welche die Berechnungskosten über mehrere Testdurchläufe abhängig von den Bedürfnissen des Nutzers aufteilt und somit schnelle Ergebnisse während der Fehlersuche liefert. Folglich können wichtige Fragen in kurzer Zeit beantwortet werden: Wo wird mit der Fehlersuche begonnen? Wer versteht Fehlerursachen am Besten? Was passierte bevor der Fehler auftrat? Welche Programmzustände sind betroffen? KW - Softwaretest KW - Fehlerbeseitigung KW - Test-getriebene Fehlernavigation KW - Anomalien KW - Ausführungsgeschichte KW - testing KW - debugging KW - test-driven fault navigation KW - anomalies KW - back-in-time Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68155 ER - TY - THES A1 - Prevot, Michelle Elizabeth T1 - Introduction of a thermo-sensitive non-polar species into polyelectrolyte multilayer capsules for drug delivery T1 - Einbettung unpolarer, temperaturempfindlicher Substanzen in Polyelektrolytkapselsysteme zur Wirkstofffreisetzung N2 - The layer-by-layer assembly (LBL) of polyelectrolytes has been extensively studied for the preparation of ultrathin films due to the versatility of the build-up process. The control of the permeability of these layers is particularly important as there are potential drug delivery applications. Multilayered polyelectrolyte microcapsules are also of great interest due to their possible use as microcontainers. This work will present two methods that can be used as employable drug delivery systems, both of which can encapsulate an active molecule and tune the release properties of the active species. Poly-(N-isopropyl acrylamide), (PNIPAM) is known to be a thermo-sensitive polymer that has a Lower Critical Solution Temperature (LCST) around 32oC; above this temperature PNIPAM is insoluble in water and collapses. It is also known that with the addition of salt, the LCST decreases. This work shows Differential Scanning Calorimetry (DSC) and Confocal Laser Scanning Microscopy (CLSM) evidence that the LCST of the PNIPAM can be tuned with salt type and concentration. Microcapsules were used to encapsulate this thermo-sensitive polymer, resulting in a reversible and tunable stimuli- responsive system. The encapsulation of the PNIPAM inside of the capsule was proven with Raman spectroscopy, DSC (bulk LCST measurements), AFM (thickness change), SEM (morphology change) and CLSM (in situ LCST measurement inside of the capsules). The exploitation of the capsules as a microcontainer is advantageous not only because of the protection the capsules give to the active molecules, but also because it facilitates easier transport. The second system investigated demonstrates the ability to reduce the permeability of polyelectrolyte multilayer films by the addition of charged wax particles. The incorporation of this hydrophobic coating leads to a reduced water sensitivity particularly after heating, which melts the wax, forming a barrier layer. This conclusion was proven with Neutron Reflectivity by showing the decreased presence of D2O in planar polyelectrolyte films after annealing creating a barrier layer. The permeability of capsules could also be decreased by the addition of a wax layer. This was proved by the increase in recovery time measured by Florescence Recovery After Photobleaching, (FRAP) measurements. In general two advanced methods, potentially suitable for drug delivery systems, have been proposed. In both cases, if biocompatible elements are used to fabricate the capsule wall, these systems provide a stable method of encapsulating active molecules. Stable encapsulation coupled with the ability to tune the wall thickness gives the ability to control the release profile of the molecule of interest. N2 - Verkapselung ist ein vielseitiges Werkzeug, das zum Schutz und zum Transport von Molekülen ebenso eingesetzt werden kann, wie zur Verbindung von Reaktionspartnern in einem gemeinsamen, von der Umgebung abgeschirmten Raum. Es basiert auf einem einfachen Vorbild der Natur. Pflanzen schützen ihren Samen zum Beispiel durch eine harte, nahezu undurchdringbare Schale (Nüsse) oder durch eine selektiv durchlässige Hülle, wie bei Weizen, der sobald er feucht wird zu keimen beginnt. Die Natur setzt durch den Einsatz des Hülle-Kern Prinzips sehr effizient die Kontrolle über Durchlässigkeit und Anpassung an bestimmte Aufgaben um. Wird das Hülle-Kern-Prinzip zum Schutz oder Transport von Molekülen eingesetzt, so sind die zu verwendenden Kapseln nur wenige Mikrometer groß. Sie werden dann als Mikrokapseln bezeichnet. Zur Erzeugung dieser Mikrokapseln werden verschiedene Methoden verwendet. Der heute übliche Weg geht von einer ca. 5-10 Mikrometer großen Kugel (Kern) aus, die mit einer stabilen und an die gewünschten Eigenschaften angepassten Schicht von wenigen Nanometern versehen wird. Im Anschluss wird der Kern herausgelöst und eine hohle, stabile Kapsel erhalten. Schichten von wenigen Nanometern Dicke können aus Polyelektrolyten durch das Layer-by-Layer-Verfahren (LbL) hergestellt werden. Dieses Verfahren eignet sich auf Grund seiner vielen Anpassungsmöglichkeiten besonders zum Aufbau der Schichten für Mikrokapseln, da sich die Eigenschaften der Beschichtung bereits beim Aufbau der Schicht auf die Bedürfnisse maßschneidern lassen. Diese Arbeit befasst sich mit der Erzeugung von Mikrokapseln, deren Eigenschaften temperaturabhängig sind. Dies wurde auf zwei Wegen erreicht. Zum einen wurden Kapseln aus Polyelektrolyten und Wachs aufgebaut. Bei Temperaturerhöhung schmilzt das Wachs und versiegelt die Kapsel. Zum anderen werden Kapseln mit einem Wärme empfindlichen Polymer gefüllt. Bei Temperaturerhöhung kollabiert das Polymergerüst. Der enthaltene Wirkstoff wird freigesetzt. KW - Mikrokapsel KW - Polyelektrolyt KW - Mehrschichtsysteme KW - Polyelectrolyte KW - Multilayers KW - Capsule Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7785 ER - TY - THES A1 - Radeff, Giuditta T1 - Geohistory of the Central Anatolian Plateau southern margin (southern Turkey) T1 - Die geologische Entwicklung des südlichen zentralsanatolischen Plateaurandes (Süd-Türkei) N2 - The Adana Basin of southern Turkey, situated at the SE margin of the Central Anatolian Plateau is ideally located to record Neogene topographic and tectonic changes in the easternmost Mediterranean realm. Using industry seismic reflection data we correlate 34 seismic profiles with corresponding exposed units in the Adana Basin. The time-depth conversion of the interpreted seismic profiles allows us to reconstruct the subsidence curve of the Adana Basin and to outline the occurrence of a major increase in both subsidence and sedimentation rates at 5.45 – 5.33 Ma, leading to the deposition of almost 1500 km3 of conglomerates and marls. Our provenance analysis of the conglomerates reveals that most of the sediment is derived from and north of the SE margin of the Central Anatolian Plateau. A comparison of these results with the composition of recent conglomerates and the present drainage basins indicates major changes between late Messinian and present-day source areas. We suggest that these changes in source areas result of uplift and ensuing erosion of the SE margin of the plateau. This hypothesis is supported by the comparison of the Adana Basin subsidence curve with the subsidence curve of the Mut Basin, a mainly Neogene basin located on top of the Central Anatolian Plateau southern margin, showing that the Adana Basin subsidence event is coeval with an uplift episode of the plateau southern margin. The collection of several fault measurements in the Adana region show different deformation styles for the NW and SE margins of the Adana Basin. The weakly seismic NW portion of the basin is characterized by extensional and transtensional structures cutting Neogene deposits, likely accomodating the differential uplift occurring between the basin and the SE margin of the plateau. We interpret the tectonic evolution of the southern flank of the Central Anatolian Plateau and the coeval subsidence and sedimentation in the Adana Basin to be related to deep lithospheric processes, particularly lithospheric delamination and slab break-off. N2 - Il Bacino di Adana (Turchia meridionale) é situato in posizione esterna rispetto al margine sud-orientale del plateau anatolico centrale. Il bacino risulta ubicato in posizione strategica per registrare i principali cambiamenti della topografia e dell’assetto tettonico avvenuti durante il Neogene nel Mediterraneo orientale. Utilizzando dati sismici provenienti dall’industria petrolifera abbiamo correlato 34 profili sismici con le unitá corrispondenti affioranti nel Bacino di Adana. La conversione da tempi a profonditá dei profili sismici interpretati ci ha permesso di ricostruire la curva di subsidenza del Bacino di Adana e di individuare un evento caratterizato da un importante aumento della subsidenza associato ad un considerevole incremento del tasso di sedimentazione. Questo evento, avvenuto tra 5.45 e 5.33 Ma ha portato alla deposizione di quasi 1500 km3 di conglomerati e marne. La nostra analisi di provenienza della porzione conglomeratica mostra che la maggior parte del sedimento proviene dal margine sud-orientale del plateau anatolico centrale e dalle aree situate a nord di questo. La comparazione di questi risultati con la composizione litologica di conglomerati recenti e con le litologie affioranti nei bacini di drenaggio attuali mostra cambiamenti rilevanti tra le aree di provenienza del sedimento Messiniane e quelle attuali. Riteniamo che questi cambiamenti nelle aree sorgente siano il risultato del sollevamento e della successiva erosione del margine sud-orientale del plateau anatolico centrale. Questa ipotesi é supportata dal confronto delle curve di subsidenza del Bacino di Adana e del Bacino di Mut, un bacino principalmente neogenico situato sulla sommitá del margine meridionale del plateau. La comparazione delle due curve di subsidenza mostra che l’evento di forte subsidenza del Bacino di Adana é coevo ad un episodio di sollevamento del margine meridionale del plateau anatolico centrale. La raccolta di un fitto dataset strutturale acquisito nella regione di Adana mostra differenti stili deformativi per i margini nord-occidentale e sud-orientale del bacino. La porzione nord-occidentale del bacino, debolmente sismica, é caratterizzata da strutture estensionali e transtensive che tagliano I depositi neogenici, verosimilmente accomodando il sollevamento differenziale tra il bacino e il margine sud-orientale del plateau. Riteniamo che l’evoluzione tettonica del margine meridionale del plateau anatolico centrale e la contemporanea subsidenza e sedimentazione nel Bacino di Adana sia da ricondurre a processi litosferici profondi, in particolar modo delaminazione litosferica e slab break-off. KW - Hebung des Plateaus KW - Sedimentenabfolge KW - Subsidenzgeschichte KW - Adana Becken KW - Süd-Türkei KW - plateau uplift KW - sedimentary record KW - subsidence history KW - Adana Basin KW - southern Turkey Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71865 ER - TY - THES A1 - Riewe, David T1 - The relevance of adenylate levels and adenylate converting enzymes on metabolism and development of potato (Solanum tuberosum L.) tubers T1 - Einfluss der Adenylate und Adenylat-umsetzender Enzyme auf Entwicklung und Stoffwechsel der Kartoffelknolle (Solanum Tuberosum L.) N2 - Adenylates are metabolites with essential function in metabolism and signaling in all living organisms. As Cofactors, they enable thermodynamically unfavorable reactions to be catalyzed enzymatically within cells. Outside the cell, adenylates are involved in signalling processes in animals and emerging evidence suggests similar signaling mechanisms in the plants’ apoplast. Presumably, apoplastic apyrases are involved in this signaling by hydrolyzing the signal mediating molecules ATP and ADP to AMP. This PhD thesis focused on the role of adenylates on metabolism and development of potato (Solanum tuberosum) by using reverse genetics and biochemical approaches. To study the short and long term effect of cellular ATP and the adenylate energy charge on potato tuber metabolism, an apyrase from Escherichia coli targeted into the amyloplast was expressed inducibly and constitutively. Both approaches led to the identification of adaptations to reduced ATP/energy charge levels on the molecular and developmental level. These comprised a reduction of metabolites and pathway fluxes that require significant amounts of ATP, like amino acid or starch synthesis, and an activation of processes that produce ATP, like respiration and an immense increase in the surface-to-volume ratio. To identify extracellular enzymes involved in adenylate conversion, green fluorescent protein and activity localization studies in potato tissue were carried out. It was found that extracellular ATP is imported into the cell by an apoplastic enzyme complement consisting of apyrase, unspecific phosphatase, adenosine nucleosidase and an adenine transport system. By changing the expression of a potato specific apyrase via transgenic approaches, it was found that this enzyme has strong impact on plant and particular tuber development in potato. Whereas metabolite levels were hardly altered, transcript profiling of tubers with reduced apyrase activity revealed a significant upregulation of genes coding for extensins, which are associated with polar growth. The results are discussed in context of adaptive responses of plants to changes in the adenylate levels and the proposed role of apyrase in apoplastic purinergic signaling and ATP salvaging. In summary, this thesis provides insight into adenylate regulated processes within and outside non-photosynthetic plant cells. N2 - Adenylate haben essentielle Funktionen in Stoffwechselprozessen und fungieren als Signalmoleküle in allen Organismen. Als Cofaktoren ermöglichen sie die Katalyse thermodynamisch ungünstiger Reaktionen innerhalb der Zelle, und außerhalb der Zelle wirken sie als Signalmoleküle in Tieren und nach neueren Forschungsergebnissen wohl auch in Pflanzen. Vermutlich wird die Signalwirkung von ATP und ADP durch Hydrolyse zu AMP unter Beteiligung apoplastische Apyrasen terminiert. Diese Arbeit behandelt den Einfluss der Adenylate auf Stoffwechsel- und Entwicklungsprozesse in der Kartoffelpflanze (Solanum tuberosum) mittels biochemischer und revers-genetischer Ansätze. Um kurzfristige und langfristige Einflüsse zellulären ATPs und der Energieladung auf den Stoffwechsel von Kartoffelknollen zu untersuchen, wurde eine mit einem plastidären Transitpeptid fusionierte Apyrase aus Escherichia coli induzierbar und dauerhaft exprimiert. Beide Ansätze führten zur Identifizierung von Anpassungen an eine reduzierte ATP Verfügbarkeit bzw. verringerte Energieladung. Die Anpassungen beinhalteten eine Reduzierung von ATP-verbrauchenden Stoffwechselaktivitäten und Stoffwechselprodukten, wie die Aminosäure- oder Stärkesynthese, und eine Aktivierung von Prozessen, welche die ATP-Bildung oder eine effizientere ATP-Bildung ermöglichen, wie Zellatmung und die Vergrößerung des Oberfächen/Volumen-Verhältnisses der Kartoffelknolle. Extrazelluläre Adenylat-umsetzende Enzyme wurden mit Hilfe des grün fluoreszierenden Proteins und Aktivitätsmessungen identifiziert und charakterisiert. Es wurde ein potentieller ATP Bergungsstoffwechselweg gefunden, der ATP über die Enzyme Apyrase, unspezifische Phosphatase und Adenosin-Nukleosidase zu Adenin umsetzt, welches über eine Purin-Permease in die Zelle transportiert wird. Transgene Manipulation der Aktivität der kartoffelspezifischen Apyrase zeigte, dass dieses Enzym einen großen Einfluss auf die Pflanzen-, insbesondere die Knollenentwicklung hat. Obwohl sich Stoffwechselaktivitäten kaum verändert hatten, führte die Verringerung der Apyrase Aktivität in den Knollen zur übermäßigen Expression von Extensin-Genen, die eine Funktion im polaren Wachstum von Pflanzenzellen besitzen. Die Ergebnisse wurden mit Hinblick auf Anpassungen der Pflanze an veränderte Adenylat-Spiegel und der potentiellen Beteiligung der endogenen Apyrase an einem apoplastischen ATP-Signalweg bzw. ATP-Bergungsstoffwechselweg diskutiert. Zusammengefasst, präsentiert diese Arbeit neue Einsichten in Adenylat-regulierte Prozesse in- und außerhalb nicht-photosynthetischer Pflanzenzellen. KW - Apyrase KW - ATP KW - Kartoffel KW - Stoffwechsel KW - Nukleosidase KW - apyrase KW - ATP KW - potato KW - metabolism KW - nucleosidase Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-27323 ER - TY - THES A1 - Ritz, Julia T1 - Discourse-givenness of noun phrases : theoretical and computational models T1 - Diskursgegebenheit von Nominalphrasen : theoretische und komputationelle Modelle N2 - This thesis gives formal definitions of discourse-givenness, coreference and reference, and reports on experiments with computational models of discourse-givenness of noun phrases for English and German. Definitions are based on Bach's (1987) work on reference, Kibble and van Deemter's (2000) work on coreference, and Kamp and Reyle's Discourse Representation Theory (1993). For the experiments, the following corpora with coreference annotation were used: MUC-7, OntoNotes and ARRAU for Englisch, and TueBa-D/Z for German. As for classification algorithms, they cover J48 decision trees, the rule based learner Ripper, and linear support vector machines. New features are suggested, representing the noun phrase's specificity as well as its context, which lead to a significant improvement of classification quality. N2 - Die vorliegende Arbeit gibt formale Definitionen der Konzepte Diskursgegebenheit, Koreferenz und Referenz. Zudem wird über Experimente berichtet, Nominalphrasen im Deutschen und Englischen hinsichtlich ihrer Diskursgegebenheit zu klassifizieren. Die Definitionen basieren auf Arbeiten von Bach (1987) zu Referenz, Kibble und van Deemter (2000) zu Koreferenz und der Diskursrepräsentationstheorie (Kamp und Reyle, 1993). In den Experimenten wurden die koreferenzannotierten Korpora MUC-7, OntoNotes und ARRAU (Englisch) und TüBa-D/Z (Deutsch) verwendet. Sie umfassen die Klassifikationsalgorithmen J48 (Entscheidungsbäume), Ripper (regelbasiertes Lernen) und lineare Support Vector Machines. Mehrere neue Klassifikationsmerkmale werden vorgeschlagen, die die Spezifizität der Nominalphrase messen, sowie ihren Kontext abbilden. Mit Hilfe dieser Merkmale kann eine signifikante Verbesserung der Klassifikation erreicht werden. KW - Diskursgegebenheit KW - Klassifikator KW - Koreferenz KW - Kontext KW - tf-idf KW - discourse-givenness KW - classifier KW - coreference KW - context KW - tf-idf Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70818 ER - TY - THES A1 - Rogge-Solti, Andreas T1 - Probabilistic Estimation of Unobserved Process Events T1 - Probabilistische Abschätzung Unbeobachteter Prozessereignisse N2 - Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance. N2 - Unternehmen versuchen Wettbewerbsvorteile zu gewinnen und die Kundenzufriedenheit zu erhöhen. Um die Qualität und die Effizienz ihrer Prozesse zu gewährleisten, wenden Unternehmen Geschäftsprozessmanagement an. Hierbei spielt die Prozesskontrolle im täglichen Betrieb eine wichtige Rolle. Prozesskontrolle wird durch Prozessmonitoring ermöglicht, d.h. durch die Überwachung des Prozessfortschritts laufender Prozessinstanzen. So können Verzögerungen entdeckt und es kann entsprechend reagiert werden, um Prozesse wie erwartet und termingerecht beenden zu können. Um Prozessmonitoring zu ermöglichen, müssen prozessrelevante Ereignisse aus der Prozessumgebung gesammelt und ausgewertet werden. Sofern eine Prozessausführungsengine die Orchestrierung von Geschäftsprozessen übernimmt, kann jede Prozessaktivität überwacht werden. Aber viele Geschäftsprozesse eignen sich nicht für automatisierte Orchestrierung, da sie z.B. besonders viel Handlungsfreiheit erfordern. Dies ist in Krankenhäusern der Fall, in denen Geschäftsprozesse oft manuell durchgeführt werden. Daher ist es meist umständlich oder unmöglich, jeden Prozessfortschritt zu erfassen. Zudem ist händische Prozessausführung und -dokumentation fehleranfällig, so wird z.B. manchmal vergessen zu dokumentieren. Eine Herausforderung für Unternehmen ist, dass manche Prozessereignisse nicht im Prozessmonitoring erfasst werden. Solch unbeobachtete Prozessereignisse können jedoch als Entscheidungsgrundlage dienen, selbst wenn kein exaktes Wissen über den Zeitpunkt ihres Auftretens vorliegt. Zum Beispiel ist bei der Prozesskontrolle zu entscheiden, ob zusätzliche Ressourcen eingesetzt werden sollen, wenn eine Verspätung angenommen wird. Diese Arbeit stellt einen probabilistischen Ansatz für den Umgang mit unbeobachteten Prozessereignissen vor. Dabei werden entscheidende Fragen von Prozessmanagern beantwortet (z.B. "Wann werden wir den Fall beenden?", oder "Wann wurde die Aktivität ausgeführt, die nicht dokumentiert wurde?"). Der Hauptbeitrag der Arbeit ist die Einführung eines erweiterten probabilistischen Modells ins Geschäftsprozessmanagement, das auf stochastischen Petri Netzen basiert. Dabei wird ein ganzheitlicher Ansatz zur Unterstützung der einzelnen Phasen des Geschäftsprozesslebenszyklus verfolgt. Es werden Techniken zum Lernen des probabilistischen Modells, zum Vorhersagen des Zeitpunkts des Prozessendes, zum Qualitätsmanagement von Dokumentationen durch Erkennung fehlender Einträge, und zur Optimierung von Monitoringkonfigurationen bereitgestellt. Letztere dient zur Auswahl von relevanten Stellen im Prozess, die beobachtet werden sollten. Diese Techniken wurden in einer quelloffenen prototypischen Anwendung implementiert. Zur Evaluierung wird der Ansatz mit existierenden Alternativen an echten Prozessdaten eines Krankenhauses gemessen. Die generelle Anwendbarkeit in weiteren Domänen wird examplarisch an Prozessdaten aus der Logistik und dem Finanzwesen gezeigt. KW - Geschäftsprozessmanagement KW - stochastische Petri Netze KW - Bayessche Netze KW - Probabilistische Modelle KW - Vorhersage KW - Fehlende Daten KW - Process Mining KW - business process management KW - stochastic Petri nets KW - Bayesian networks KW - probabilistic models KW - prediction KW - missing data KW - process mining Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70426 ER - TY - THES A1 - Schad, Daniel T1 - Mindless reading and eye movements : theory, experiments and computational modeling T1 - Gedankenverlorenes Lesen und Blickbewegungen : Theorie, Experimente, und Computationale Modellierung N2 - It sometimes happens that we finish reading a passage of text just to realize that we have no idea what we just read. During these episodes of mindless reading our mind is elsewhere yet the eyes still move across the text. The phenomenon of mindless reading is common and seems to be widely recognized in lay psychology. However, the scientific investigation of mindless reading has long been underdeveloped. Recent progress in research on mindless reading has been based on self-report measures and on treating it as an all-or-none phenomenon (dichotomy-hypothesis). Here, we introduce the levels-of-inattention hypothesis proposing that mindless reading is graded and occurs at different levels of cognitive processing. Moreover, we introduce two new behavioral paradigms to study mindless reading at different levels in the eye-tracking laboratory. First (Chapter 2), we introduce shuffled text reading as a paradigm to approximate states of weak mindless reading experimentally and compare it to reading of normal text. Results from statistical analyses of eye movements that subjects perform in this task qualitatively support the ‘mindless’ hypothesis that cognitive influences on eye movements are reduced and the ‘foveal load’ hypothesis that the response of the zoom lens of attention to local text difficulty is enhanced when reading shuffled text. We introduce and validate an advanced version of the SWIFT model (SWIFT 3) incorporating the zoom lens of attention (Chapter 3) and use it to explain eye movements during shuffled text reading. Simulations of the SWIFT 3 model provide fully quantitative support for the ‘mindless’ and the ‘foveal load’ hypothesis. They moreover demonstrate that the zoom lens is an important concept to explain eye movements across reading and mindless reading tasks. Second (Chapter 4), we introduce the sustained attention to stimulus task (SAST) to catch episodes when external attention spontaneously lapses (i.e., attentional decoupling or mind wandering) via the overlooking of errors in the text and via signal detection analyses of error detection. Analyses of eye movements in the SAST revealed reduced influences from cognitive text processing during mindless reading. Based on these findings, we demonstrate that it is possible to predict states of mindless reading from eye movement recordings online. That cognition is not always needed to move the eyes supports autonomous mechanisms for saccade initiation. Results from analyses of error detection and eye movements provide support to our levels-of-inattention hypothesis that errors at different levels of the text assess different levels of decoupling. Analyses of pupil size in the SAST (Chapter 5) provide further support to the levels of inattention hypothesis and to the decoupling hypothesis that off-line thought is a distinct mode of cognitive functioning that demands cognitive resources and is associated with deep levels of decoupling. The present work demonstrates that the elusive phenomenon of mindless reading can be vigorously investigated in the cognitive laboratory and further incorporated in the theoretical framework of cognitive science. N2 - Beim Lesen passiert es manchmal dass wir zum Ende einer Textpassage gelangen und dabei plötzlich bemerken dass wir keinerlei Erinnerung daran haben was wir soeben gelesen haben. In solchen Momenten von gedankenverlorenem Lesen ist unser Geist abwesend, aber die Augen bewegen sich dennoch über den Text. Das Phänomen des gedankenverlorenen Lesens ist weit verbreitet und scheint in der Laienpsychologie allgemein anerkannt zu sein. Die wissenschaftliche Untersuchung von gedankenverlorenem Lesen war jedoch lange Zeit unzureichend entwickelt. Neuerer Forschungsfortschritt basierte darauf gedankenverlorenes Lesen durch Selbstberichte zu untersuchen und als ein Phänomen zu behandeln das entweder ganz oder gar nicht auftritt (Dichotomie-Hypothese). Hier stellen wir die ‚Stufen der Unaufmerksamkeit’-Hypothese auf, dass gedankenverlorenes Lesen ein graduelles Phänomen ist, das auf verschiedenen kognitiven Verarbeitungsstufen entsteht. Wir stellen zudem zwei neue Verhaltensparadigmen vor um verschiedene Stufen von gedankenverlorenem Lesen im Augenbewegungslabor zu untersuchen. Als erstes (in Kapitel 2) stellen wir das Lesen von verwürfeltem Text vor als ein Paradigma um Zustände von schwach gedankenverlorenem Lesen experimentell anzunähern, und vergleichen es mit dem Lesen von normalem Text. Die Ergebnisse von statistischen Augenbewegungsanalysen unterstützen qualitativ die ‚Unaufmerksamkeits’-Hypothese, dass kognitive Einflüsse auf Augenbewegungen beim Lesen von verwürfeltem Text reduziert ist, und die ‚Foveale Beanspruchungs’-Hypothese, dass die Reaktion der zoom lens visueller Aufmerksamkeit auf lokale Textschwierigkeit beim Lesen von verwürfeltem Text verstärkt ist. Wir stellen eine weiterentwickelte Version des SWIFT Modells (SWIFT 3) vor, welches die zoom lens der Aufmerksamkeit implementiert, und validieren dieses Modell am Lesen von verwürfeltem und normalem Text (Kapitel 3). Simulationen des SWIFT 3 Modells unterstützen die ‚Unaufmerksamkeits’ und die ‚Foveal Beanspruchungs’-Hypothese in einem vollständig quantitativen Modell. Zudem zeigen sie, dass die zoom lens der Aufmerksamkeit ein wichtiges Konzept ist um Augenbewegungen in Aufgaben zum Lesen und gedankenverlorenen Lesen zu erklären. Als zweites (Kapitel 4) stellen wir den sustained attention to stimulus task (SAST) vor um Episoden von spontaner externer Unaufmerksamkeit (also Entkopplung der Aufmerksamkeit oder Abschweifen der Gedanken) in einem Paradigma über Verhaltensparameter wie das Übersehen von Fehlern im Text und Signal-Detektions-Analysen von Fehlerentdeckung zu messen. Augenbewegungsanalysen im SAST decken abgeschwächte Einflüsse von kognitiver Textverarbeitung während gedankenverlorenem Lesen auf. Basierend auf diesen Befunden zeigen wir, dass es möglich ist Zustände von gedankenverlorenem Lesen online, also während dem Lesen, aus Augenbewegungen vorherzusagen bzw. abzulesen. Dass höhere Kognition nicht immer notwendig ist um die Augen zu bewegen unterstützt zudem autonome Mechanismen der Sakkadeninitiierung. Ergebnisse aus Analysen von Fehlerdetektion und Augenbewegungen unterstützen unsere ‚Stufen der Unaufmerksamkeit’-Hypothese, dass Fehler auf verschiedenen Textebenen verschiedene Stufen von Entkopplung messen. Analysen der Pupillengröße im SAST (Kapitel 5) bieten weitere Unterstützung für die ‚Stufen der Unaufmerksamkeit’-Hypothese, sowie für die Entkopplungs-Hypothese, dass abschweifende Gedanken eine abgegrenzte kognitiver Funktionsweise darstellen, welche kognitive Ressourcen benötigt und mit tiefen Stufen von Unaufmerksamkeit zusammenhängt. Die aktuelle Arbeit zeigt, dass das flüchtige Phänomen des gedankenverlorenen Lesens im kognitiven Labor mit strengen Methoden untersucht und weitergehend in den theoretischen Rahmen der Kognitionswissenschaft eingefügt werden kann. KW - Gedankenverlorenes Lesen KW - Blickbewegungen KW - Gedankenschweifen KW - Computationale Modellierung KW - Levels-of-inattention Hypothese KW - mindless reading KW - eye movements KW - mind wandering KW - computational modeling KW - levels-of-inattention hypothesis Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70822 ER - TY - THES A1 - Scheffler, Thomas T1 - Privacy enforcement with data owner-defined policies T1 - Schutz privater Daten durch besitzer-definierte Richtlinien N2 - This thesis proposes a privacy protection framework for the controlled distribution and use of personal private data. The framework is based on the idea that privacy policies can be set directly by the data owner and can be automatically enforced against the data user. Data privacy continues to be a very important topic, as our dependency on electronic communication maintains its current growth, and private data is shared between multiple devices, users and locations. The growing amount and the ubiquitous availability of personal private data increases the likelihood of data misuse. Early privacy protection techniques, such as anonymous email and payment systems have focused on data avoidance and anonymous use of services. They did not take into account that data sharing cannot be avoided when people participate in electronic communication scenarios that involve social interactions. This leads to a situation where data is shared widely and uncontrollably and in most cases the data owner has no control over further distribution and use of personal private data. Previous efforts to integrate privacy awareness into data processing workflows have focused on the extension of existing access control frameworks with privacy aware functions or have analysed specific individual problems such as the expressiveness of policy languages. So far, very few implementations of integrated privacy protection mechanisms exist and can be studied to prove their effectiveness for privacy protection. Second level issues that stem from practical application of the implemented mechanisms, such as usability, life-time data management and changes in trustworthiness have received very little attention so far, mainly because they require actual implementations to be studied. Most existing privacy protection schemes silently assume that it is the privilege of the data user to define the contract under which personal private data is released. Such an approach simplifies policy management and policy enforcement for the data user, but leaves the data owner with a binary decision to submit or withhold his or her personal data based on the provided policy. We wanted to empower the data owner to express his or her privacy preferences through privacy policies that follow the so-called Owner-Retained Access Control (ORAC) model. ORAC has been proposed by McCollum, et al. as an alternate access control mechanism that leaves the authority over access decisions by the originator of the data. The data owner is given control over the release policy for his or her personal data, and he or she can set permissions or restrictions according to individually perceived trust values. Such a policy needs to be expressed in a coherent way and must allow the deterministic policy evaluation by different entities. The privacy policy also needs to be communicated from the data owner to the data user, so that it can be enforced. Data and policy are stored together as a Protected Data Object that follows the Sticky Policy paradigm as defined by Mont, et al. and others. We developed a unique policy combination approach that takes usability aspects for the creation and maintenance of policies into consideration. Our privacy policy consists of three parts: A Default Policy provides basic privacy protection if no specific rules have been entered by the data owner. An Owner Policy part allows the customisation of the default policy by the data owner. And a so-called Safety Policy guarantees that the data owner cannot specify disadvantageous policies, which, for example, exclude him or her from further access to the private data. The combined evaluation of these three policy-parts yields the necessary access decision. The automatic enforcement of privacy policies in our protection framework is supported by a reference monitor implementation. We started our work with the development of a client-side protection mechanism that allows the enforcement of data-use restrictions after private data has been released to the data user. The client-side enforcement component for data-use policies is based on a modified Java Security Framework. Privacy policies are translated into corresponding Java permissions that can be automatically enforced by the Java Security Manager. When we later extended our work to implement server-side protection mechanisms, we found several drawbacks for the privacy enforcement through the Java Security Framework. We solved this problem by extending our reference monitor design to use Aspect-Oriented Programming (AOP) and the Java Reflection API to intercept data accesses in existing applications and provide a way to enforce data owner-defined privacy policies for business applications. N2 - Im Rahmen der Dissertation wurde ein Framework für die Durchsetzung von Richtlinien zum Schutz privater Daten geschaffen, welches darauf setzt, dass diese Richtlinien oder Policies direkt von den Eigentümern der Daten erstellt werden und automatisiert durchsetzbar sind. Der Schutz privater Daten ist ein sehr wichtiges Thema im Bereich der elektronischen Kommunikation, welches durch die fortschreitende Gerätevernetzung und die Verfügbarkeit und Nutzung privater Daten in Onlinediensten noch an Bedeutung gewinnt. In der Vergangenheit wurden verschiedene Techniken für den Schutz privater Daten entwickelt: so genannte Privacy Enhancing Technologies. Viele dieser Technologien arbeiten nach dem Prinzip der Datensparsamkeit und der Anonymisierung und stehen damit der modernen Netznutzung in Sozialen Medien entgegen. Das führt zu der Situation, dass private Daten umfassend verteilt und genutzt werden, ohne dass der Datenbesitzer gezielte Kontrolle über die Verteilung und Nutzung seiner privaten Daten ausüben kann. Existierende richtlinienbasiert Datenschutztechniken gehen in der Regel davon aus, dass der Nutzer und nicht der Eigentümer der Daten die Richtlinien für den Umgang mit privaten Daten vorgibt. Dieser Ansatz vereinfacht das Management und die Durchsetzung der Zugriffsbeschränkungen für den Datennutzer, lässt dem Datenbesitzer aber nur die Alternative den Richtlinien des Datennutzers zuzustimmen, oder keine Daten weiterzugeben. Es war daher unser Ansatz die Interessen des Datenbesitzers durch die Möglichkeit der Formulierung eigener Richtlinien zu stärken. Das dabei verwendete Modell zur Zugriffskontrolle wird auch als Owner-Retained Access Control (ORAC) bezeichnet und wurde 1990 von McCollum u.a. formuliert. Das Grundprinzip dieses Modells besteht darin, dass die Autorität über Zugriffsentscheidungen stets beim Urheber der Daten verbleibt. Aus diesem Ansatz ergeben sich zwei Herausforderungen. Zum einen muss der Besitzer der Daten, der Data Owner, in die Lage versetzt werden, aussagekräftige und korrekte Richtlinien für den Umgang mit seinen Daten formulieren zu können. Da es sich dabei um normale Computernutzer handelt, muss davon ausgegangen werden, dass diese Personen auch Fehler bei der Richtlinienerstellung machen. Wir haben dieses Problem dadurch gelöst, dass wir die Datenschutzrichtlinien in drei separate Bereiche mit unterschiedlicher Priorität aufteilen. Der Bereich mit der niedrigsten Priorität definiert grundlegende Schutzeigenschaften. Der Dateneigentümer kann diese Eigenschaften durch eigene Regeln mittlerer Priorität überschrieben. Darüber hinaus sorgt ein Bereich mit Sicherheitsrichtlinien hoher Priorität dafür, dass bestimmte Zugriffsrechte immer gewahrt bleiben. Die zweite Herausforderung besteht in der gezielten Kommunikation der Richtlinien und deren Durchsetzung gegenüber dem Datennutzer (auch als Data User bezeichnet). Um die Richtlinien dem Datennutzer bekannt zu machen, verwenden wir so genannte Sticky Policies. Das bedeutet, dass wir die Richtlinien über eine geeignete Kodierung an die zu schützenden Daten anhängen, so dass jederzeit darauf Bezug genommen werden kann und auch bei der Verteilung der Daten die Datenschutzanforderungen der Besitzer erhalten bleiben. Für die Durchsetzung der Richtlinien auf dem System des Datennutzers haben wir zwei verschiedene Ansätze entwickelt. Wir haben einen so genannten Reference Monitor entwickelt, welcher jeglichen Zugriff auf die privaten Daten kontrolliert und anhand der in der Sticky Policy gespeicherten Regeln entscheidet, ob der Datennutzer den Zugriff auf diese Daten erhält oder nicht. Dieser Reference Monitor wurde zum einen als Client-seitigen Lösung implementiert, die auf dem Sicherheitskonzept der Programmiersprache Java aufsetzt. Zum anderen wurde auch eine Lösung für Server entwickelt, welche mit Hilfe der Aspekt-orientierten Programmierung den Zugriff auf bestimmte Methoden eines Programms kontrollieren kann. In dem Client-seitigen Referenzmonitor werden Privacy Policies in Java Permissions übersetzt und automatisiert durch den Java Security Manager gegenüber beliebigen Applikationen durchgesetzt. Da dieser Ansatz beim Zugriff auf Daten mit anderer Privacy Policy den Neustart der Applikation erfordert, wurde für den Server-seitigen Referenzmonitor ein anderer Ansatz gewählt. Mit Hilfe der Java Reflection API und Methoden der Aspektorientierten Programmierung gelang es Datenzugriffe in existierenden Applikationen abzufangen und erst nach Prüfung der Datenschutzrichtlinie den Zugriff zuzulassen oder zu verbieten. Beide Lösungen wurden auf ihre Leistungsfähigkeit getestet und stellen eine Erweiterung der bisher bekannten Techniken zum Schutz privater Daten dar. KW - Datenschutz KW - Java Security Framework KW - Aspektorientierte Programmierung KW - Policy Sprachen KW - Owner-Retained Access Control (ORAC) KW - Data Privacy KW - Java Security Framework KW - Aspect-Oriented Programming KW - Policy Languages KW - Owner-Retained Access Control (ORAC) Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67939 ER - TY - THES A1 - Schick, Daniel T1 - Ultrafast lattice dynamics in photoexcited nanostructures : femtosecond X-ray diffraction with optimized evaluation schemes T1 - Ultraschnelle Gitterdynamik in optisch angeregten Nanostrukturen : Femtosekunden-Röntgendiffraktion mit optimierten Auswerteroutinen N2 - Within the course of this thesis, I have investigated the complex interplay between electron and lattice dynamics in nanostructures of perovskite oxides. Femtosecond hard X-ray pulses were utilized to probe the evolution of atomic rearrangement directly, which is driven by ultrafast optical excitation of electrons. The physics of complex materials with a large number of degrees of freedom can be interpreted once the exact fingerprint of ultrafast lattice dynamics in time-resolved X-ray diffraction experiments for a simple model system is well known. The motion of atoms in a crystal can be probed directly and in real-time by femtosecond pulses of hard X-ray radiation in a pump-probe scheme. In order to provide such ultrashort X-ray pulses, I have built up a laser-driven plasma X-ray source. The setup was extended by a stable goniometer, a two-dimensional X-ray detector and a cryogen-free cryostat. The data acquisition routines of the diffractometer for these ultrafast X-ray diffraction experiments were further improved in terms of signal-to-noise ratio and angular resolution. The implementation of a high-speed reciprocal-space mapping technique allowed for a two-dimensional structural analysis with femtosecond temporal resolution. I have studied the ultrafast lattice dynamics, namely the excitation and propagation of coherent phonons, in photoexcited thin films and superlattice structures of the metallic perovskite SrRuO3. Due to the quasi-instantaneous coupling of the lattice to the optically excited electrons in this material a spatially and temporally well-defined thermal stress profile is generated in SrRuO3. This enables understanding the effect of the resulting coherent lattice dynamics in time-resolved X-ray diffraction data in great detail, e.g. the appearance of a transient Bragg peak splitting in both thin films and superlattice structures of SrRuO3. In addition, a comprehensive simulation toolbox to calculate the ultrafast lattice dynamics and the resulting X-ray diffraction response in photoexcited one-dimensional crystalline structures was developed in this thesis work. With the powerful experimental and theoretical framework at hand, I have studied the excitation and propagation of coherent phonons in more complex material systems. In particular, I have revealed strongly localized charge carriers after above-bandgap femtosecond photoexcitation of the prototypical multiferroic BiFeO3, which are the origin of a quasi-instantaneous and spatially inhomogeneous stress that drives coherent phonons in a thin film of the multiferroic. In a structurally imperfect thin film of the ferroelectric Pb(Zr0.2Ti0.8)O3, the ultrafast reciprocal-space mapping technique was applied to follow a purely strain-induced change of mosaicity on a picosecond time scale. These results point to a strong coupling of in- and out-of-plane atomic motion exclusively mediated by structural defects. N2 - Im Rahmen dieser Arbeit habe ich mich mit den komplexen Wechselwirkungen zwischen Elektronen- und Gitterdynamik in oxidischen Perowskit-Nanostrukturen beschäftigt. Dazu wurden verschiedene Proben mit intensiven, ultrakurzen Laserpulsen angeregt. Um die zeitliche Entwicklung der induzierten atomaren Umordnung zu untersuchen, wurden Femtosekunden-Pulse harter Röntgenstrahlung genutzt. Zunächst wurde die ultraschnelle Gitterdynamik in einfachen Modellsystemen mit zeitaufgelösten Röntgendiffraktionsexperimenten untersucht, um im Anschluss ähnliche Experimente an komplexeren Materialien mit mehreren Freiheitsgraden interpretieren zu können. Die Bewegung der Atome in einem Kristall kann über Anrege-Abtast-Verfahren direkt mit gepulster, harter Röntgenstrahlung gemessen werden. Die Dauer der Röntgenpulse muss dafür einige hundert Femtosekunden kurz sein. Um diese ultrakurzen Röntgenpulse zu erzeugen, habe ich eine lasergetriebene Plasma-Röntgenquelle aufgebaut. Der Aufbau wurde um ein stabiles Goniometer, einen zweidimensionalen Röntgendetektor und einen kryogenfreien Kryostat erweitert und in Bezug auf das Signal-zu-Rausch-Verhältnis und die Winkelauflösung optimiert. Durch die Entwicklung einer schnellen Methode zur Vermessung des reziproken Raums konnte erstmals an solch einer Quelle eine zweidimensionale Strukturanalyse mit Femtosekunden-Zeitauflösung realisiert werden. Die Anregung und Ausbreitung von kohärenten Phononen habe ich in optisch angeregten Dünnfilm- und Übergitterstrukturen untersucht. Eine entscheidende Rolle spielen dabei metallische SrRuO3 Schichten. Durch die quasi-instantane Kopplung des Gitters an die optisch angeregten Elektronen in SrRuO3 wird ein räumlich und zeitlich wohldefiniertes Druckprofil erzeugt. Dadurch kann der Einfluss der resultierenden kohärenten Gitterdynamik auf die zeitaufgelösten Röntgendiffraktionsdaten im Detail verstanden werden. Beobachtet wurde z.B. das Auftreten einer transienten Aufspaltung eines Bragg-Reflexes bei Dünnfilm- und Übergitterstrukturen aus SrRuO3. Außerdem wurde eine umfangreiche Simulationsumgebung entwickelt, mit deren Hilfe die ultraschnelle Dynamik und die dazugehörigen Röntgendiffraktionssignale in optisch angeregten eindimensionalen Kristallstrukturen berechnet werden können. Der von mir entwickelte experimentelle Aufbau sowie das Simulationspaket zur Datenanalyse und -interpretation wurden anschließend für die Untersuchung kohärenter Phononen in komplexeren Materialsystemen eingesetzt. Im Speziellen konnte ich in multiferroischem BiFeO3 eine stark lokalisierte Ladungsträgerverteilung nach einer optischen Femtosekunden-Anregung nachweisen. Sie ist die Ursache für einen quasi-instantanen und räumlich inhomogenen Druck, der die kohärenten Phononen in einem dünnen Film dieses Multiferroikums erzeugt. Außerdem habe ich die ultraschnelle Vermessung des reziproken Raums angewendet, um eine verzerrungsinduzierte Veränderung der Mosaizität in einem strukturell unvollkommenen Film aus ferroelektrischem Pb(Zr0.2Ti0.8)O3 zu verfolgen. Die Ergebnisse deuten auf eine ausschließlich durch strukturelle Defekte vermittelte Kopplung der atomaren Bewegungen parallel und senkrecht zur Flächennormalen des Filmes hin. KW - ultraschnelle Röntgendiffraktion KW - Gitterdynamik KW - Nanostruktur KW - optische Anregung KW - Perowskit KW - ultrafast X-ray diffraction KW - lattice dynamics KW - nanostructure KW - photoexcitation KW - perovskite Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68827 ER - TY - THES A1 - Schmidl, Ricarda T1 - Empirical essays on job search behavior, active labor market policies, and propensity score balancing methods T1 - Empirische Studien zum Arbeitssuchverhalten, aktiver Arbeitsmarktpolitik und Propensity Score Gewichtungsmethoden N2 - In Chapter 1 of the dissertation, the role of social networks is analyzed as an important determinant in the search behavior of the unemployed. Based on the hypothesis that the unemployed generate information on vacancies through their social network, search theory predicts that individuals with large social networks should experience an increased productivity of informal search, and reduce their search in formal channels. Due to the higher productivity of search, unemployed with a larger network are also expected to have a higher reservation wage than unemployed with a small network. The model-theoretic predictions are tested and confirmed empirically. It is found that the search behavior of unemployed is significantly affected by the presence of social contacts, with larger networks implying a stronger substitution away from formal search channels towards informal channels. The substitution is particularly pronounced for passive formal search methods, i.e., search methods that generate rather non-specific types of job offer information at low relative cost. We also find small but significant positive effects of an increase of the network size on the reservation wage. These results have important implications on the analysis of the job search monitoring or counseling measures that are usually targeted at formal search only. Chapter 2 of the dissertation addresses the labor market effects of vacancy information during the early stages of unemployment. The outcomes considered are the speed of exit from unemployment, the effects on the quality of employment and the short-and medium-term effects on active labor market program (ALMP) participation. It is found that vacancy information significantly increases the speed of entry into employment; at the same time the probability to participate in ALMP is significantly reduced. Whereas the long-term reduction in the ALMP arises in consequence of the earlier exit from unemployment, we also observe a short-run decrease for some labor market groups which suggest that caseworker use high and low intensity activation measures interchangeably which is clearly questionable from an efficiency point of view. For unemployed who find a job through vacancy information we observe a small negative effect on the weekly number of hours worked. In Chapter 3, the long-term effects of participation in ALMP are assessed for unemployed youth under 25 years of age. Complementary to the analysis in Chapter 2, the effects of participation in time- and cost-intensive measures of active labor market policies are examined. In particular we study the effects of job creation schemes, wage subsidies, short-and long-term training measures and measures to promote the participation in vocational training. The outcome variables of interest are the probability to be in regular employment, and participation in further education during the 60 months following program entry. The analysis shows that all programs, except job creation schemes have positive and long-term effects on the employment probability of youth. In the short-run only short-term training measures generate positive effects, as long-term training programs and wage subsidies exhibit significant locking-in'' effects. Measures to promote vocational training are found to increase the probability of attending education and training significantly, whereas all other programs have either no or a negative effect on training participation. Effect heterogeneity with respect to the pre-treatment level education shows that young people with higher pre-treatment educational levels benefit more from participation most programs. However, for longer-term wage subsidies we also find strong positive effects for young people with low initial education levels. The relative benefit of training measures is higher in West than in East Germany. In the evaluation studies of Chapters 2 and 3 semi-parametric balancing methods of Propensity Score Matching (PSM) and Inverse Probability Weighting (IPW) are used to eliminate the effects of counfounding factors that influence both the treatment participation as well as the outcome variable of interest, and to establish a causal relation between program participation and outcome differences. While PSM and IPW are intuitive and methodologically attractive as they do not require parametric assumptions, the practical implementation may become quite challenging due to their sensitivity to various data features. Given the importance of these methods in the evaluation literature, and the vast number of recent methodological contributions in this field, Chapter 4 aims to reduce the knowledge gap between the methodological and applied literature by summarizing new findings of the empirical and statistical literature and practical guidelines for future applied research. In contrast to previous publications this study does not only focus on the estimation of causal effects, but stresses that the balancing challenge can and should be discussed independent of question of causal identification of treatment effects on most empirical applications. Following a brief outline of the practical implementation steps required for PSM and IPW, these steps are presented in detail chronologically, outlining practical advice for each step. Subsequently, the topics of effect estimation, inference, sensitivity analysis and the combination with parametric estimation methods are discussed. Finally, new extensions of the methodology and avenues for future research are presented. N2 - In Kapitel 1 der Dissertation wird die Rolle von sozialen Netzwerken als Determinante im Suchverhalten von Arbeitslosen analysiert. Basierend auf der Hypothese, dass Arbeitslose durch ihr soziales Netzwerk Informationen über Stellenangebote generieren, sollten Personen mit großen sozialen Netzwerken eine erhöhte Produktivität ihrer informellen Suche erfahren, und ihre Suche in formellen Kanälen reduzieren. Durch die höhere Produktivität der Suche sollte für diese Personen zudem der Reservationslohn steigen. Die modelltheoretischen Vorhersagen werden empirisch getestet, wobei die Netzwerkinformationen durch die Anzahl guter Freunde, sowie Kontakthäufigkeit zu früheren Kollegen approximiert wird. Die Ergebnisse zeigen, dass das Suchverhalten der Arbeitslosen durch das Vorhandensein sozialer Kontakte signifikant beeinflusst wird. Insbesondere sinkt mit der Netzwerkgröße formelle Arbeitssuche - die Substitution ist besonders ausgeprägt für passive formelle Suchmethoden, d.h. Informationsquellen die eher unspezifische Arten von Jobangeboten bei niedrigen relativen Kosten erzeugen. Im Einklang mit den Vorhersagen des theoretischen Modells finden sich auch deutlich positive Auswirkungen einer Erhöhung der Netzwerkgröße auf den Reservationslohn. Kapitel 2 befasst sich mit den Arbeitsmarkteffekten von Vermittlungsangeboten (VI) in der frühzeitigen Aktivierungsphase von Arbeitslosen. Die Nutzung von VI könnte dabei eine „doppelte Dividende“ versprechen. Zum einen reduziert die frühe Aktivierung die Dauer der Arbeitslosigkeit, und somit auch die Notwendigkeit späterer Teilnahme in Arbeitsmarktprogrammen (ALMP). Zum anderen ist die Aktivierung durch Information mit geringeren locking-in‘‘ Effekten verbunden als die Teilnahme in ALMP. Ziel der Analyse ist es, die Effekte von frühen VI auf die Eingliederungsgeschwindigkeit, sowie die Teilnahmewahrscheinlichkeit in ALMP zu messen. Zudem werden mögliche Effekte auf die Qualität der Beschäftigung untersucht. Die Ergebnisse zeigen, dass VI die Beschäftigungswahrscheinlichkeit signifikant erhöhen, und dass gleichzeitig die Wahrscheinlichkeit in ALMP teilzunehmen signifikant reduziert wird. Für die meisten betrachteten Subgruppen ergibt sich die langfristige Reduktion der ALMP Teilnahme als Konsequenz der schnelleren Eingliederung. Für einzelne Arbeitsmarktgruppen ergibt sich zudem eine frühe und temporare Reduktion, was darauf hinweist, dass Maßnahmen mit hohen und geringen „locking-in“ Effekten aus Sicht der Sachbearbeiter austauschbar sind, was aus Effizienzgesichtspunkten fragwürdig ist. Es wird ein geringer negativer Effekt auf die wöchentliche Stundenanzahl in der ersten abhängigen Beschäftigung nach Arbeitslosigkeit beobachtet. In Kapitel 3 werden die Langzeiteffekte von ALMP für arbeitslose Jugendliche unter 25 Jahren ermittelt. Die untersuchten ALMP sind ABM-Maßnahmen, Lohnsubventionen, kurz-und langfristige Maßnahmen der beruflichen Bildung sowie Maßnahmen zur Förderung der Teilnahme an Berufsausbildung. Ab Eintritt in die Maßnahme werden Teilnehmer und Nicht-Teilnehmer für einen Zeitraum von sechs Jahren beobachtet. Als Zielvariable wird die Wahrscheinlichkeit regulärer Beschäftigung, sowie die Teilnahme in Ausbildung untersucht. Die Ergebnisse zeigen, dass alle Programme, bis auf ABM, positive und langfristige Effekte auf die Beschäftigungswahrscheinlichkeit von Jugendlichen haben. Kurzfristig finden wir jedoch nur für kurze Trainingsmaßnahmen positive Effekte, da lange Trainingsmaßnahmen und Lohnzuschüsse mit signifikanten locking-in‘‘ Effekten verbunden sind. Maßnahmen zur Förderung der Berufsausbildung erhöhen die Wahrscheinlichkeit der Teilnahme an einer Ausbildung, während alle anderen Programme keinen oder einen negativen Effekt auf die Ausbildungsteilnahme haben. Jugendliche mit höherem Ausbildungsniveau profitieren stärker von der Programmteilnahme. Jedoch zeigen sich für längerfristige Lohnsubventionen ebenfalls starke positive Effekte für Jugendliche mit geringer Vorbildung. Der relative Nutzen von Trainingsmaßnahmen ist höher in West- als in Ostdeutschland. In den Evaluationsstudien der Kapitel 2 und 3 werden die semi-parametrischen Gewichtungsverfahren Propensity Score Matching (PSM) und Inverse Probability Weighting (IPW) verwendet, um den Einfluss verzerrender Faktoren, die sowohl die Maßnahmenteilnahme als auch die Zielvariablen beeinflussen zu beseitigen, und kausale Effekte der Programmteilahme zu ermitteln. Während PSM and IPW intuitiv und methodisch sehr attraktiv sind, stellt die Implementierung der Methoden in der Praxis jedoch oft eine große Herausforderung dar. Das Ziel von Kapitel 4 ist es daher, praktische Hinweise zur Implementierung dieser Methoden zu geben. Zu diesem Zweck werden neue Erkenntnisse der empirischen und statistischen Literatur zusammengefasst und praxisbezogene Richtlinien für die angewandte Forschung abgeleitet. Basierend auf einer theoretischen Motivation und einer Skizzierung der praktischen Implementierungsschritte von PSM und IPW werden diese Schritte chronologisch dargestellt, wobei auch auf praxisrelevante Erkenntnisse aus der methodischen Forschung eingegangen wird. Im Anschluss werden die Themen Effektschätzung, Inferenz, Sensitivitätsanalyse und die Kombination von IPW und PSM mit anderen statistischen Methoden diskutiert. Abschließend werden neue Erweiterungen der Methodik aufgeführt. KW - empirische Arbeitsmarktforschung KW - Arbeitssuchverhalten KW - Propensity Score Matching KW - Inverse Probability Weighting KW - Aktive Arbeitsmarktpolitik KW - empirical labor market studies KW - job search behavior KW - propensity score matching KW - inverse probability weighting KW - active labor market policies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71145 ER - TY - THES A1 - Schumann, Sara T1 - Influence of intestinal inflammation on bacterial protein expression in monoassociated mice T1 - Der Einfluss chronisch-entzündlicher Darmerkrankungen auf die Proteinexpression intestinaler E. coli N2 - Background: Increased numbers of intestinal E. coli are observed in inflammatory bowel disease, but the reasons for this proliferation and it exact role in intestinal inflammation are unknown. Aim of this PhD-project was to identify E. coli proteins involved in E. coli’s adaptation to the inflammatory conditions in the gut and to investigate whether these factors affect the host. Furthermore, the molecular basis for strain-specific differences between probiotic and harmful E. coli in their response to intestinal inflammation was investigated. Methods: Using mice monoassociated either with the adherent-invasive E. coli (AIEC) strain UNC or the probiotic E. coli Nissle, two different mouse models of intestinal inflammation were analysed: On the one hand, severe inflammation was induced by treating mice with 3.5% dextran sodium sulphate (DSS). On the other hand, a very mild intestinal inflammation was generated by associating interleukin 10-deficient (IL-10-/-) mice with E. coli. Differentially expressed proteins in the E. coli strains collected from caecal contents of these mice were identified by two-dimensional fluorescence difference gel electrophoresis. Results DSS-experiment: All DSS-treated mice revealed signs of a moderate caecal and a severe colonic inflammation. However, mice monoassociated with E. coli Nissle were less affected. In both E. coli strains, acute inflammation led to a downregulation of pathways involved in carbohydrate breakdown and energy generation. Accordingly, DSS-treated mice had lower caecal concentrations of bacterial fermentation products than the control mice. Differentially expressed proteins also included the Fe-S cluster repair protein NfuA, the tryptophanase TnaA, and the uncharacterised protein YggE. NfuA was upregulated nearly 3-fold in both E. coli strains after DSS administration. Reactive oxygen species produced during intestinal inflammation damage Fe-S clusters and thereby lead to an inactivation of Fe-S proteins. In vitro data indicated that the repair of Fe-S proteins by NfuA is a central mechanism in E. coli to survive oxidative stress. Expression of YggE, which has been reported to reduce the intracellular level of reactive oxygen species, was 4- to 8-fold higher in E. coli Nissle than in E. coli UNC under control and inflammatory conditions. In vitro growth experiments confirmed these results, indicating that E. coli Nissle is better equipped to cope with oxidative stress than E. coli UNC. Additionally, E. coli Nissle isolated from DSS-treated and control mice had TnaA levels 4- to 7-fold higher than E. coli UNC. In turn, caecal indole concentrations resulting from cleavage of tryptophan by TnaA were higher in E. coli Nissle- associated control mice than in the respective mice associated with E. coli UNC. Because of its anti-inflammatory effect, indole is hypothesised to be involved in the extension of the remission phase in ulcerative colitis described for E. coli Nissle. Results IL-10-/--experiment: Only IL-10-/- mice monoassociated with E. coli UNC for 8 weeks exhibited signs of a very mild caecal inflammation. In agreement with this weak inflammation, the variations in the bacterial proteome were small. Similar to the DSS-experiment, proteins downregulated by inflammation belong mainly to the central energy metabolism. In contrast to the DSS-experiment, no upregulation of chaperone proteins and NfuA were observed, indicating that these are strategies to overcome adverse effects of strong intestinal inflammation. The inhibitor of vertebrate C-type lysozyme, Ivy, was 2- to 3-fold upregulated on mRNA and protein level in E. coli Nissle in comparison to E. coli UNC isolated from IL-10-/- mice. By overexpressing ivy, it was demonstrated in vitro that Ivy contributes to a higher lysozyme resistance observed for E. coli Nissle, supporting the role of Ivy as a potential fitness factor in this E. coli strain. Conclusions: The results of this PhD-study demonstrate that intestinal bacteria sense even minimal changes in the health status of the host. While some bacterial adaptations to the inflammatory conditions are equal in response to strong and mild intestinal inflammation, other reactions are unique to a specific disease state. In addition, probiotic and colitogenic E. coli differ in their response to the intestinal inflammation and thereby may influence the host in different ways. N2 - Hintergrund: Chronisch entzündliche Darmerkrankungen zeichnen sich unter anderem durch eine starke Proliferation intestinaler E. coli aus. Unbekannt ist jedoch, ob diese Vermehrung eine Ursache oder eine Folge der Erkrankung darstellt. Ziel der vorliegenden Doktorarbeit war es daher, E. coli-Proteine zu identifizieren, welche der Anpassung an die entzündlichen Bedingungen im Darmtrakt dienen und unter Umständen einen Effekt auf den Gesundheitszustand des Wirtes haben. Weiterhin sollten die molekularen Ursachen für stammesspezifische Unterschiede zwischen probiotischen und gesundheitsschädlichen E. coli näher untersucht werden. Methoden: In den tierexperimentellen Analysen wurden keimfreie Mäuse entweder mit dem probiotischen E. coli Nissle oder dem adhärent-invasiven E. coli UNC monoassoziiert und in zwei verschiedenen Entzündungsmodellen näher untersucht. Einerseits wurde eine starke Darmentzündung durch die Gabe von 3,5% Natrium-Dextransulfat (DSS) ausgelöst. Andererseits wurde in Interleukin 10-defizienten (IL-10-/-) Mäusen eine sehr milde Form der Entzündung durch Besiedlung mit E. coli induziert. Die E. coli Bakterien wurden am Ende der Versuche aus den Caecuminhalten der Mäuse isoliert und die bakterielle Proteinexpression wurde mittels zwei-dimensionaler Gelelektrophorese analysiert. Ergebnisse des DSS-Versuchs: Alle Tiere des DSS-Versuchs entwickelten unabhängig vom E. coli Stamm, mit dem sie besiedelt waren, eine moderate Entzündung im Caecum und eine starke im Colon, wobei die Entzündungsreaktion durch die Monoassoziation mit E. coli Nissle leicht abgeschwächt wurde. In beiden E. coli Stämmen führte die Darmentzündung zu einer verringerten Expression von Enzymen des Kohlenhydratabbaus und der Energiegewinnung. In Folge dessen waren die intestinalen Konzentrationen bakterieller Fermentationsprodukte in den entzündeten Tieren geringer als in den gesunden Kontrolltieren. Weitere differentiell exprimierte Proteine umfassen das Fe-S- Cluster Reparaturprotein NfuA, die Tryptophanase TnaA und das uncharakterisierte Protein YggE. In beiden E. coli Stämmen, welche aus den DSS-Tieren isoliert wurden, war das NfuA Protein dreifach höher exprimiert. Eine Darmentzündung führt zu einer vermehrten Bildung reaktiver Sauerstoffspezies, welche die Fe-S-Cluster in Eisen-Schwefel-Proteinen zerstören und damit zu einer Inaktivierung dieser Proteine führen. In vitro Untersuchungen bestätigten, dass die Reparatur der Eisen-Schwefel-Proteine durch NfuA ein wichtiger Mechanismus ist um oxidativem Stress entgegenzuwirken. Das YggE Protein, welches laut Literaturangaben einen hemmenden Einfluss auf die Bildung reaktiver Sauerstoffspezies hat, war in E. coli Nissle 4- bis 8-fach erhöht (verglichen mit E. coli UNC unter Kontroll- und Entzündungsbedingungen). In vitro Versuche bestätigten diese Daten und zeigten, dass E. coli Nissle im Vergleich zu E. coli UNC eine erhöhte Resistenz gegenüber oxidativem Stress aufweist. Außerdem wurde im Vergleich E. coli Nissle vs. E. coli UNC (unter Entzündungs- und Kontrollbedingungen) ein 4- bis 7-fach erhöhter TnaA-Gehalt nachgewiesen. Indol, das Produkt der TnaA-katalysierten Tryptophanspaltung wurde in erhöhten Mengen im Intestinaltrakt E. coli Nissle-assoziierter Kontrolltiere detektiert. Seit längerem werden entzündungshemmende Eigenschaften für Indol postuliert, die aufgrund der Ergebnisse dieser Doktorarbeit nun auch mit den gesundheitsfördenden Eigenschaften von E. coli Nissle in Zusammenhang gebracht werden können. Ergebnisse des IL-10-/-- Versuchs: Nach einer 8-wöchigen Assoziationsdauer wurde nur in den mit E. coli UNC besiedelten IL-10-/- Tieren eine schwache Entzündungsreaktion nachgewiesen. Bedingt durch diese sehr schwach ausgeprägte Entzündungsantwort waren auch die Veränderungen im bakteriellen Proteom von E. coli UNC nur gering. Wie im DSS-Versuch waren Proteine des bakteriellen Energiestoffwechsels reprimiert, allerdings wurde keine Induktion von NfuA beobachtet. Daher scheint die Induktion von NfuA nur der Anpassung an eine starke Entzündung zu dienen. Weiterhin wurde nachgewiesen, dass E. coli Nissle aus IL-10-/- Tieren den Hemmer für das vertebrate C-Typ Lysozym (Ivy) sowohl auf mRNA- als auch auf Proteinebene stärker exprimiert als E. coli UNC. Überexpression von Ivy unter in vitro Bedingungen zeigte, dass es an der erhöhten Lysozymresistenz von E. coli Nissle beteiligt ist und somit eine Rolle als möglicher Fitnessfaktor von E. coli Nissle spielt. Schlussfolgerungen: In dieser Doktorarbeit wurde gezeigt, dass Darmentzündungen die Proteinexpression eines im Darm lebenden Bakteriums beeinflussen. Einige der aufgedeckten bakteriellen Anpassungsreaktionen werden sowohl bei einer starken als auch bei einer schwachen Entzündung ausgelöst; andere wiederum sind spezifisch für nur einen dieser Entzündungszustände. Weiterhin wurde deutlich, dass sich E. coli-Stämme hinsichtlich ihrer Reaktion auf eine Darmentzündung unterscheiden und damit möglicherweise den Wirt beeinflussen.  KW - E. coli KW - chronisch-entzündliche Darmerkrankungen KW - Proteom KW - Ivy KW - Probiotika KW - E. coli KW - inflammatory bowel disease KW - proteomics KW - Ivy KW - probiotics Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67757 ER - TY - THES A1 - Schuster, Isabell T1 - Prevalence and Predictors of Sexual Aggression Victimization and Perpetration in Chile and Turkey T1 - Prävalenz und Prädiktoren sexueller Viktimisierung und Ausübung sexueller Aggression in Chile und der Türkei BT - A Cross-Cultural Analysis BT - Eine kulturübergreifende Analyse N2 - Background: Although sexual aggression is recognized as a serious issue worldwide, the current knowledge base is primarily built on evidence from Western countries, particularly the U.S. For the present doctoral research, Chile and Turkey were selected based on theoretical considerations to examine the prevalence as well as predictors of sexual aggression victimization and perpetration. The first aim of this research project was to systematically review the available evidence provided by past studies on this topic within each country. The second aim was to empirically study the prevalence of experiencing and engaging in sexual aggression since the age of consent among college students in Chile and Turkey. The third aim was to conduct cross-cultural analyses examining pathways to victimization and perpetration based on a two-wave longitudinal design. Methods: This research adopted a gender-inclusive approach by considering men and women in both victim and perpetrator roles. For the systematic reviews, multiple-stage literature searches were performed, and based on a predefined set of eligibility criteria, 28 studies in Chile and 56 studies in Turkey were identified for inclusion. A two-wave longitudinal study was conducted to examine the prevalence and predictors of sexual aggression among male and female college students in Chile and Turkey. Self-reports of victimization and perpetration were assessed with a Chilean Spanish or Turkish version of the Sexual Aggression and Victimization Scale. Two path models were conceptualized in which participants’ risky sexual scripts for consensual sex, risky sexual behavior, sexual self-esteem, sexual assertiveness, and religiosity were assessed at T1 and used as predictors of sexual aggression victimization and perpetration at T2 in the following 12 months, mediated through past victimization or perpetration, respectively. The models differed in that sexual assertiveness was expected to serve different functions for victimization (refusal assertiveness negatively linked to victimization) and perpetration (initiation assertiveness positively linked to perpetration). Results: Both systematic reviews revealed that victimization was addressed by all included studies, but data on perpetration was severely limited. A great heterogeneity not only in victimization rates but also in predictors was found, which may be attributed to a lack of conceptual and methodological consistency across studies. The empirical analysis of the prevalence of sexual aggression in Chile revealed a victimization rate of 51.9% for women and 48.0% for men, and a perpetration rate of 26.8% for men and 16.5% for women. In the Turkish original data, victimization was reported by 77.6% of women and 65.5% of men, whereas, again, lower rates were found for perpetration, with 28.9% of men and 14.2% of women reporting at least one incident. The cross-cultural analyses showed, as expected, that risky sexual scripts informed risky sexual behavior, and thereby indirectly increased the likelihood of victimization and perpetration at T2 in both samples. More risky sexual scripts were also linked to lower levels of refusal assertiveness in both samples, indirectly increasing the vulnerability to victimization at T2. High sexual self-esteem decreased the probability of victimization at T2 through higher refusal assertiveness as well as through less risky sexual behavior also in both samples, whereas it increased the odds of perpetration at T2 via higher initiation assertiveness in the Turkish sample only. Furthermore, high religiosity decreased the odds of perpetration and victimization at T2 through less risky sexual scripts and less risky sexual behavior in both samples. It reduced the vulnerability to victimization through less risky sexual scripts and higher refusal assertiveness in the Chilean sample only. In the Turkish sample only, it increased the odds of perpetration and victimization through lower sexual self-esteem. Conclusions: The findings showed that sexual aggression is a widespread problem in both Chile and Turkey, contributing cross-cultural evidence to the international knowledge base and indicating the clear need for implementing policy measures and prevention strategies in each country. Based on the results of the prospective analyses, concrete implications for intervention efforts are discussed. N2 - Hintergrund: Obwohl sexuelle Aggression als ein ernstzunehmendes Problem weltweit angesehen wird, stützt sich die gegenwärtige Datenlage in erster Linie auf Evidenz westlicher Staaten. Für die vorliegende Arbeit wurden die Länder Chile und Türkei anhand theoretischer Überlegungen ausgewählt, um sowohl die Prävalenz als auch Prädiktoren sexueller Aggression zu untersuchen. Das erste Ziel bestand darin, die Ergebnisse früherer Studien zu sexueller Aggression in jedem Land systematisch zu betrachten. Das zweite Ziel war, die Prävalenz von Viktimisierung und Ausübung sexueller Aggression seit dem Schutzalter unter Studierenden in Chile und der Türkei empirisch zu untersuchen. Das dritte Ziel war schließlich die Durchführung von interkulturellen Analysen, um Pfade zu Viktimisierung und Ausübung anhand eines längsschnittlichen Designs zu überprüfen. Methode: Es wurde ein geschlechterinklusiver Ansatz verfolgt, wobei Männer und Frauen sowohl als potentielle Opfer als auch Täter*innen betrachtet wurden. Für die systematischen Reviews wurden mehrstufige Literaturrecherchen durchgeführt. Basierend auf einem vordefinierten Satz an Auswahlkriterien wurden insgesamt 28 Studien für Chile und 56 Studien für die Türkei identifiziert. Weiterhin wurde eine Längsschnittstudie mit zwei Messzeitpunkten durchgeführt, um sowohl die Prävalenz als auch Prädiktoren sexueller Aggression unter Studierenden in Chile und der Türkei zu untersuchen. Selbstberichte über Viktimisierung und Ausübung sexueller Aggression wurden mittels einer spanischen bzw. türkischen Version der Sexual Aggression and Victimization Scale erhoben. Zwei Pfadmodelle wurden konzipiert, in denen riskante Skripts für konsensuelle Sexualkontakte, riskantes Sexualverhalten, sexuelles Selbstwertgefühl, sexuelle Assertivität und Religiosität zu T1 erfasst wurden und als Prädiktoren für Viktimisierung und Ausübung sexueller Aggression in den folgenden 12 Monaten (T2) verwendet wurden, jeweils mediiert durch vergangene Viktimisierung bzw. Ausübung sexueller Aggression. Die Modelle unterschieden sich darin, dass für sexuelle Assertivität unterschiedliche Funktionen für Viktimisierung (Ablehnungsassertivität negativ mit Viktimisierung assoziiert) und Ausübung sexueller Aggression (Initiierungsassertivität positiv mit Ausübung assoziiert) angenommen wurden. Ergebnisse: Die beiden Reviews zeigten, dass Viktimisierung von allen berücksichtigten Studien untersucht wurde, wohingegen kaum Daten zur Ausübung von sexueller Aggression vorlagen. Eine große Heterogenität wurde bei den Viktimisierungsraten, aber auch bei den Prädiktoren festgestellt, was vor allem auf mangelnde konzeptionelle und methodische Konsistenz zwischen den Studien zurückgeführt werden kann. In Bezug auf die Originaldaten zur Prävalenz in Chile zeigte sich, dass 51.9% der Frauen und 48.0% der Männer Viktimisierung angaben. Die Prävalenzraten zur Ausübung lagen bei 26.8% unter Männern und 16.5% unter Frauen. In den türkischen Originaldaten wurde Viktimisierung von 77.6% der Frauen und 65.5% der Männer berichtet. Niedigere Raten wurden erneut für die Ausübung gefunden: 28.9% der Männer und 14.2% der Frauen in der Türkei gaben mindestens einen sexuell aggressiven Übergriff an. Die interkulturellen Analysen zeigten, dass riskante sexuelle Skripts mit einem riskanteren Sexualverhalten assoziiert waren und dadurch indirekt die Wahrscheinlichkeit von Viktimisierung und Ausübung zu T2 in beiden Stichproben erhöhten. Riskantere sexuelle Skripts waren weiterhin mit einer geringeren Ablehnungsassertivität in beiden Stichproben assoziiert, was die Vulnerabilität für Viktimisierung zu T2 indirekt erhöhte. Höheres sexuelles Selbstwertgefühl verringerte die Wahrscheinlichkeit sexueller Viktimisierung zu T2 durch eine höhere Ablehnungsassertivität sowie durch weniger riskantes Sexualverhalten in beiden Stichproben, wohingegen die Wahrscheinlichkeit für Ausübung zu T2 durch eine höhere Initiierungsassertivität größer wurde, allerdings nur in der türkischen Stichprobe. Darüber hinaus verminderte höhere Religiosität die Wahrscheinlichkeit von Viktimisierung und Ausübung zu T2 über weniger riskante sexuelle Skripts und weniger riskantes Sexualverhalten in beiden Stichproben. In der chilenischen Stichprobe wurde die Vulnerabilität für Viktimisierung durch weniger riskante sexuelle Skripts und höhere Ablehnungsassertivität verringert. Hingegen erhöhte sich in der türkischen Stichprobe die Wahrscheinlichkeit für Viktimisierung und Ausübung durch ein niedrigeres sexuelles Selbstwertgefühl. Konklusion: Die Ergebnisse zeigen, dass sexuelle Aggression sowohl in Chile als auch in der Türkei ein weit verbreitetes Problem darstellt. Sie bereichern die internationale Wissensbasis mit interkultureller Evidenz und weisen auf die Notwendigkeit hin, politische Maßnahmen und Präventionsstrategien zu implementieren. Basierend auf den Ergebnissen der prospektiven Analysen werden konkrete Implikationen für Interventionsstrategien diskutiert. KW - Sexual Aggression KW - Prevalence KW - Risk and Vulnerability Factors KW - Chile KW - Turkey KW - Sexuelle Aggression KW - Prävalenz KW - Risiko- und Vulnerabilitätsfaktoren KW - Chile KW - Türkei Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413897 ER - TY - THES A1 - Scianna, Bastian Matteo T1 - The Italian war on the eastern front, 1941–1943 BT - operations, myths and memories T2 - Italian and Italian American Studies N2 - The Italian Army’s participation in Hitler’s war against the Soviet Union has remained unrecognized and understudied. Bastian Matteo Scianna offers a wide-ranging, in-depth corrective. Mining Italian, German and Russian sources, he examines the history of the Italian campaign in the East between 1941 and 1943, as well as how the campaign was remembered and memorialized in the domestic and international arena during the Cold War. Linking operational military history with memory studies, this book revises our understanding of the Italian Army in the Second World War. Y1 - 2019 SN - 978-3-03026-523-6 PB - Palgrave Macmillan CY - Cham ER - TY - THES A1 - Serrano, Paloma T1 - Methanogens from Siberian permafrost as models for life on Mars : response to simulated martian conditions and biosignature characterization T1 - Methanogene Archaeen aus sibirischen Permafrost als Modelle für Leben auf dem Mars N2 - Mars is one of the best candidates among planetary bodies for supporting life. The presence of water in the form of ice and atmospheric vapour together with the availability of biogenic elements and energy are indicators of the possibility of hosting life as we know it. The occurrence of permanently frozen ground – permafrost, is a common phenomenon on Mars and it shows multiple morphological analogies with terrestrial permafrost. Despite the extreme inhospitable conditions, highly diverse microbial communities inhabit terrestrial permafrost in large numbers. Among these are methanogenic archaea, which are anaerobic chemotrophic microorganisms that meet many of the metabolic and physiological requirements for survival on the martian subsurface. Moreover, methanogens from Siberian permafrost are extremely resistant against different types of physiological stresses as well as simulated martian thermo-physical and subsurface conditions, making them promising model organisms for potential life on Mars. The main aims of this investigation are to assess the survival of methanogenic archaea under Mars conditions, focusing on methanogens from Siberian permafrost, and to characterize their biosignatures by means of Raman spectroscopy, a powerful technology for microbial identification that will be used in the ExoMars mission. For this purpose, methanogens from Siberian permafrost and non-permafrost habitats were subjected to simulated martian desiccation by exposure to an ultra-low subfreezing temperature (-80ºC) and to Mars regolith (S-MRS and P-MRS) and atmospheric analogues. They were also exposed to different concentrations of perchlorate, a strong oxidant found in martian soils. Moreover, the biosignatures of methanogens were characterized at the single-cell level using confocal Raman microspectroscopy (CRM). The results showed survival and methane production in all methanogenic strains under simulated martian desiccation. After exposure to subfreezing temperatures, Siberian permafrost strains had a faster metabolic recovery, whereas the membranes of non-permafrost methanogens remained intact to a greater extent. The strain Methanosarcina soligelidi SMA-21 from Siberian permafrost showed significantly higher methane production rates than all other strains after the exposure to martian soil and atmospheric analogues, and all strains survived the presence of perchlorate at the concentration on Mars. Furthermore, CRM analyses revealed remarkable differences in the overall chemical composition of permafrost and non-permafrost strains of methanogens, regardless of their phylogenetic relationship. The convergence of the chemical composition in non-sister permafrost strains may be the consequence of adaptations to the environment, and could explain their greater resistance compared to the non-permafrost strains. As part of this study, Raman spectroscopy was evaluated as an analytical technique for remote detection of methanogens embedded in a mineral matrix. This thesis contributes to the understanding of the survival limits of methanogenic archaea under simulated martian conditions to further assess the hypothetical existence of life similar to methanogens on the martian subsurface. In addition, the overall chemical composition of methanogens was characterized for the first time by means of confocal Raman microspectroscopy, with potential implications for astrobiological research. N2 - Der Mars ist unter allen Planeten derjenige, der aufgrund verschiedener Faktoren am wahrscheinlichsten Leben ermöglichen kann. Das Vorhandensein von Wasser in Form von Eis und atmosphärischem Dampf zusammen mit der Verfügbarkeit biogener Elemente sowie Energie sind Indikatoren für die Möglichkeit, Leben, wie wir es kennen, zu beherbergen. Das Auftreten von dauerhaft gefrorenen Böden, oder auch Permafrost, ist ein verbreitetes Phänomen auf dem Mars. Dabei zeigen sich vielfältige morphologische Analogien zum terrestrischen Permafrost. Permafrostgebiete auf der Erde, welche trotz extremer, Bedingungen durch eine große Zahl und Vielfalt mikrobieller Gemeinschaften besiedelt sind, sind hinsichtlich möglicher Habitate auf dem Mars die vielversprechendste Analogie. Die meisten methanogenen Archaeen sind anaerobe, chemolithotrophe Mikroorganismen, die auf der Marsoberfläche viele der metabolischen und physiologischen Erfordernisse zum Überleben vorfinden. Methanogene Archaeen aus dem sibirischen Permafrost sind zudem extrem resistent gegenüber unterschiedlichen Formen von physiologischem Stress sowie simulierten thermo-physikalischen Marsbedingungen. Die Hauptziele dieser Untersuchung bestehen darin, das Überleben der methanogenen Archaeen unter Marsbedingungen zu beurteilen, wobei der Fokus auf methanogenen Archaeen aus dem sibirischen Permafrost liegt, sowie deren Biosignaturen mit Hilfe der Raman-Spektroskopie zu charakterisieren, einer starken Technologie zur mikrobiellen Identifikation, welche bei der ExoMars-Mission zum Einsatz kommen wird. Zu diesem Zweck wurden methanogene Archaeen aus dem sibirischen Permafrost sowie aus Nicht-Permafrost-Habitaten in Simulationen Marsbedingungen ausgesetzt, wie Austrocknung durch Langzeitversuche bei ultraniedrigen Temperaturen unter dem Gefrierpunkt (-80ºC), Mars-analogen Mineralien (S-MRS und P-MRS) sowie einer Marsatmosphäre. Weiterhin wurden die Kulturen verschiedenen Konzentrationen von Magnesiumperchlorat, einem starken Oxidant, der im Marsboden nachgewiesenen wurde, ausgesetzt. Ferner wurden die Biosignaturen einzelner Zellen der methanogenen Archaeen mit Hilfe der konfokalen Raman-Mikrospektroskopie (CRM) charakterisiert. Die Ergebnisse zeigten für alle untersuchten methanogenen Stämme Überleben und Methanbildung, nachdem diese simulierten Austrocknungsbedingungen ausgesetzt worden waren. Nach Versuchen mit Temperaturen unter dem Gefrierpunkt zeigten die Stämme aus dem sibirischen Permafrost eine schnellere Wiederaufnahme der Stoffwechseltätigkeit, wohingegen bei den Referenzorganismen aus Nicht-Permafrost-Habitaten die Zell¬membranen im größeren Ausmaß intakt blieben. Der Stamm Methanosarcina soligelidi SMA-21 aus dem sibirischen Permafrost zeigte nach dem Belastungstest mit Marsboden und Mars-analoger Atmosphäre signifikant höhere Methanbildungsraten. Zudem überlebten alle untersuchten Stämme die Zugabe von Magnesiumperchlorat in der entsprechenden Konzentration, die auf dem Mars vorkommt. Weiterhin konnten durch die Raman-Spektroskopie beachtliche Unterschiede in der chemischen Zusammensetzung zwischen methanogenen Archaeen aus Permafrost- und Nicht-Permafrost-Habitaten, trotz ihrer phylogenetischen Verwandtschaft, ermittelt werden. Die Konvergenz der chemischen Zusammensetzung der Permafrost-Stämme könnte das Resultat ihrer Anpassung an die Umgebung sein, was auch die Unterschiede hinsichtlich ihrer Resistenz verglichen mit Nicht-Permafrost-Stämmen erklären könnte. Als Teil dieser Studie wurde die Raman-Spektroskopie als Analyse-Technik zur Ferndetektion von methanogenen Archaeen, welche in eine Mineral-Matrix eingebettet sind, evaluiert. Diese Dissertation trägt zu einem besseren Verständnis hinsichtlich der Grenzen für ein Überleben von methanogenen Archaeen unter simulierten Marsbedingungen bei und damit zu einer Beurteilung der Hypothese, ob es ähnliches Leben unter der Marsoberfläche geben könnte. Darüber hinaus wurde erstmalig die chemische Zusammensetzung von methanogenen Archaeen mit Hilfe der Raman-Mikrospektroskopie charakterisiert. Dieser Technologie kommt eine wesentliche Bedeutung für weitere Forschungstätigkeit in der Astrobiologie zu. KW - Methanogene Archaeen KW - sibirischen Permafrost KW - Mars KW - Raman Spektroskopie KW - Biosignaturen KW - methanogenic archaea KW - Siberian permafrost KW - Mars KW - Raman spectroscopy KW - biosignatures Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72299 ER - TY - THES A1 - Steinmetz, Nadine T1 - Context-aware semantic analysis of video metadata T1 - Kontextbezogene, semantische Analyse von Videometadaten N2 - Im Vergleich zu einer stichwortbasierten Suche ermöglicht die semantische Suche ein präziseres und anspruchsvolleres Durchsuchen von (Web)-Dokumenten, weil durch die explizite Semantik Mehrdeutigkeiten von natürlicher Sprache vermieden und semantische Beziehungen in das Suchergebnis einbezogen werden können. Eine semantische, Entitäten-basierte Suche geht von einer Anfrage mit festgelegter Bedeutung aus und liefert nur Dokumente, die mit dieser Entität annotiert sind als Suchergebnis. Die wichtigste Voraussetzung für eine Entitäten-zentrierte Suche stellt die Annotation der Dokumente im Archiv mit Entitäten und Kategorien dar. Textuelle Informationen werden analysiert und mit den entsprechenden Entitäten und Kategorien versehen, um den Inhalt semantisch erschließen zu können. Eine manuelle Annotation erfordert Domänenwissen und ist sehr zeitaufwendig. Die semantische Annotation von Videodokumenten erfordert besondere Aufmerksamkeit, da inhaltsbasierte Metadaten von Videos aus verschiedenen Quellen stammen, verschiedene Eigenschaften und Zuverlässigkeiten besitzen und daher nicht wie Fließtext behandelt werden können. Die vorliegende Arbeit stellt einen semantischen Analyseprozess für Video-Metadaten vor. Die Eigenschaften der verschiedenen Metadatentypen werden analysiert und ein Konfidenzwert ermittelt. Dieser Wert spiegelt die Korrektheit und die wahrscheinliche Mehrdeutigkeit eines Metadatums wieder. Beginnend mit dem Metadatum mit dem höchsten Konfidenzwert wird der Analyseprozess innerhalb eines Kontexts in absteigender Reihenfolge des Konfidenzwerts durchgeführt. Die bereits analysierten Metadaten dienen als Referenzpunkt für die weiteren Analysen. So kann eine möglichst korrekte Analyse der heterogen strukturierten Daten eines Kontexts sichergestellt werden. Am Ende der Analyse eines Metadatums wird die für den Kontext relevanteste Entität aus einer Liste von Kandidaten identifiziert - das Metadatum wird disambiguiert. Hierfür wurden verschiedene Disambiguierungsalgorithmen entwickelt, die Beschreibungstexte und semantische Beziehungen der Entitätenkandidaten zum gegebenen Kontext in Betracht ziehen. Der Kontext für die Disambiguierung wird für jedes Metadatum anhand der Eigenschaften und Konfidenzwerte zusammengestellt. Der vorgestellte Analyseprozess ist an zwei Hypothesen angelehnt: Um die Analyseergebnisse verbessern zu können, sollten die Metadaten eines Kontexts in absteigender Reihenfolge ihres Konfidenzwertes verarbeitet werden und die Kontextgrenzen von Videometadaten sollten durch Segmentgrenzen definiert werden, um möglichst Kontexte mit kohärentem Inhalt zu erhalten. Durch ausführliche Evaluationen konnten die gestellten Hypothesen bestätigt werden. Der Analyseprozess wurden gegen mehrere State-of-the-Art Methoden verglichen und erzielt verbesserte Ergebnisse in Bezug auf Recall und Precision, besonders für Metadaten, die aus weniger zuverlässigen Quellen stammen. Der Analyseprozess ist Teil eines Videoanalyse-Frameworks und wurde bereits erfolgreich in verschiedenen Projekten eingesetzt. N2 - The Semantic Web provides information contained in the World Wide Web as machine-readable facts. In comparison to a keyword-based inquiry, semantic search enables a more sophisticated exploration of web documents. By clarifying the meaning behind entities, search results are more precise and the semantics simultaneously enable an exploration of semantic relationships. However, unlike keyword searches, a semantic entity-focused search requires that web documents are annotated with semantic representations of common words and named entities. Manual semantic annotation of (web) documents is time-consuming; in response, automatic annotation services have emerged in recent years. These annotation services take continuous text as input, detect important key terms and named entities and annotate them with semantic entities contained in widely used semantic knowledge bases, such as Freebase or DBpedia. Metadata of video documents require special attention. Semantic analysis approaches for continuous text cannot be applied, because information of a context in video documents originates from multiple sources possessing different reliabilities and characteristics. This thesis presents a semantic analysis approach consisting of a context model and a disambiguation algorithm for video metadata. The context model takes into account the characteristics of video metadata and derives a confidence value for each metadata item. The confidence value represents the level of correctness and ambiguity of the textual information of the metadata item. The lower the ambiguity and the higher the prospective correctness, the higher the confidence value. The metadata items derived from the video metadata are analyzed in a specific order from high to low confidence level. Previously analyzed metadata are used as reference points in the context for subsequent disambiguation. The contextually most relevant entity is identified by means of descriptive texts and semantic relationships to the context. The context is created dynamically for each metadata item, taking into account the confidence value and other characteristics. The proposed semantic analysis follows two hypotheses: metadata items of a context should be processed in descendent order of their confidence value, and the metadata that pertains to a context should be limited by content-based segmentation boundaries. The evaluation results support the proposed hypotheses and show increased recall and precision for annotated entities, especially for metadata that originates from sources with low reliability. The algorithms have been evaluated against several state-of-the-art annotation approaches. The presented semantic analysis process is integrated into a video analysis framework and has been successfully applied in several projects for the purpose of semantic video exploration of videos. KW - Semantische Analyse KW - Kontext KW - Videoanalyse KW - Disambiguierung KW - Videometadaten KW - semantic analysis KW - context awareness KW - video analysis KW - word sense disambiguation KW - video metadata Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70551 ER - TY - THES A1 - Sütterlin, Martin T1 - New inverse hydogel opals as protein responsive sensors T1 - Neue inverse Hydrogelopale als proteinresponsive Sensoren N2 - In this work, the development of temperature- and protein-responsive sensor materials based on biocompatible, inverse hydrogel opals (IHOs) is presented. With these materials, large biomolecules can be specifically recognised and the binding event visualised. The preparation of the IHOs was performed with a template process, for which monodisperse silica particles were vertically deposited onto glass slides as the first step. The obtained colloidal crystals with a thickness of 5 μm displayed opalescent reflections because of the uniform alignment of the colloids. As a second step, the template was embedded in a matrix consisting of biocompatible, thermoresponsive hydrogels. The comonomers were selected from the family of oligo(ethylene glycol)methacrylates. The monomer solution was injected into a polymerisation mould, which contained the colloidal crystals as a template. The space in-between the template particles was filled with the monomer solution and the hydrogel was cured via UV-polymerisation. The particles were chemically etched, which resulted in a porous inner structure. The uniform alignment of the pores and therefore the opalescent reflection were maintained, so these system were denoted as inverse hydrogel opals. A pore diameter of several hundred nanometres as well as interconnections between the pores should facilitate a diffusion of bigger (bio)molecules, which was always a challenge in the presented systems until now. The copolymer composition was chosen to result in a hydrogel collapse over 35 °C. All hydrogels showed pronounced swelling in water below the critical temperature. The incorporation of a reactive monomer with hydroxyl groups ensured a potential coupling group for the introduction of recognition units for analytes, e.g. proteins. As a test system, biotin as a recognition unit for avidin was coupled to the IHO via polymer-analogous Steglich esterification. The amount of accessible biotin was quantified with a colorimetric binding assay. When avidin was added to the biotinylated IHO, the wavelength of the opalescent reflection was significantly shifted and therefore the binding event was visualised. This effect is based on the change in swelling behaviour of the hydrogel after binding of the hydrophilic avidin, which is amplified by the thermoresponsive nature of the hydrogel. A swelling or shrinking of the pores induces a change in distance of the crystal planes, which are responsible for the colour of the reflection. With these findings, the possibility of creating sensor materials or additional biomolecules in the size range of avidin is given. N2 - In dieser Arbeit wird die Entwicklung von temperatur- und proteinresponsiven Sensormaterialien auf Basis von biokompatiblen, inversen Hydrogelopalen (IHO) vorgestellt, mit welchen die spezifische Erkennung größerer Biomoleküle visuell ausgelesen werden kann. Die Darstellung der IHOs erfolgte mittels Templatverfahren, bei dem im ersten Schritt monodisperse Silicapartikel vertikal auf Objektträger abgeschieden wurden. Die so erhaltenen Kolloidkristalle mit einer Dicke von 5 μm zeigten opaleszente Reflexionen aufgrund der gleichförmigen Anordnung der Partikel. Im zweiten Schritt wurde das Templat in eine Matrix aus biokompatiblen, thermoresponsiven Hydrogelen eingebettet. Die Comonomere wurden aus der Familie der Oligo(ethylenglykol)methacrylate ausgewählt. Zur Synthese des Hydrogels wurde die Monomerlösung in eine Polymerisationsform injiziert, welche die Kolloidkristalle als Templat beinhaltete. Die Zwischenräume der Templatpartikel wurden mit der Monomerlösung gefüllt und das Hydrogelnetzwerk per UV-Polymerisation erhalten. Die Templatpartikel wurden anschließend nasschemisch heraus gelöst, so dass eine poröse innere Struktur erhalten wurde. Die regelmäßige Anordnung der Poren und damit die opaleszenten Reflexionen wurden dabei beibehalten, so dass diese Systeme als inverse Hydorgelopale bezeichnet werden. Ein Porendurchmesser von mehreren hundert Nanometer, sowie durchgängige Verbindungskanäle zwischen den einzelnen Poren sollten eine Diffusion von großen (Bio)molekülen erleichtern, was bei bisherigen Systemen ein Problem darstellte. Die Copolymerzusammensetzung wurde dabei so gewählt, dass ein Kollaps des Hydrogels über 35 °C stattfand. Alle Hydrogele zeigten ausgeprägte Quellung in Wasser unterhalb der kritischen Temperatur. Der Einbau von reaktiven Comonomeren mit Hydroxylgruppen gewährleistete dabei die Funktionalisierbarkeit des Hydrogels mit Erkennungsgruppen für entsprechende Analytmoleküle, wie z.B. Proteine. Als Testsystem wurde Biotin als Erkennungseinheit für Avidin in das Hydrogel mittels polymeranaloger Steglich Veresterung eingebaut. Die Menge an zugänglichem Biotin wurde dabei per colorimetrischem Bindungsassay quantifiziert. Dabei zeigte sich, dass sich die Wellenlänge der Reflexion nach Zugabe von Avidin zum biotinylierten inversen Hydrogelopal signifikant verschob und damit das Bindungsereignis visuell auslesbar ist. Dieser Effekt beruht auf dem veränderten Quellungsverhalten des Hydrogels nach Bindung des hydrophilen Proteins Avidin in Wasser, welches durch den thermosresponsiven Charakter des Hydrogels verstärkt ist. Ein Aufweiten oder Schrumpfen der Poren ändert die Abstände der gleichmäßig angeordneten Poren, welche für die Farbe des inversen Opals verantwortlich sind. Auf Basis dieser Erkenntnisse lassen sich möglicherweise Sensormaterialen für die Erkennung weiterer Biomoleküle in der Größenordnung von Avidin erstellen. KW - hydrogel KW - opal KW - protein KW - responsive KW - sensor Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70179 ER - TY - THES A1 - Tenenboim, Yehezkel T1 - Characterization of a Chlamydomonas protein involved in cell division and autophagy T1 - Charakterisierung eines an Zellteilung und Autophagie beteiligten Chlamydomonas-Proteins N2 - The contractile vacuole (CV) is an osmoregulatory organelle found exclusively in algae and protists. In addition to expelling excessive water out of the cell, it also expels ions and other metabolites and thereby contributes to the cell's metabolic homeostasis. The interest in the CV reaches beyond its immediate cellular roles. The CV's function is tightly related to basic cellular processes such as membrane dynamics and vesicle budding and fusion; several physiological processes in animals, such as synaptic neurotransmission and blood filtration in the kidney, are related to the CV's function; and several pathogens, such as the causative agents of sleeping sickness, possess CVs, which may serve as pharmacological targets. The green alga Chlamydomonas reinhardtii has two CVs. They are the smallest known CVs in nature, and they remain relatively untouched in the CV-related literature. Many genes that have been shown to be related to the CV in other organisms have close homologues in C. reinhardtii. We attempted to silence some of these genes and observe the effect on the CV. One of our genes, VMP1, caused striking, severe phenotypes when silenced. Cells exhibited defective cytokinesis and aberrant morphologies. The CV, incidentally, remained unscathed. In addition, mutant cells showed some evidence of disrupted autophagy. Several important regulators of the cell cycle as well as autophagy were found to be underexpressed in the mutant. Lipidomic analysis revealed many meaningful changes between wild-type and mutant cells, reinforcing the compromised-autophagy observation. VMP1 is a singular protein, with homologues in numerous eukaryotic organisms (aside from fungi), but usually with no relatives in each particular genome. Since its first characterization in 2002 it has been associated with several cellular processes and functions, namely autophagy, programmed cell-death, secretion, cell adhesion, and organelle biogenesis. It has been implicated in several human diseases: pancreatitis, diabetes, and several types of cancer. Our results reiterate some of the observations in VMP1's six reported homologues, but, importantly, show for the first time an involvement of this protein in cell division. The mechanisms underlying this involvement in Chlamydomonas, as well as other key aspects, such as VMP1's subcellular localization and interaction partners, still await elucidation. N2 - Die kontraktile Vakuole ist ein osmoregulatorisches Organell, das ausschließlich in Algen und Protisten vorkommt. Zusätzlich zu ihrer Rolle als Ausstoßer überflüßigen Wassers aus der Zelle heraus, stößt sie auch Ionen und andere Metaboliten aus, und trägt dabei zur metabolischen Homöostase der Zelle bei. Das Interesse an der kontraktilen Vakuole erstreckt sich über seine unmittelbare zelluläre Rolle hinaus. Die Funktion der kontraktilen Vakuole ist mit einigen grundsätzlichen zellulären Verfahren, wie Membrandynamik und Vesikelknospung und -fusion, verwandt; einige physiologische Verfahren in Tieren, zum Beispiel synaptische Neurotransmission und das Filtrieren des Blutes in den Nieren, sind mit der Funktion der Vakuole eng verwandt; und einige Pathogene—der Ursacher der Schlafkrankheit als Beispiel—besitzen kontraktile Vakuolen, die als Ziele von Medikamenten dienen könnten. Die grüne Alge Chlamydomonas reinhardtii verfügt über zwei Vakuolen. Sie sind die kleinsten bekannten in der Natur, und bleiben bisher verhältnismäßig unerforscht. Viele Gene, die in anderen Organismen als kontraktile-Vakuole-bezogen erwiesen wurden, haben Homologe in C. reinhardtii. Wir versuchten, diese Gene auszuschalten und den Einfluss auf die Vakuole zu beobachten. Die Ausschaltung eines unserer Gene, VMP1, verursachte starke, beachtliche Phänotype. Die Zellen zeigten gestörte Zytokinese und aberrante Zellformen. Die kontraktile Vakuole blieb jedoch verschont. Des Weiteren zeigten Mutantzellen einige Hinweise auf gestörte Autophagie. Einige wichtige Gene des Zellzyklus und der Autophagie waren unterexprimiert in Mutantzellen. Lipidomische Analyse zeigte mehrere bedeutsame Unterschiede zwischen Wildtyp und Mutant, die die Beobachtungen der gestörten Autophagie verstärkten. VMP1 ist ein singularisches Protein, mit Homologen in zähligen eukaryotischen Organismen (jedoch nicht in Pilzen), aber üblicherweise ohne Verwandte in den jeweiligen Genomen. Seit seiner Erstcharakterisierung 2002 wurde es mit etlichen zellulären Verfahren, wie Autophagie, programmiertem Zelltod, Sekretion, Zelladhäsion, und Biogenese der Organellen, assoziiert. Es wurde auch mit einigen menschlichen Krankheiten wie Diabetes, Pankreatitis, und einigen Arten von Krebs in Verbindung gebracht. Unsere Ergebnisse wiederholen einige Beobachtungen in anderen Organismen, zeigen dennoch zum ersten Mal eine Beteiligung von VMP1 an der Zellteilung. Die unterliegenden Mechanismen dieser Beteiligung in Chlamydomonas, sowie andere wichtige Aspekte, etwa die subzelluläre Lokalisierung von VMP1 und dessen Interaktionspartner, warten noch auf Aufklärung. KW - VMP1 KW - autophagy KW - cytokinesis KW - chlamydomonas Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70650 ER - TY - THES A1 - Trost, Gerda T1 - Poly(A) Polymerase 1 (PAPS1) influences organ size and pathogen response in Arabidopsis thaliana T1 - Poly(A) Polymerase 1 (PAPS1) beeinflusst die Organgröße und Pathogenantwort in Arabidopsis thaliana N2 - Polyadenylation of pre-mRNAs is critical for efficient nuclear export, stability, and translation of the mature mRNAs, and thus for gene expression. The bulk of pre-mRNAs are processed by canonical nuclear poly(A) polymerase (PAPS). Both vertebrate and higher-plant genomes encode more than one isoform of this enzyme, and these are coexpressed in different tissues. However, in neither case is it known whether the isoforms fulfill different functions or polyadenylate distinct subsets of pre-mRNAs. This thesis shows that the three canonical nuclear PAPS isoforms in Arabidopsis are functionally specialized owing to their evolutionarily divergent C-terminal domains. A moderate loss-of-function mutant in PAPS1 leads to increase in floral organ size, whereas leaf size is reduced. A strong loss-of-function mutation causes a male gametophytic defect, whereas a weak allele leads to reduced leaf growth. By contrast, plants lacking both PAPS2 and PAPS4 function are viable with wild-type leaf growth. Polyadenylation of SMALL AUXIN UP RNA (SAUR) mRNAs depends specifically on PAPS1 function. The resulting reduction in SAUR activity in paps1 mutants contributes to their reduced leaf growth, providing a causal link between polyadenylation of specific pre-mRNAs by a particular PAPS isoform and plant growth. Additionally, opposite effects of PAPS1 on leaf and flower growth reflect the different identities of these organs. The overgrowth of paps1 mutant petals is due to increased recruitment of founder cells into early organ primordia whereas the reduced leaf size is due to an ectopic pathogen response. This constitutive immune response leads to increased resistance to the biotrophic oomycete Hyaloperonospora arabidopsidis and reflects activation of the salicylic acid-independent signalling pathway downstream of ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immune responses are accompanied by intracellular redox changes. Consistent with this, the redox-status of the chloroplast is altered in paps1-1 mutants. The molecular effects of the paps1-1 mutation were analysed using an RNA sequencing approach that distinguishes between long- and short tailed mRNA. The results shown here suggest the existence of an additional layer of regulation in plants and possibly vertebrate gene expression, whereby the relative activities of canonical nuclear PAPS isoforms control de novo synthesized poly(A) tail length and hence expression of specific subsets of mRNAs. N2 - Polyadenylierung von prä-mRNAs ist entscheidend für den Export aus dem Zellkern, die Stabilität und die Translation der reifen mRNAs und dadurch für die Genexpression. Der Großteil der mRNAs wird durch sogenannte canonische Poly(A) Polymerasen (cPAPS) prozessiert. Die Genome von sowohl Wirbeltieren als auch Pflanzen kodieren mehr als eine Isoform dieser Enzyme, welche gleichzeitig in verschiedenen Geweben exprimiert werden. Es ist jedoch kein Beispiel bekannt, das zeigt, ob die verschiedenen Isoformen unterschiedliche Funktionen einnehmen bzw. verschiedene Untergruppen von mRNAs polyadenylieren. Diese Arbeit zeigt, dass drei canonische PAPS Isoformen in Arabidopsis thaliana aufgrund ihrer evolutionär unterschiedlichen C-terminalen Domänen spezialisierte Funktionen haben. Eine schwache Verlust-Mutation im PAPS1 Gen bewirkt eine Vergrößerung der Blütenorgane, während die Blattgröße vermindert ist. Eine starke Verlust-Mutation bewirkt zusätzlich einen Defekt der männlichen Keimzellen. Im Gegenzug dazu sind Mutanten des PAPS2 oder PAPS4 Gens gesund und zeigen ein normales Wachstum. Polyadenylierung von SMALL AUXIN UP RNA (SAUR) mRNAs hängt spezifisch von der Funktion von PAPS1 ab. Die daraus entstehende Reduzierung der SAUR Aktivität in den paps1 Mutanten trägt zur Verringerung der Blattgröße bei und stellt eine kausale Verbindung zwischen Polyadenylierung spezifischer mRNAs durch bestimmte PAPS Isoformen und Pflanzenwachstum dar. Zusätzlich spiegeln die unterschiedlichen Effekte von PAPS1 auf Blüten und Blätter die Identitäten dieser Organe wieder. Das übermäßige Wachstum der mutanten Petalen beruht auf einer erhöhten Anzahl an Gründer-Zellen im frühen Primordium, wohingegen die verminderte Blattgröße auf eine ektopische Pathogen Antwort zurückzuführen ist. Diese konstitutive Immunantwort bewirkt eine erhöhte Resistenz der Mutanten gegenüber dem biotrophen Oomyceten Hyaloperonospora arabidopsidis und reflektiert die Aktivierung des Salizylsäure unabhängigen Signalweges von ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immunantworten sind von Veränderungen des intrazellulären Redoxpotenzials gekennzeichnet. Damit übereinstimmend zeigen die Chloroplasten der paps1-1 Mutanten ein verändertes Redoxpotenzial. Zur genaueren Aufklärung der molekularen Effekte der paps1 1 mutation wurde eine RNA-Sequenzierungsmethode verwendet, die zwischen mRNAs mit langem oder kurzem Poly(A) Schwanz unterscheidet. Die Aktivitäten der verschiedenen canonischen PAPS Isoformen kontrollieren die Länge des neu synthetisierten poly(A) Schwanzes und damit die Expression spezifischer Untergruppen von mRNAs. Dadurch lassen die hier gezeigten Ergebnisse eine weitere Ebene der Genregulierung in Pflanzen, und möglicherweise auch in anderen Eukaryoten, vermuten. KW - Polyadenylierung KW - Pathogenantwort KW - Organgröße KW - polyadenylation KW - pathogen response KW - organ size Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72345 ER - TY - THES A1 - Vorogushyn, Sergiy T1 - Analysis of flood hazard under consideration of dike breaches T1 - Analyse der Hochwassergefährdung unter Berücksichtigung von Deichbrüchen N2 - River reaches protected by dikes exhibit high damage potential due to strong value accumulation in the hinterland areas. While providing an efficient protection against low magnitude flood events, dikes may fail under the load of extreme water levels and long flood durations. Hazard and risk assessments for river reaches protected by dikes have not adequately considered the fluvial inundation processes up to now. Particularly, the processes of dike failures and their influence on the hinterland inundation and flood wave propagation lack comprehensive consideration. This study focuses on the development and application of a new modelling system which allows a comprehensive flood hazard assessment along diked river reaches under consideration of dike failures. The proposed Inundation Hazard Assessment Model (IHAM) represents a hybrid probabilistic-deterministic model. It comprises three models interactively coupled at runtime. These are: (1) 1D unsteady hydrodynamic model of river channel and floodplain flow between dikes, (2) probabilistic dike breach model which determines possible dike breach locations, breach widths and breach outflow discharges, and (3) 2D raster-based diffusion wave storage cell model of the hinterland areas behind the dikes. Due to the unsteady nature of the 1D and 2D coupled models, the dependence between hydraulic load at various locations along the reach is explicitly considered. The probabilistic dike breach model describes dike failures due to three failure mechanisms: overtopping, piping and slope instability caused by the seepage flow through the dike core (micro-instability). The 2D storage cell model driven by the breach outflow boundary conditions computes an extended spectrum of flood intensity indicators such as water depth, flow velocity, impulse, inundation duration and rate of water rise. IHAM is embedded in a Monte Carlo simulation in order to account for the natural variability of the flood generation processes reflected in the form of input hydrographs and for the randomness of dike failures given by breach locations, times and widths. The model was developed and tested on a ca. 91 km heavily diked river reach on the German part of the Elbe River between gauges Torgau and Vockerode. The reach is characterised by low slope and fairly flat extended hinterland areas. The scenario calculations for the developed synthetic input hydrographs for the main river and tributary were carried out for floods with return periods of T = 100, 200, 500, 1000 a. Based on the modelling results, probabilistic dike hazard maps could be generated that indicate the failure probability of each discretised dike section for every scenario magnitude. In the disaggregated display mode, the dike hazard maps indicate the failure probabilities for each considered breach mechanism. Besides the binary inundation patterns that indicate the probability of raster cells being inundated, IHAM generates probabilistic flood hazard maps. These maps display spatial patterns of the considered flood intensity indicators and their associated return periods. Finally, scenarios of polder deployment for the extreme floods with T = 200, 500, 1000 were simulated with IHAM. The developed IHAM simulation system represents a new scientific tool for studying fluvial inundation dynamics under extreme conditions incorporating effects of technical flood protection measures. With its major outputs in form of novel probabilistic inundation and dike hazard maps, the IHAM system has a high practical value for decision support in flood management. N2 - Entlang eingedeichter Flussabschnitte kann das Hinterland ein hohes Schadenspotential, aufgrund der starken Akkumulation der Werte, aufweisen. Obwohl Deiche einen effizienten Schutz gegen kleinere häufiger auftretende Hochwässer bieten, können sie unter der Last hoher Wasserstände sowie langer Anstaudauer versagen. Gefährdungs- und Risikoabschätzungsmethoden für die eingedeichten Flussstrecken haben bisher die fluvialen Überflutungsprozesse nicht hinreichend berücksichtigt. Besonders, die Prozesse der Deichbrüche und deren Einfluss auf Überflutung im Hinterland und Fortschreiten der Hochwasserwelle verlangen eine umfassende Betrachtung. Die vorliegende Studie setzt ihren Fokus auf die Entwicklung und Anwendung eines neuen Modellierungssystems, das eine umfassende Hochwassergefährdungsanalyse entlang eingedeichter Flussstrecken unter Berücksichtigung von Deichbrüchen ermöglicht. Das vorgeschlagene Inundation Hazard Assessment Model (IHAM) stellt ein hybrides probabilistisch-deterministisches Modell dar. Es besteht aus drei laufzeitgekoppelten Modellen: (1) einem 1D instationären hydrodynamisch-numerischen Modell für den Flussschlauch und die Vorländer zwischen den Deichen, (2) einem probabilistischen Deichbruchmodell, welches die möglichen Bruchstellen, Breschenbreiten und Breschenausflüsse berechnet, und (3) einem 2D raster-basierten Überflutungsmodell für das Hinterland, das auf dem Speiherzellenansatz und der Diffusionswellengleichung basiert ist. Das probabilistische Deichbruchmodell beschreibt Deichbrüche, die infolge von drei Bruchmechanismen auftreten: dem Überströmen, dem Piping im Deichuntergrund und dem Versagen der landseitigen Böschung als Folge des Sickerflusses und der Erosion im Deichkörper (Mikro-Instabilität). Das 2D Speicherzellenmodell, angetrieben durch den Breschenausfluss als Randbedingung, berechnet ein erweitertes Spektrum der Hochwasserintensitätsindikatoren wie: Überflutungstiefe, Fliessgeschwindigkeit, Impuls, Überflutungsdauer und Wasseranstiegsrate. IHAM wird im Rahmen einer Monte Carlo Simulation ausgeführt und berücksichtigt die natürliche Variabilität der Hochwasserentstehungsprozesse, die in der Form der Hydrographen und deren Häufigkeit abgebildet wird, und die Zufälligkeit des Deichversagens, gegeben durch die Lokationen der Bruchstellen, der Zeitpunkte der Brüche und der Breschenbreiten. Das Modell wurde entwickelt und getestet an einem ca. 91 km langen Flussabschnitt. Dieser Flussabschnitt ist durchgängig eingedeicht und befindet sich an der deutschen Elbe zwischen den Pegeln Torgau und Vockerode. Die Szenarioberechnungen wurden von synthetischen Hydrographen für den Hauptstrom und Nebenfluss angetrieben, die für Hochwässer mit Wiederkehrintervallen von 100, 200, 500, und 1000 Jahren entwickelt wurden. Basierend auf den Modellierungsergebnissen wurden probabilistische Deichgefährdungskarten generiert. Sie zeigen die Versagenswahrscheinlichkeiten der diskretisierten Deichabschnitte für jede modellierte Hochwassermagnitude. Die Deichgefährdungskarten im disaggregierten Darstellungsmodus zeigen die Bruchwahrscheinlichkeiten für jeden betrachteten Bruchmechanismus. Neben den binären Überflutungsmustern, die die Wahrscheinlichkeit der Überflutung jeder Rasterzelle im Hinterland zeigen, generiert IHAM probabilistische Hochwassergefährdungskarten. Diese Karten stellen räumliche Muster der in Betracht gezogenen Hochwasserintensitätsindikatoren und entsprechende Jährlichkeiten dar. Schließlich, wurden mit IHAM Szenarien mit Aktivierung vom Polder bei extremen Hochwässern mit Jährlichkeiten von 200, 500, 1000 Jahren simuliert. Das entwickelte IHAM Modellierungssystem stellt ein neues wissenschaftliches Werkzeug für die Untersuchung fluvialer Überflutungsdynamik in extremen Hochwassersituationen unter Berücksichtigung des Einflusses technischer Hochwasserschutzmaßnahmen dar. Das IHAM System hat eine hohe praktische Bedeutung für die Entscheidungsunterstützung im Hochwassermanagement aufgrund der neuartigen Deichbruch- und Hochwassergefährdungskarten, die das Hauptprodukt der Simulationen darstellen. KW - Hochwasser KW - Deichbruch KW - Unsicherheitsanalyse KW - Gefährdungskarten KW - Polder KW - Flood KW - dike breach KW - uncertainty analysis KW - hazard maps KW - polder Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-27646 ER - TY - THES A1 - Waha, Katharina T1 - Climate change impacts on agricultural vegetation in sub-Saharan Africa T1 - Auswirkungen von Klimaänderungen auf die landwirtschaftliche Vegetation in Afrika südlich der Sahara N2 - Agriculture is one of the most important human activities providing food and more agricultural goods for seven billion people around the world and is of special importance in sub-Saharan Africa. The majority of people depends on the agricultural sector for their livelihoods and will suffer from negative climate change impacts on agriculture until the middle and end of the 21st century, even more if weak governments, economic crises or violent conflicts endanger the countries’ food security. The impact of temperature increases and changing precipitation patterns on agricultural vegetation motivated this thesis in the first place. Analyzing the potentials of reducing negative climate change impacts by adapting crop management to changing climate is a second objective of the thesis. As a precondition for simulating climate change impacts on agricultural crops with a global crop model first the timing of sowing in the tropics was improved and validated as this is an important factor determining the length and timing of the crops´ development phases, the occurrence of water stress and final crop yield. Crop yields are projected to decline in most regions which is evident from the results of this thesis, but the uncertainties that exist in climate projections and in the efficiency of adaptation options because of political, economical or institutional obstacles have to be considered. The effect of temperature increases and changing precipitation patterns on crop yields can be analyzed separately and varies in space across the continent. Southern Africa is clearly the region most susceptible to climate change, especially to precipitation changes. The Sahel north of 13° N and parts of Eastern Africa with short growing seasons below 120 days and limited wet season precipitation of less than 500 mm are also vulnerable to precipitation changes while in most other part of East and Central Africa, in contrast, the effect of temperature increase on crops overbalances the precipitation effect and is most pronounced in a band stretching from Angola to Ethiopia in the 2060s. The results of this thesis confirm the findings from previous studies on the magnitude of climate change impact on crops in sub-Saharan Africa but beyond that helps to understand the drivers of these changes and the potential of certain management strategies for adaptation in more detail. Crop yield changes depend on the initial growing conditions, on the magnitude of climate change, and on the crop, cropping system and adaptive capacity of African farmers which is only now evident from this comprehensive study for sub-Saharan Africa. Furthermore this study improves the representation of tropical cropping systems in a global crop model and considers the major food crops cultivated in sub-Saharan Africa and climate change impacts throughout the continent. N2 - Landwirtschaft ist eine der wichtigsten menschlichen Aktivitäten, sie stellt Nahrungsmittel und andere landwirtschaftliche Produkte für weltweit 7 Milliarden Menschen zur Verfügung und ist in den Ländern Afrikas südlich der Sahara von besonderer Bedeutung. Die Mehrheit der afrikanischen Bevölkerung bestreitet ihren Lebensunterhalt in der Landwirtschaft und wird von Klimaänderungen stark betroffen sein. Die Doktorarbeit ist durch die Frage motiviert, wie sich von Klimamodellen vorhergesagte Temperaturerhöhungen und sich verändernde Niederschlagsverteilungen auf die landwirtschaftliche Vegetation auswirken werden. Die Forschungsfragen in diesem Kontext beschäftigen sich mit regionalen Unterschieden von Klimaänderungen und ihren Auswirkungen auf die Landwirtschaft und mit möglichen Anpassungsstrategien die mit geringem technischem Aufwand genutzt werden können. In diesem Zusammenhang wird schnell deutlich, dass Daten über die komplexen landwirtschaftlichen Systeme in Afrika südlich der Sahara häufig nur selten vorhanden sind, aus fragwürdigen Quellen stammen oder von schlechter Qualität sind. Die Methoden und Modelle zur Untersuchung der Auswirkungen von Klimaänderungen auf die Landwirtschaft werden zudem ausschließlich in Europa oder Nordamerika entwickelt and häufig in den temperierten Breiten aber seltener in tropischen Gebieten angewendet. Vor allem werden globale, dynamische Vegetationsmodelle in Kombination mit Klimamodellen eingesetzt um Änderungen in der landwirtschaftlichen Produktion auf Grund von Klimaänderungen in der zweiten Hälfte des 21.Jahrhunderts abzuschätzen. Die Ergebnisse der Arbeit zeigen einen mittleren Ertragsrückgang für die wichtigsten landwirtschaftlichen Pflanzen um 6% bis 24% bis 2090 je nach Region, Klimamodell und Anpassungsstrategie. Dieses Ergebnis macht deutlich, dass Landwirte die negativen Folgen von Klimaänderungen abschwächen können, wenn sie die Wahl der Feldfrucht, die Wahl des Anbausystems und den Aussaattermin an geänderte Klimabedingungen anpassen. Die Arbeit stellt methodische Ansätze zur Berechung des Aussaattermins in temperierten und tropischen Gebieten (Kapitel 2) sowie zur Simulation von Mehrfachanbausystemen in den Tropen vor (Kapitel 3). Dabei werden wichtige Parameter für das globale, dynamische Vegetationsmodell LPJmL überprüft und neu berechnet. Es zeigt sich, dass das südliche Afrika und die Sahelregion die am stärksten betroffenen Regionen sind, vor allem aufgrund von Niederschlagsänderungen, weniger aufgrund von Temperaturerhöhungen. In den meisten anderen Teilen, vor allem Zentral- und Ostafrikas bedingen Temperaturerhöhungen Rückgänge der Erträge (Kapitel 4). Diese Arbeit leistet einen wichtigen und umfassenden Beitrag zum Verständnis der Auswirkung von Klimaänderung auf die landwirtschaftliche Vegetation und damit zu einem großen Teil auf die Lebensgrundlage von afrikanischen Landwirten. KW - Klimawandel KW - Anpassung KW - Afrika KW - Pflanzenwachstum KW - Landwirtschaft KW - climate change KW - Africa KW - crop modeling KW - adapation KW - agriculture Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64717 ER - TY - THES A1 - Wasiolka, Bernd T1 - The impact of overgrazing on reptile diversity and population dynamics of Pedioplanis l. lineoocellata in the southern Kalahari T1 - Der Einfluss von Überweidung auf Reptiliendiversität und die Poplationsdynamik von Pedioplanis l. lineoocellata in der südlichen Kalahari N2 - Die Vegetationskomposition und –struktur, beispielsweise die unterschiedliche Architektur von Bäumen, Sträuchern, Gräsern und Kräutern, bietet ein großes Spektrum an Habitaten und Nischen, die wiederum eine hohe Tierdiversität in den Savannensystemen des südlichen Afrikas ermöglichen. Dieses Ökosystem wurde jedoch über Jahrzehnte weltweit durch intensive anthropogene Landnutzung (z.B. Viehwirtschaft) nachhaltig verändert. Dabei wurden die Zusammensetzung, Diversität und Struktur der Vegetation stark verändert. Überweidung in Savannensystemen führt zu einer Degradation des Habitates einhergehend mit dem Verlust von perennierenden Gräsern und krautiger Vegetation. Dies führt zu einem Anstieg an vegetationsfreien Bodenflächen. Beides, sowohl der Verlust an perennierenden Gräsern und krautiger Vegetation sowie der Anstieg an vegetationsfreien Flächen führt zu verbesserten Etablierungsbedingungen für Sträucher (z.B. Rhigozum trichotomum, Acacia mellifera) und auf lange Sicht zu stark verbuschten Flächen. Die Tierdiversität in Savannen ist hiervon entscheidend beeinflusst. Mit sinkender struktureller Diversität verringert sich auch die Tierdiversität. Während der Einfluss von Überweidung auf die Vegetation relativ gut untersucht ist sind Informationen über den Einfluss von Überweidung auf die Tierdiversität, speziell für Reptilien, eher spärlich vorhanden. Zusätzlich ist sehr wenig bekannt zum Einfluss auf die Populationsdynamik (z.B. Verhaltensanpassungen, Raumnutzung, Überlebensrate, Sterberate) einzelner Reptilienarten. Ziel meiner Doktorarbeit ist es den Einfluss von Überweidung durch kommerzielle Farmnutzung auf die Reptiliengemeinschaft und auf verschiedene Aspekte der Populationsdynamik der Echse Pedioplanis lineoocellata lineoocellata zu untersuchen. Hinsichtlich bestimmter Naturschutzmaßnahmen ist es einerseits wichtig zu verstehen welchen Auswirkungen Überweidung auf die gesamte Reptiliengemeinschaft hat. Und zum anderen wie entscheidende Faktoren der Populationsdynamik beeinflusst werden. Beides führt zu einem besseren Verständnis der Reaktion von Reptilien auf Habitatdegradation zu erlangen. Die Ergebnisse meiner Doktorarbeit zeigen eindeutig einen negativen Einfluss der Überweidung und der daraus resultierende Habitatdegradation auf (1) die gesamte Reptiliengemeinschaft und (2) auf einzelne Aspekte der Populationsdynamik von P. lineoocellata. Im Teil 1 wird die signifikante Reduzierung der Reptiliendiversität und Abundanz in degradierten Habitaten beschrieben. Im zweiten Teil wird gezeigt, dass P. lineoocellata das Verhalten an die verschlechterten Lebensbedingungen anpassen kann. Die Art bewegt sich sowohl häufiger als auch über einen längeren Zeitraum und legt dabei größere Distanzen zurück. Zusätzlich vergrößerte die Art ihr Revier (home range) (Teil 3). Im abschließenden Teil wird der negative Einfluss von Überweidung auf die Populationsdynamik von P. lineoocellata beschrieben: In degradierten Habitaten nimmt die Populationsgröße von adulten und juvenilen Echsen ab, die Überlebens- und Geburtenrate sinken, währen zusätzlich das Prädationsrisiko ansteigt. Verantwortlich hierfür ist zum einen die ebenfalls reduzierte Nahrungsverfügbarkeit (Arthropoden) auf degradierten Flächen. Dies hat zur Folge, dass die Populationsgröße abnimmt und die Fitness der Individuen verringert wird, welches sich durch eine Reduzierung der Überlebens- und Geburtenrate bemerkbar macht. Und zum anderen ist es die Reduzierung der Vegetationsbedeckung und der Rückgang an perennierenden Gräsern welche sich negativ auswirken. Als Konsequenz hiervon gehen Nischen und Mikrohabitate verloren und die Möglichkeiten der Reptilien zur Thermoregulation sind verringert. Des Weiteren hat dieser Verlust an perennierender Grasbedeckung auch ein erhöhtes Prädationsrisikos zur Folge. Zusammenfassend lässt sich sagen, dass nicht nur Bäume und Sträucher, wie in anderen Studien gezeigt, eine bedeutende Rolle für die Diversität spielen, sondern auch das perennierende Gras eine wichtige Rolle für die Faunendiversität spielt. Weiterhin zeigte sich, dass Habitatdegradation nicht nur die Population als gesamtes beeinflusst, sondern auch das Verhalten und Populationsparameter einzelner Arten. Des Weiteren ist es Reptilien möglich durch Verhaltensflexibilität auf verschlechterte Umweltbedingen zu reagieren. N2 - In semi-arid savannah ecosystems, the vegetation structure and composition, i.e. the architecture of trees, shrubs, grass tussocks and herbaceous plants, offer a great variety of habitats and niches to sustain animal diversity. In the last decades intensive human land use practises like livestock farming have altered the vegetation in savannah ecosystems worldwide. Extensive grazing leads to a reduction of the perennial and herbaceous vegetation cover, which results in an increased availability of bare soil. Both, the missing competition with perennial grasses and the increase of bare soils favour shrub on open ground and lead to area-wide shrub encroachment. As a consequence of the altered vegetation structure and composition, the structural diversity declines. It has been shown that with decreasing structural diversity animal diversity decline across a variety of taxa. Knowledge on the effects of overgrazing on reptiles, which are an important part of the ecosystem, are missing. Furthermore, the impact of habitat degradation on factors of a species population dynamic and life history, e.g., birth rate, survival rate, predation risk, space requirements or behavioural adaptations are poorly known. Therefore, I investigated the impact of overgrazing on the reptile community in the southern Kalahari. Secondly I analysed population dynamics and the behaviour of the Spotted Sand Lizard, Pedioplanis l. lineoocellata. All four chapters clearly demonstrate that habitat degradation caused by overgrazing had a severe negative impact upon (i) the reptile community as a whole and (ii) on population parameters of Pedioplanis l. lineoocellata. Chapter one showed a significant decline of regional reptile diversity and abundance in degraded habitats. In chapter two I demonstrated that P. lineoocellata moves more frequently, spends more time moving and covers larger distances in degraded than in non-degraded habitats. In addition, home range size of the lizard species increases in degraded habitats as shown by chapter three. Finally, chapter four showed the negative impacts of overgrazing on several population parameters of P. lineoocellata. Absolute population size of adult and juvenile lizards, survival rate and birth rate are significantly lower in degraded habitats. Furthermore, the predation risk was greatly increased in degraded habitats. A combination of a variety of aspects can explain the negative impact of habitat degradation on reptiles. First, reduced prey availability negatively affects survival rate, the birth rate and overall abundance. Second, the loss of perennial plant cover leads to a loss of niches and to a reduction of opportunities to thermoregulate. Furthermore, a loss of cover and is associated with increased predation risk. A major finding of my thesis is that the lizard P. lineoocellata can alter its foraging strategy. Species that are able to adapt and change behaviour, such as P. lineoocellata can effectively buffer against changes in their environment. Furthermore, perennial grass cover can be seen as a crucial ecological component of the vegetation in the semi-arid savannah system of the southern Kalahari. If perennial grass cover is reduced to a certain degree reptile diversity will decline and most other aspects of reptile life history will be negatively influenced. Savannah systems are characterised by a mixture of trees, shrubs and perennial grasses. These three vegetation components determine the composition and structure of the vegetation and accordingly influence the faunal diversity. Trees are viewed as keystone structures and focal points of animal activity for a variety of species. Trees supply animals with shelter, shade and food and act as safe sites, nesting sites, observation posts and foraging sites. Recent research demonstrates a positive influence of shrub patches on animal diversity. Moreover, it would seem that intermediate shrub cover can also sustain viable populations in savannah landscapes as has been demonstrated for small carnivores and rodent species. The influence of perennial grasses on faunal diversity did not receive the same attention as the influence of trees and shrubs. In my thesis I didn’t explicitly measure the direct effects of perennial grasses but my results strongly imply that it has an important role. If the perennial grass cover is significantly depleted my results suggest it will negatively influence reptile diversity and abundance and on several populations parameters of P. lineoocellata. Perennial grass cover is associated with the highest prey abundance, reptile diversity and reptile abundance. It provides reptiles both a refuge from predators and opportunities to optimise thermoregulation. The relevance of each of the three vegetation structural elements is different for each taxa and species. In conclusion, I can all three major vegetation structures in the savannah system are important for faunal diversity. KW - Shrub encroachment KW - overgrazing KW - biodiversity KW - reptiles Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16611 ER - TY - THES A1 - Wattenbach, Martin T1 - The hydrological effects of changes in forest area and species composition in the federal state of Brandenburg, Germany T1 - Die hydrologischen Effekte von Veränderungen der Waldfläche und Artenzusammensetzung im Land Brandenburg, Deutschland N2 - This thesis aims to quantify the human impact on the natural resource water at the landscape scale. The drivers in the federal state of Brandenburg (Germany), the area under investigation, are land-use changes induced by policy decisions at European and federal state level. The water resources of the federal state are particularly sensitive to changes in land-use due to low precipitation rates in the summer combined with sandy soils and high evapotranspiration rates. Key elements in landscape hydrology are forests because of their unique capacity to transport water from the soil to the atmosphere. Given these circumstances, decisions made at any level of administration that may have effects on the forest sector in the state are critical in relation to the water cycle. It is therefore essential to evaluate any decision that may change forest area and structure in such a sensitive region. Thus, as a first step, it was necessary to develop and implement a model able to simulate possible interactions and feedbacks between forested surfaces and the hydrological cycle at the landscape scale. The result is a model for simulating the hydrological properties of forest stands based on a robust computation of the temporal and spatial LAI (leaf area index) dynamics. The approach allows the simulation of all relevant hydrological processes with a low parameter demand. It includes the interception of precipitation and transpiration of forest stands with and without groundwater in the rooting zone. The model also considers phenology, biomass allocation, as well as mortality and simple management practices. It has been implemented as a module in the eco-hydrological model SWIM (Soil and Water Integrated Model). This model has been tested in two pre-studies to verify the applicability of its hydrological process description for the hydrological conditions typical for the state. The newly implemented forest module has been tested for Scots Pine (Pinus sylvestris) and in parts for Common Oak (Quercus robur and Q. petraea) in Brandenburg. For Scots Pine the results demonstrate a good simulation of annual biomass increase and LAI in addition to the satisfactory simulation of litter production. A comparison of the simulated and measured data of the May sprout for Scots pine and leaf unfolding for Oak, as well as the evaluation against daily transpiration measurements for Scots Pine, does support the applicability of the approach. The interception of precipitation has also been simulated and compared with weekly observed data for a Scots Pine stand which displays satisfactory results in both the vegetation periods and annual sums. After the development and testing phase, the model is used to analyse the effects of two scenarios. The first scenario is an increase in forest area on abandoned agricultural land that is triggered by a decrease in European agricultural production support. The second one is a shift in species composition from predominant Scots Pine to Common Oak that is based on decisions of the regional forestry authority to support a more natural species composition. The scenario effects are modelled for the federal state of Brandenburg on a 50m grid utilising spatially explicit land-use patterns. The results, for the first scenario, suggest a negative impact of an increase in forest area (9.4% total state area) on the regional water balance, causing an increase in mean long-term annual evapotranspiration of 3.7% at 100% afforestation when compared to no afforestation. The relatively small annual change conceals a much more pronounced seasonal effect of a mean long-term evapotranspiration increase by 25.1% in the spring causing a pronounced reduction in groundwater recharge and runoff. The reduction causes a lag effect that aggravates the scarcity of water resources in the summer. In contrast, in the second scenario, a change in species composition in existing forests (29.2% total state area) from predominantly Scots Pine to Common Oak decreases the long-term annual mean evapotranspiration by 3.4%, accompanied by a much weaker, but apparent, seasonal pattern. Both scenarios exhibit a high spatial heterogeneity because of the distinct natural conditions in the different regions of the state. Areas with groundwater levels near the surface are particularly sensitive to changes in forest area and regions with relatively high proportion of forest respond strongly to the change in species composition. In both cases this regional response is masked by a smaller linear mean effect for the total state area. Two critical sources of uncertainty in the model results have been investigated. The first one originates from the model calibration parameters estimated in the pre-study for lowland regions, such as the federal state. The combined effect of the parameters, when changed within their physical meaningful limits, unveils an overestimation of the mean water balance by 1.6%. However, the distribution has a wide spread with 14.7% for the 90th percentile and -9.9% for the 10th percentile. The second source of uncertainty emerges from the parameterisation of the forest module. The analysis exhibits a standard deviation of 0.6 % over a ten year period in the mean of the simulated evapotranspiration as a result of variance in the key forest parameters. The analysis suggests that the combined uncertainty in the model results is dominated by the uncertainties of calibration parameters. Therefore, the effect of the first scenario might be underestimated because the calculated increase in evapotranspiration is too small. This may lead to an overestimation of the water balance towards runoff and groundwater recharge. The opposite can be assumed for the second scenario in which the decrease in evapotranspiration might be overestimated. N2 - Das übergreifende Ziel der vorliegenden Arbeit ist es, die Interaktion zwischen Landnutzungsänderung und dem Landschaftswasserhaushalt zu quantifizieren. Das Untersuchungsgebiet für die Analyse ist das Land Brandenburg. Bedingt durch seine Kombination geringer Sommerniederschläge mit der Dominanz sandiger Böden und hoher Verdunstungsraten, insbesondere von den großflächigen Wäldern und Forsten, ist es besonders empfindlich gegenüber Landnutzungsänderung. Waldflächen sind Schlüsselelemente im Landschaftswasserhaushalt, da sie den Bodenwasserspeicher effizienter mit der Atmosphäre koppeln als die meisten anderen Vegetationsformen. Im ersten Teil der Arbeit war es daher notwendig, ein geeignetes Modellkonzept zu finden. Der Ansatz sollte in der Lage sein, die hydrologischen Effekte auf Landschaftsebene zu modellieren, ohne dabei die Datenverfügbarkeit in diesem Anwendungsbereich zu überschreiten. Das entwickelte Modellkonzept wurde in das ökohydrologische Einzugsgebietsmodell SWIM (Soil Water Integrated Model) integriert. Nach einer Test- und Entwicklungsphase konnte das Modell für die integrierte Analyse der Wirkung von zwei Szenarien auf den Landeswasserhaushalt verwendet werden. Das erste Szenario beschäftigt sich mit der möglichen Zunahme der Waldfläche als Folge der Neuausrichtung der Agrarsubventionspolitik der Europäischen Union. Die Waldflächenzunahme führt zu einer Steigerung der Evapotranspiration im langjährigen Mittel. Das zweite Szenario behandelt die Auswirkung des Brandenburger Waldumbauprogramms und hat eine vergleichsweise geringe Abnahme der langjährigen mittleren Verdunstung zur Folge. Der lineare mittlere Verlauf überdeckt ein ausgeprägtes räumliches und saisonales Muster der Veränderung. Die Zonen starker Effekte der beider Szenarien überlappen sich nur in einigen Fällen, so ist es möglich, dass die positiven Wirkungen des Waldumbauprogramms in einigen Regionen durch eine mögliche Ausweitung der Waldfläche aufgehoben werden. Die vorgestellten Ergebnisse zeigen deutlich, dass Landnutzungsänderungen, die durch politische oder administrative Entscheidungen ausgelöst werden, Auswirkungen auf elementare Landschaftsfunktionen wie den Wasserhaushalt haben. Es wird deutlich, dass ein integrativer Modellierungsansatz, der die wahrscheinlichen Wirkungen administrativer Entscheidungen in Betracht zieht, Grundlagen für eine nachhaltige Entwicklung liefern kann. Diese Ergebnisse werden umso relevanter, je stärker die betroffene Ressource bereits eingeschränkt ist. In Bezug auf die Wasserressourcen im Land Brandenburg ist das der Fall und aktuelle Studien zum Globalen Wandel in der Region prognostizieren eine Verschärfung dieser Situation. KW - Pinus sylvestris KW - Quercus KW - SWIM KW - Grundwasser KW - Globaler Wandel KW - global change KW - CAP KW - water balance KW - ground water KW - forestry Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-27394 ER -