TY - THES A1 - Abedjan, Ziawasch T1 - Improving RDF data with data mining T1 - Verbessern von RDF Daten durch Data-Mining N2 - Linked Open Data (LOD) comprises very many and often large public data sets and knowledge bases. Those datasets are mostly presented in the RDF triple structure of subject, predicate, and object, where each triple represents a statement or fact. Unfortunately, the heterogeneity of available open data requires significant integration steps before it can be used in applications. Meta information, such as ontological definitions and exact range definitions of predicates, are desirable and ideally provided by an ontology. However in the context of LOD, ontologies are often incomplete or simply not available. Thus, it is useful to automatically generate meta information, such as ontological dependencies, range definitions, and topical classifications. Association rule mining, which was originally applied for sales analysis on transactional databases, is a promising and novel technique to explore such data. We designed an adaptation of this technique for min-ing Rdf data and introduce the concept of “mining configurations”, which allows us to mine RDF data sets in various ways. Different configurations enable us to identify schema and value dependencies that in combination result in interesting use cases. To this end, we present rule-based approaches for auto-completion, data enrichment, ontology improvement, and query relaxation. Auto-completion remedies the problem of inconsistent ontology usage, providing an editing user with a sorted list of commonly used predicates. A combination of different configurations step extends this approach to create completely new facts for a knowledge base. We present two approaches for fact generation, a user-based approach where a user selects the entity to be amended with new facts and a data-driven approach where an algorithm discovers entities that have to be amended with missing facts. As knowledge bases constantly grow and evolve, another approach to improve the usage of RDF data is to improve existing ontologies. Here, we present an association rule based approach to reconcile ontology and data. Interlacing different mining configurations, we infer an algorithm to discover synonymously used predicates. Those predicates can be used to expand query results and to support users during query formulation. We provide a wide range of experiments on real world datasets for each use case. The experiments and evaluations show the added value of association rule mining for the integration and usability of RDF data and confirm the appropriateness of our mining configuration methodology. N2 - Linked Open Data (LOD) umfasst viele und oft sehr große öffentlichen Datensätze und Wissensbanken, die hauptsächlich in der RDF Triplestruktur bestehend aus Subjekt, Prädikat und Objekt vorkommen. Dabei repräsentiert jedes Triple einen Fakt. Unglücklicherweise erfordert die Heterogenität der verfügbaren öffentlichen Daten signifikante Integrationsschritte bevor die Daten in Anwendungen genutzt werden können. Meta-Daten wie ontologische Strukturen und Bereichsdefinitionen von Prädikaten sind zwar wünschenswert und idealerweise durch eine Wissensbank verfügbar. Jedoch sind Wissensbanken im Kontext von LOD oft unvollständig oder einfach nicht verfügbar. Deshalb ist es nützlich automatisch Meta-Informationen, wie ontologische Abhängigkeiten, Bereichs-und Domänendefinitionen und thematische Assoziationen von Ressourcen generieren zu können. Eine neue und vielversprechende Technik um solche Daten zu untersuchen basiert auf das entdecken von Assoziationsregeln, welche ursprünglich für Verkaufsanalysen in transaktionalen Datenbanken angewendet wurde. Wir haben eine Adaptierung dieser Technik auf RDF Daten entworfen und stellen das Konzept der Mining Konfigurationen vor, welches uns befähigt in RDF Daten auf unterschiedlichen Weisen Muster zu erkennen. Verschiedene Konfigurationen erlauben uns Schema- und Wertbeziehungen zu erkennen, die für interessante Anwendungen genutzt werden können. In dem Sinne, stellen wir assoziationsbasierte Verfahren für eine Prädikatvorschlagsverfahren, Datenvervollständigung, Ontologieverbesserung und Anfrageerleichterung vor. Das Vorschlagen von Prädikaten behandelt das Problem der inkonsistenten Verwendung von Ontologien, indem einem Benutzer, der einen neuen Fakt einem Rdf-Datensatz hinzufügen will, eine sortierte Liste von passenden Prädikaten vorgeschlagen wird. Eine Kombinierung von verschiedenen Konfigurationen erweitert dieses Verfahren sodass automatisch komplett neue Fakten für eine Wissensbank generiert werden. Hierbei stellen wir zwei Verfahren vor, einen nutzergesteuertenVerfahren, bei dem ein Nutzer die Entität aussucht die erweitert werden soll und einen datengesteuerten Ansatz, bei dem ein Algorithmus selbst die Entitäten aussucht, die mit fehlenden Fakten erweitert werden. Da Wissensbanken stetig wachsen und sich verändern, ist ein anderer Ansatz um die Verwendung von RDF Daten zu erleichtern die Verbesserung von Ontologien. Hierbei präsentieren wir ein Assoziationsregeln-basiertes Verfahren, der Daten und zugrundeliegende Ontologien zusammenführt. Durch die Verflechtung von unterschiedlichen Konfigurationen leiten wir einen neuen Algorithmus her, der gleichbedeutende Prädikate entdeckt. Diese Prädikate können benutzt werden um Ergebnisse einer Anfrage zu erweitern oder einen Nutzer während einer Anfrage zu unterstützen. Für jeden unserer vorgestellten Anwendungen präsentieren wir eine große Auswahl an Experimenten auf Realweltdatensätzen. Die Experimente und Evaluierungen zeigen den Mehrwert von Assoziationsregeln-Generierung für die Integration und Nutzbarkeit von RDF Daten und bestätigen die Angemessenheit unserer konfigurationsbasierten Methodologie um solche Regeln herzuleiten. KW - Assoziationsregeln KW - RDF KW - LOD KW - Mustererkennung KW - Synonyme KW - association rule mining KW - RDF KW - LOD KW - knowledge discovery KW - synonym discovery Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71334 ER - TY - THES A1 - Ahmad, Nadeem T1 - People centered HMI’s for deaf and functionally illiterate users T1 - Menschen zentrierte Mensch-Maschine-Schnittstellen für Schwerhörige und ungeschulte Anwender N2 - The objective and motivation behind this research is to provide applications with easy-to-use interfaces to communities of deaf and functionally illiterate users, which enables them to work without any human assistance. Although recent years have witnessed technological advancements, the availability of technology does not ensure accessibility to information and communication technologies (ICT). Extensive use of text from menus to document contents means that deaf or functionally illiterate can not access services implemented on most computer software. Consequently, most existing computer applications pose an accessibility barrier to those who are unable to read fluently. Online technologies intended for such groups should be developed in continuous partnership with primary users and include a thorough investigation into their limitations, requirements and usability barriers. In this research, I investigated existing tools in voice, web and other multimedia technologies to identify learning gaps and explored ways to enhance the information literacy for deaf and functionally illiterate users. I worked on the development of user-centered interfaces to increase the capabilities of deaf and low literacy users by enhancing lexical resources and by evaluating several multimedia interfaces for them. The interface of the platform-independent Italian Sign Language (LIS) Dictionary has been developed to enhance the lexical resources for deaf users. The Sign Language Dictionary accepts Italian lemmas as input and provides their representation in the Italian Sign Language as output. The Sign Language dictionary has 3082 signs as set of Avatar animations in which each sign is linked to a corresponding Italian lemma. I integrated the LIS lexical resources with MultiWordNet (MWN) database to form the first LIS MultiWordNet(LMWN). LMWN contains information about lexical relations between words, semantic relations between lexical concepts (synsets), correspondences between Italian and sign language lexical concepts and semantic fields (domains). The approach enhances the deaf users’ understanding of written Italian language and shows that a relatively small set of lexicon can cover a significant portion of MWN. Integration of LIS signs with MWN made it useful tool for computational linguistics and natural language processing. The rule-based translation process from written Italian text to LIS has been transformed into service-oriented system. The translation process is composed of various modules including parser, semantic interpreter, generator, and spatial allocation planner. This translation procedure has been implemented in the Java Application Building Center (jABC), which is a framework for extreme model driven design (XMDD). The XMDD approach focuses on bringing software development closer to conceptual design, so that the functionality of a software solution could be understood by someone who is unfamiliar with programming concepts. The transformation addresses the heterogeneity challenge and enhances the re-usability of the system. For enhancing the e-participation of functionally illiterate users, two detailed studies were conducted in the Republic of Rwanda. In the first study, the traditional (textual) interface was compared with the virtual character-based interactive interface. The study helped to identify usability barriers and users evaluated these interfaces according to three fundamental areas of usability, i.e. effectiveness, efficiency and satisfaction. In another study, we developed four different interfaces to analyze the usability and effects of online assistance (consistent help) for functionally illiterate users and compared different help modes including textual, vocal and virtual character on the performance of semi-literate users. In our newly designed interfaces the instructions were automatically translated in Swahili language. All the interfaces were evaluated on the basis of task accomplishment, time consumption, System Usability Scale (SUS) rating and number of times the help was acquired. The results show that the performance of semi-literate users improved significantly when using the online assistance. The dissertation thus introduces a new development approach in which virtual characters are used as additional support for barely literate or naturally challenged users. Such components enhanced the application utility by offering a variety of services like translating contents in local language, providing additional vocal information, and performing automatic translation from text to sign language. Obviously, there is no such thing as one design solution that fits for all in the underlying domain. Context sensitivity, literacy and mental abilities are key factors on which I concentrated and the results emphasize that computer interfaces must be based on a thoughtful definition of target groups, purposes and objectives. N2 - Das Ziel und die Motivation hinter dieser Forschungsarbeit ist es, Anwendungen mit benutzerfreundlichen Schnittstellen für Gehörlose und Analphabeten bereitzustellen, welche es ihnen ermöglichen ohne jede menschliche Unterstützung zu arbeiten. Obwohl es in den letzten Jahren technologische Fortschritte gab, garantiert allein die Verfügbarkeit von Technik nicht automatisch die Zugänglichkeit zu Informations- und Kommunikationstechnologien (IKT). Umfangreiche Verwendung von Texten in Menüs bis hin zu Dokumenten führen dazu, dass Gehörlose und funktionale Analphabeten auf diese Dienste, die auf Computersystemen existieren, nicht zugreifen können. Folglich stellen die meisten bestehenden EDV-Anwendungen für diejenigen eine Hürde dar, die nicht fließend lesen können. Onlinetechnologien für solche Art von Gruppen sollten in kontinuierlichem Austausch mit den Hauptnutzern entwickelt werden und gründliche Untersuchung ihrer Einschränkungen, Anforderungen und Nutzungsbarrieren beinhalten. In dieser Forschungsarbeit untersuche ich vorhandene Tools im Bereich von Sprach-, Web- und anderen Multimedia-Technologien, um Lernlücken zu identifizieren und Wege zu erforschen, welche die Informationsalphabetisierung für Gehörlose und Analphabeten erweitert. Ich arbeitete an der Entwicklung einer nutzerzentrierten Schnittstelle, um die Fähigkeiten von Gehörlosen und Nutzern mit schlechter Alphabetisierung durch Verbesserung der lexikalischen Ressourcen und durch Auswertung mehrerer Multimediaschnittstellen zu erhöhen. Die Schnittstelle des plattformunabhängigen, italienischen Gebärdensprachen (LIS) Wörterbuches wurde entwickelt, um die lexikalischen Quellen für gehörlose Anwender zu verbessern. Ich integriere die LIS-lexikalischen Ressourcen mit der MultiWordNet (MWN)-Datenbank, um das erste LIS MultiWordNet (LMWN) zu bilden. LMWN enthält Informationen über lexikalische Beziehungen zwischen Wörtern, semantische Beziehungen zwischen lexikalischen Konzepten (Synsets), Gemeinsamkeiten zwischen italienischer und Gebärdensprache-lexikalischen Konzepten und semantischen Feldern (Domänen). Der Ansatz erhöht das Verständnis der tauben Nutzer geschriebene, italienischen Sprache zu verstehen und zeigt, dass ein relativ kleiner Satz an Lexika den wesentlichen Teil der MWN abdecken kann. Die Integration von LIS-Zeichen mit MWN machte es zu einem nützlichen Werkzeug für Linguistik und Sprachverarbeitung. Der regelbasierte Übersetzungsprozess von geschriebenem, italienischem Text zu LIS wurde in ein Service-orientiertes System überführt. Der Übersetzungsprozess besteht aus verschiedenen Modulen, einschließlich einem Parser, einem semantischen Interpreter, einem Generator und einem räumlichen Zuordnungs-Planer. Diese Übersetzungsprozedur wurde im Java Application Building Center (jABC) implementiert, welches ein Framework für das eXtrem Model Driven Design (XMDD) ist. Der XMDD-Ansatz konzentriert sich darauf die Softwareentwicklung näher zum konzeptionellen Design zu bringen, sodass die Funktionalität einer Softwarelösung von jemandem verstanden werden kann, der mit Programmierkonzepten unvertraut ist. Die Transformation richtet sich an die heterogene Herausforderung und verbessert die Wiederverwendbarkeit des Systems. Zur Verbesserung der E-Partizipation der funktionalen Analphabeten wurden zwei detaillierte Studien in der Republik Ruanda durchgeführt. In der ersten Studie wurde die traditionelle, textuelle Schnittstelle mit der virtuellen, charakterbasierten, interaktiven Schnittstelle verglichen. Diese Studie hat dazu beigetragen Barrieren der Benutzerfreundlichkeit zu identifizieren. Anwender evaluierten die Schnittstellen bezüglich drei grundlegender Bereiche der Benutzerfreundlichkeit: Effektivität, Effizienz und Zufriedenstellung bei der Problemlösung. In einer anderen Studie entwickelten wir vier verschiedene Schnittstellen, um die Benutzerfreundlichkeit und die Effekte der Online-Hilfe (konsequente Hilfe) für funktionale Analphabeten zu analysieren und verglichen verschiedene Hilfsmodi (einschließlich zusätzlicher Textinformationen, Audio-Unterstützung und mit Hilfe eines virtuellen Charakters) bezüglich der Verbesserung der Leistungsfähigkeit von teilweisen Analphabeten, um ihre Zielstellung zu erreichen. In unseren neu gestalteten Schnittstellen wurden Anweisungen automatisch in die Swahili Sprache übersetzt. Alle Schnittstellen wurden auf der Grundlage der Aufgabenbewältigung, des Zeitaufwands, der System Usability Scale (SUS) Rate und der Anzahl der Hilfegesuche bewertet. Die Ergebnisse zeigen, dass die Leistungsfähigkeit der teilweisen Analphabeten bei Nutzung der Online-Hilfe signifikant verbessert wurde. Diese Dissertation stellt somit einen neuen Entwicklungsansatz dar, bei welchem virtuelle Charaktere als zusätzliche Unterstützung genutzt werden, um Nutzer, die kaum lesen können oder sonstig eingeschränkt sind, zu unterstützen. Solche Komponenten erweitern die Anwendungsnutzbarkeit indem sie eine Vielzahl von Diensten wie das Übersetzen von Inhalten in eine Landessprache, das Bereitstellen von zusätzlichen akustisch, gesprochenen Informationen und die Durchführung einer automatischen Übersetzung von Text in Gebärdensprache bereitstellen. Offensichtlich gibt ist keine One Design-Lösung, die für alle zugrundeliegenden Domänen passt. Kontextsensitivität, Alphabetisierung und geistigen Fähigkeiten sind Schlüsselfaktoren, auf welche ich mich konzentriere. Die Ergebnisse unterstreichen, dass Computerschnittstellen auf einer exakten Definition der Zielgruppen, dem Zweck und den Zielen basieren müssen. KW - Mensch-Computer-Interaktion KW - assistive Technologien KW - HCI KW - user interfaces KW - sign language KW - online assistance KW - assistive technologies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70391 ER - TY - THES A1 - Albrecht, Steve T1 - Generation, recombination and extraction of charges in polymer T1 - Generierung, Rekombination und Extraktion von Ladungen in Polymer BT - fullerene bulk heterojunction solar cells BT - Fulleren Mischsolarzellen N2 - A dramatic efficiency improvement of bulk heterojunction solar cells based on electron-donating conjugated polymers in combination with soluble fullerene derivatives has been achieved over the past years. Certified and reported power conversion efficiencies now reach over 9% for single junctions and exceed the 10% benchmark for tandem solar cells. This trend brightens the vision of organic photovoltaics becoming competitive with inorganic solar cells including the realization of low-cost and large-area organic photovoltaics. For the best performing organic materials systems, the yield of charge generation can be very efficient. However, a detailed understanding of the free charge carrier generation mechanisms at the donor acceptor interface and the energy loss associated with it needs to be established. Moreover, organic solar cells are limited by the competition between charge extraction and free charge recombination, accounting for further efficiency losses. A conclusive picture and the development of precise methodologies for investigating the fundamental processes in organic solar cells are crucial for future material design, efficiency optimization, and the implementation of organic solar cells into commercial products. In order to advance the development of organic photovoltaics, my thesis focuses on the comprehensive understanding of charge generation, recombination and extraction in organic bulk heterojunction solar cells summarized in 6 chapters on the cumulative basis of 7 individual publications. The general motivation guiding this work was the realization of an efficient hybrid inorganic/organic tandem solar cell with sub-cells made from amorphous hydrogenated silicon and organic bulk heterojunctions. To realize this project aim, the focus was directed to the low band-gap copolymer PCPDTBT and its derivatives, resulting in the examination of the charge carrier dynamics in PCPDTBT:PC70BM blends in relation to by the blend morphology. The phase separation in this blend can be controlled by the processing additive diiodooctane, enhancing domain purity and size. The quantitative investigation of the free charge formation was realized by utilizing and improving the time delayed collection field technique. Interestingly, a pronounced field dependence of the free carrier generation for all blends is found, with the field dependence being stronger without the additive. Also, the bimolecular recombination coefficient for both blends is rather high and increases with decreasing internal field which we suggest to be caused by a negative field dependence of mobility. The additive speeds up charge extraction which is rationalized by the threefold increase in mobility. By fluorine attachment within the electron deficient subunit of PCPDTBT, a new polymer F-PCPDTBT is designed. This new material is characterized by a stronger tendency to aggregate as compared to non-fluorinated PCPDTBT. Our measurements show that for F-PCPDTBT:PCBM blends the charge carrier generation becomes more efficient and the field-dependence of free charge carrier generation is weakened. The stronger tendency to aggregate induced by the fluorination also leads to increased polymer rich domains, accompanied in a threefold reduction in the non-geminate recombination coefficient at conditions of open circuit. The size of the polymer domains is nicely correlated to the field-dependence of charge generation and the Langevin reduction factor, which highlights the importance of the domain size and domain purity for efficient charge carrier generation. In total, fluorination of PCPDTBT causes the PCE to increase from 3.6 to 6.1% due to enhanced fill factor, short circuit current and open circuit voltage. Further optimization of the blend ratio, active layer thickness, and polymer molecular weight resulted in 6.6% efficiency for F-PCPDTBT:PC70BM solar cells. Interestingly, the double fluorinated version 2F-PCPDTBT exhibited poorer FF despite a further reduction of geminate and non-geminate recombination losses. To further analyze this finding, a new technique is developed that measures the effective extraction mobility under charge carrier densities and electrical fields comparable to solar cell operation conditions. This method involves the bias enhanced charge extraction technique. With the knowledge of the carrier density under different electrical field and illumination conditions, a conclusive picture of the changes in charge carrier dynamics leading to differences in the fill factor upon fluorination of PCPDTBT is attained. The more efficient charge generation and reduced recombination with fluorination is counterbalanced by a decreased extraction mobility. Thus, the highest fill factor of 60% and efficiency of 6.6% is reached for F-PCPDTBT blends, while 2F-PCPDTBT blends have only moderate fill factors of 54% caused by the lower effective extraction mobility, limiting the efficiency to 6.5%. To understand the details of the charge generation mechanism and the related losses, we evaluated the yield and field-dependence of free charge generation using time delayed collection field in combination with sensitive measurements of the external quantum efficiency and absorption coefficients for a variety of blends. Importantly, both the yield and field-dependence of free charge generation is found to be unaffected by excitation energy, including direct charge transfer excitation below the optical band gap. To access the non-detectable absorption at energies of the relaxed charge transfer emission, the absorption was reconstructed from the CT emission, induced via the recombination of thermalized charges in electroluminescence. For a variety of blends, the quantum yield at energies of charge transfer emission was identical to excitations with energies well above the optical band-gap. Thus, the generation proceeds via the split-up of the thermalized charge transfer states in working solar cells. Further measurements were conducted on blends with fine-tuned energy levels and similar blend morphologies by using different fullerene derivatives. A direct correlation between the efficiency of free carrier generation and the energy difference of the relaxed charge transfer state relative to the energy of the charge separated state is found. These findings open up new guidelines for future material design as new high efficiency materials require a minimum energetic offset between charge transfer and the charge separated state while keeping the HOMO level (and LUMO level) difference between donor and acceptor as small as possible. N2 - Die Effizienz von organischen Mischsolarzellen ist in den letzten Jahren durch die Entwicklung neuer halbleitender Materialen beträchtlich gestiegen. Die besten organischen Mischsolarzellen zeigen heute sehr effiziente Ladungsgeneration. Dennoch ist die genaue Funktionsweise der fundamentalen Ladungsgenerationsschritte nicht bis ins Detail verstanden. Zur weiteren Steigerung der Wirkungsgrade und für die kommerzielle Nutzung organischer Mischsolarzellen, sind ein übergreifendes Verständnis der Funktionsweise und die Entwicklung neuer Messmethoden unumgänglich. Die vorliegende Arbeit ist auf diese Fragestellung fokussiert: die Arbeit soll helfen, fundierte Kenntnisse der Ladungsträgererzeugung, der Rekombination und der Extraktion freier Ladungsträger in organischen Mischsolarzellen zu erlangen. Zuerst wurde der Fokus auf Mischsolarzellen mit dem Polymer PCPDTBT gelegt. Dieses Polymer durchmischt stark mit dem Fulleren-Derivat PCBM. Durch Verwendung eines Lösungsmitteladditives kann die Phasenentmischung und damit der Wirkungsgrad deutlich gesteigert werden. Die Generations- und Rekombinationsprozesse wurden mittels zeitverzögerter Sammelfeld-Methode untersucht. Dabei wurde zum ersten Mal eine signifikante Feldabhängigkeit der Ladungsträger-erzeugung entdeckt. Interessanterweise korreliert diese Feldabhängigkeit mit der Domänengröße also dem Grad der Entmischung. In größeren und reineren Polymerphasen ist die Feldabhängigkeit kleiner und die Extraktion verbessert, was zum höheren Wirkungsgrad führt. In einem weiteren Schritt wurde untersucht, wie sich die Fluorinierung des Polymers PCPDTBT auf das Bauteilverhalten auswirkt. Durch Fluorinierung des Polymer-Rückgrats von PCPDTBT wurden zum einen die Energieniveaus abgesenkt, ohne dass sich das Absorptionsverhalten geändert hat. Zum anderen wurde die Phasenentmischung beeinflusst. Mit Fluorinierung entstehen größere, reinere und kristallinere Polymerphasen. Dadurch wird die Generation der Ladungsträger effizienter und die Rekombination stärker unterdrückt. Eindeutige Korrelationen zwischen Phasengröße und Generationseffizienz konnten hierbei gefunden werden. Insgesamt steigt die Bauteileffizienz bei Verwendung von fluoriniertem PCPDTBT von 3.6 auf 6.1% bei gleicher Prozessierung. Durch weitere Optimierung konnte die Effizienz auf 6.6% für fluoriniertes PCPDTBT gesteigert werden. Eine di-Fluorinierung von PCPDTBT limitiert die Bauteileffizienz, speziell den Füll Faktor, trotz der Entstehung noch reinerer Polymerphasen. Eine genauere Analyse der Extraktionseffizienz mittels der genauen Bestimmung der Gleichgewichts-Ladungsträgerdichte für verschiedenen Beleuchtungs- und Feldsituationen zeigte, dass die Fluorinierung die Effizienz der Extraktion deutlich absenkt und dadurch bei di-Fluorinierung die Rekombinationsverluste im Bauteil trotz verlangsamter Rekombination ansteigen. Um weitere fundierte Kenntnisse der Ladungsgeneration zu gewinnen, wurde die Ladungsgeneration für verschiedene Gemische mit veränderten Energieniveaus in Abhängigkeit der Anregungsenergie untersucht. Dabei wurde die wichtige Kenntnis erlangt, dass die Photonenenergie, unabhängig von der Lage der Energieniveaus, keinen Einfluss auf die Effizienz der Generation hat und somit die Bildung freier Ladungsträger aus relaxierten Transferzuständen erfolgt. Dadurch ergeben sich neue Leitlinien für zukünftige Materialeigenschaften mit optimierten Wirkungsgraden. KW - organic solar cells KW - bulk heterojunction KW - charge carrier dynamics KW - charge generation KW - non geminate recombination KW - Generierung von Ladungsträgern KW - nicht geminale Rekombination KW - Extraktion KW - Polymer KW - Fulleren Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72285 ER - TY - THES A1 - Arnold, Anne T1 - Modeling photosynthesis and related metabolic processes : from detailed examination to consideration of the metabolic context T1 - Modellierung von Photosynthese und damit zusammenhängende metabolische Prozesse : von detaillierter Betrachtung hin zur Erörterung im metabolischen Kontext N2 - Mathematical modeling of biological systems is a powerful tool to systematically investigate the functions of biological processes and their relationship with the environment. To obtain accurate and biologically interpretable predictions, a modeling framework has to be devised whose assumptions best approximate the examined scenario and which copes with the trade-off of complexity of the underlying mathematical description: with attention to detail or high coverage. Correspondingly, the system can be examined in detail on a smaller scale or in a simplified manner on a larger scale. In this thesis, the role of photosynthesis and its related biochemical processes in the context of plant metabolism was dissected by employing modeling approaches ranging from kinetic to stoichiometric models. The Calvin-Benson cycle, as primary pathway of carbon fixation in C3 plants, is the initial step for producing starch and sucrose, necessary for plant growth. Based on an integrative analysis for model ranking applied on the largest compendium of (kinetic) models for the Calvin-Benson cycle, those suitable for development of metabolic engineering strategies were identified. Driven by the question why starch rather than sucrose is the predominant transitory carbon storage in higher plants, the metabolic costs for their synthesis were examined. The incorporation of the maintenance costs for the involved enzymes provided a model-based support for the preference of starch as transitory carbon storage, by only exploiting the stoichiometry of synthesis pathways. Many photosynthetic organisms have to cope with processes which compete with carbon fixation, such as photorespiration whose impact on plant metabolism is still controversial. A systematic model-oriented review provided a detailed assessment for the role of this pathway in inhibiting the rate of carbon fixation, bridging carbon and nitrogen metabolism, shaping the C1 metabolism, and influencing redox signal transduction. The demand of understanding photosynthesis in its metabolic context calls for the examination of the related processes of the primary carbon metabolism. To this end, the Arabidopsis core model was assembled via a bottom-up approach. This large-scale model can be used to simulate photoautotrophic biomass production, as an indicator for plant growth, under so-called optimal, carbon-limiting and nitrogen-limiting growth conditions. Finally, the introduced model was employed to investigate the effects of the environment, in particular, nitrogen, carbon and energy sources, on the metabolic behavior. This resulted in a purely stoichiometry-based explanation for the experimental evidence for preferred simultaneous acquisition of nitrogen in both forms, as nitrate and ammonium, for optimal growth in various plant species. The findings presented in this thesis provide new insights into plant system's behavior, further support existing opinions for which mounting experimental evidences arise, and posit novel hypotheses for further directed large-scale experiments. N2 - Mathematische Modellierung biologischer Systeme eröffnet die Möglichkeit systematisch die Funktionsweise biologischer Prozesse und ihrer Wechselwirkungen mit der Umgebung zu untersuchen. Um präzise und biologisch relevante Vorhersagen treffen zu können, muss eine Modellierungsstrategie konzipiert werden, deren Annahmen das untersuchte Szenario bestmöglichst widerspiegelt und die dem Trade-off der Komplexität der zugrunde liegenden mathematischen Beschreibung gerecht wird: Detailtreue gegenüber Größe. Dementsprechend kann das System detailliert, in kleinerem Umfang oder in vereinfachter Darstellung im größeren Maßstab untersucht werden. In dieser Arbeit wird mittels verschiedener Modellierungsansätze, wie kinetischen und stöchiometrischen Modellen, die Rolle der Photosynthese und damit zusammenhängender biochemischer Prozesse im Rahmen des Pflanzenstoffwechsels analysiert. Der Calvin-Benson-Zyklus, als primärer Stoffwechselweg der Kohlenstofffixierung in C3-Pflanzen, ist der erste Schritt der Stärke- und Saccharoseproduktion, welche maßgeblich für das Wachstum von Pflanzen sind. Basierend auf einer integrativen Analyse zur Modellklassifizierung wurden aus der größten bekannten Sammlung von (kinetischen) Modellen des Calvin-Benson-Zyklus diejenigen ermittelt, die für die Entwicklung von Metabolic-Engineering-Strategien geeignet sind. Angeregt von der Fragestellung warum Kohlenstoff transitorisch vorwiegend in Form von Stärke anstatt Saccharose gespeichert wird, wurden die metabolischen Kosten beider Syntheseprozesse genauer betrachtet. Die Einbeziehung der Bereitstellungskosten der beteiligten Enzyme stützt die Tatsache, dass bevorzugt Stärke als temporärer Kohlenstoffspeicher dient. Die entprechende Untersuchung erfolgte einzig auf Grundlage der Stöchiometrie der Synthesewege. In vielen photosynthetisch-aktiven Organismen findet zudem Photorespiration statt, die der Kohlenstofffixierung entgegenwirkt. Die genaue Bedeutung der Photorespiration für den Pflanzenmetabolismus ist noch umstritten. Eine detaillierte Einschätzung der Rolle dieses Stoffwechselweges bezüglich der Inhibierung der Kohlenstofffixierungsrate, der Verknüpfung von Kohlenstoff- und Stickstoffmetabolismus, der Ausprägung des C1-Stoffwechsels sowie die Einflussnahme auf die Signaltransduktion wurde in einer modell-basierten, kritischen Analyse vorgenommen. Um die Photosynthese in ihrem metabolischen Kontext verstehen zu können, ist die Betrachtung der angrenzenden Prozesse des primären Kohlenstoffmetabolismus unverzichtbar. Hierzu wurde in einem Bottom-up Ansatz das Arabidopsis core Modell entworfen, mittels dessen die Biomasseproduktion, als Indikator für Pflanzenwachtum, unter photoautotrophen Bedingungen simuliert werden kann. Neben sogenannten optimalen Wachstumsbedingungen kann dieses großangelegte Modell auch kohlenstoff- und stickstofflimitierende Umweltbedingungen simulieren. Abschließend wurde das vorgestellte Modell zur Untersuchung von Umwelteinflüssen auf das Stoffwechselverhalten herangezogen, im speziellen verschiedene Stickstoff-, Kohlenstoff- und Energiequellen. Diese auschließlich auf der Stöchiometrie basierende Analyse bietet eine Erklärung für die bevorzugte, gleichzeitige Aufnahme von Nitrat und Ammonium, wie sie in verschiedenen Spezies für optimales Wachstum experimentell beobachtet wurde. Die Resultate dieser Arbeit liefern neue Einsichten in das Verhalten von pflanzlichen Systemen, stützen existierende Ansichten, für die zunehmend experimentelle Hinweise vorhanden sind, und postulieren neue Hypothesen für weiterführende großangelegte Experimente. KW - stöchiometrische Modellierung KW - kinetische Modellierung KW - metabolische Netzwerke KW - metabolische Kosten KW - Photosynthese KW - stoichiometric modeling KW - kinetic modeling KW - metabolic networks KW - metabolic costs KW - photosynthesis Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72277 ER - TY - THES A1 - Bacskai-Atkari, Julia T1 - The syntax of comparative constructions : operators, ellipsis phenomena and functional left peripheries T1 - Die Syntax von Vergleichskonstruktionen : Operatoren, Ellipsenphänomene und funktionale linke Peripherien N2 - Adopting a minimalist framework, the dissertation provides an analysis for the syntactic structure of comparatives, with special attention paid to the derivation of the subclause. The proposed account explains how the comparative subclause is connected to the matrix clause, how the subclause is formed in the syntax and what additional processes contribute to its final structure. In addition, it casts light upon these problems in cross-linguistic terms and provides a model that allows for synchronic and diachronic differences. This also enables one to give a more adequate explanation for the phenomena found in English comparatives since the properties of English structures can then be linked to general settings of the language and hence need no longer be considered as idiosyncratic features of the grammar of English. First, the dissertation provides a unified analysis of degree expressions, relating the structure of comparatives to that of other degrees. It is shown that gradable adjectives are located within a degree phrase (DegP), which in turn projects a quantifier phrase (QP) and that these two functional layers are always present, irrespectively of whether there is a phonologically visible element in these layers. Second, the dissertation presents a novel analysis of Comparative Deletion by reducing it to an overtness constraint holding on operators: in this way, it is reduced to morphological differences and cross-linguistic variation is not conditioned by way of postulating an arbitrary parameter. Cross-linguistic differences are ultimately dependent on whether a language has overt operators equipped with the relevant – [+compr] and [+rel] – features. Third, the dissertation provides an adequate explanation for the phenomenon of Attributive Comparative Deletion, as attested in English, by way of relating it to the regular mechanism of Comparative Deletion. I assume that Attributive Comparative Deletion is not a universal phenomenon, and its presence in English can be conditioned by independent, more general rules, while the absence of such restrictions leads to its absence in other languages. Fourth, the dissertation accounts for certain phenomena related to diachronic changes, examining how the changes in the status of comparative operators led to changes in whether Comparative Deletion is attested in a given language: I argue that only operators without a lexical XP can be grammaticalised. The underlying mechanisms underlying are essentially general economy principles and hence the processes are not language-specific or exceptional. Fifth, the dissertation accounts for optional ellipsis processes that play a crucial role in the derivation of typical comparative subclauses. These processes are not directly related to the structure of degree expressions and hence the elimination of the quantified expression from the subclause; nevertheless, they are shown to be in interaction with the mechanisms underlying Comparative Deletion or the absence thereof. N2 - Unter Verwendung eines minimalistischen Frameworks wird in der Dissertation eine Analyse der syntaktischen Struktur von Vergleichskonstruktionen vorgestellt, mit besonderem Augenmerk auf der Ableitung des eingebetteten Satzes. Die vorgeschlagene Analyse erklärt, wie der komparative Nebensatz mit dem Matrixsatz verbunden ist, wie der Nebensatz in der Syntax gebildet wird und welche zusätzlichen Prozesse zu seiner endgültigen Struktur beitragen. Außerdem beleuchtet sie diese Probleme aus cross-linguistischer Sicht und bietet ein Modell, das synchrone und diachrone Unterschiede berücksichtigt. Dies ermöglicht auch eine adäquatere Erklärung der Phänomene in englischen Vergleichskonstruktionen, da die Eigenschaften der englischen Strukturen mit allgemeinen Eigenschaften der Sprache verknüpft werden und es daher nicht mehr nötig ist, sie als idiosynkratrische Merkmale der Grammatik der englischen Sprache zu behandeln. Die Dissertation bietet zum einen eine einheitliche Analyse von Gradphrasen, wobei die Struktur von Vergleichskonstruktionen mit der von anderen Graden verbunden wird. Es wird gezeigt, dass graduierbare Adjektive sich in einer Gradphrase (degree phrase, DegP) befinden, die wiederum eine Quantorenphrase (QP) projiziert, und dass diese beiden Funktionsschichten immer vorhanden sind, unabhängig davon, ob es ein phonologisch sichtbares Element in diesen Schichten gibt. Zweitens präsentiert die Dissertation eine neue Analyse von Komparativ-Tilgung (Comparative Deletion), die auf eine Overtheits-Bedingung für Operatoren reduziert wird: dadurch wird das Phänomen auf morphologische Unterschiede zurückgeführt, und cross-linguistische Variation wird nicht durch die Postulierung eines arbiträren Parameters begründet. Cross-linguistische Unterschiede sind letztlich davon abhängig, ob eine Sprache overte Operatoren mit den relevanten Merkmalen – [+ compr] und [+ rel] – hat. Drittens bietet die Dissertation eine adäquate Erklärung für das Phänomen der attributiven Komparativ-Tilgung (Attributive Comparative Deletion), wie man sie im Englischen findet, indem sie mit dem regulären Mechanismus der Komparativ-Tilgung in Zusammenhang gebracht wird. Ich gehe davon aus, dass attributive Komparativ-Tilgung kein universelles Phänomen ist, und dass ihr Vorhandensein im Englischen durch unabhängige, allgemeinere Regeln erfasst werden kann, während das Fehlen solcher Regeln zur Abwesenheit des Phänomens in anderen Sprachen führt. Viertens erklärt die Dissertation bestimmte Phänomene in Bezug auf diachronische Veränderungen und untersucht, wie Veränderungen im Status der Komparativoperatoren beeinflussen, ob Komparativ-Tilgung in einer Sprache vorkommt: Ich argumentiere dafür, dass nur Operatoren ohne eine lexikalische XP grammatikalisiert werden können. Die zugrunde liegenden Mechanismen sind im Wesentlichen allgemeine Prinzipien der Ökonomie, und damit sind die Prozesse nicht sprachspezifisch oder Ausnahmen. Fünftens bietet die Dissertation eine Erklärung für optionale Ellipsenprozesse, die bei der Ableitung von typischen komparativen Nebensätzen eine entscheidende Rolle spielen. Diese Prozesse haben nicht direkt mit der Struktur von Gradphrasen und somit mit der Entfernung der quantifizierten Phrase aus dem Nebensatz zu tun; aber es wird gezeigt, dass sie mit den Mechanismen, die Komparativ-Tilgung oder deren Abwesenheit zugrunde liegen, interagieren. KW - komparative Nebensätze KW - Komparativ-Tilgung KW - Gradphrasen KW - linke Peripherie KW - Overtheits-Bedingung KW - comparative subclauses KW - Comparative Deletion KW - degree phrases KW - left periphery KW - overtness requirement Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71255 SN - 978-3-86956-301-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Balzer, Arnim T1 - Crab flare observations with H.E.S.S. phase II T1 - Crab Flare Observations with H.E.S.S. Phase II N2 - The H.E.S.S. array is a third generation Imaging Atmospheric Cherenkov Telescope (IACT) array. It is located in the Khomas Highland in Namibia, and measures very high energy (VHE) gamma-rays. In Phase I, the array started data taking in 2004 with its four identical 13 m telescopes. Since then, H.E.S.S. has emerged as the most successful IACT experiment to date. Among the almost 150 sources of VHE gamma-ray radiation found so far, even the oldest detection, the Crab Nebula, keeps surprising the scientific community with unexplained phenomena such as the recently discovered very energetic flares of high energy gamma-ray radiation. During its most recent flare, which was detected by the Fermi satellite in March 2013, the Crab Nebula was simultaneously observed with the H.E.S.S. array for six nights. The results of the observations will be discussed in detail during the course of this work. During the nights of the flare, the new 24 m × 32 m H.E.S.S. II telescope was still being commissioned, but participated in the data taking for one night. To be able to reconstruct and analyze the data of the H.E.S.S. Phase II array, the algorithms and software used by the H.E.S.S. Phase I array had to be adapted. The most prominent advanced shower reconstruction technique developed by de Naurois and Rolland, the template-based model analysis, compares real shower images taken by the Cherenkov telescope cameras with shower templates obtained using a semi-analytical model. To find the best fitting image, and, therefore, the relevant parameters that describe the air shower best, a pixel-wise log-likelihood fit is done. The adaptation of this advanced shower reconstruction technique to the heterogeneous H.E.S.S. Phase II array for stereo events (i.e. air showers seen by at least two telescopes of any kind), its performance using MonteCarlo simulations as well as its application to real data will be described. N2 - Das H.E.S.S. Experiment misst sehr hochenergetische Gammastrahlung im Khomas Hochland von Namibia. Es ist ein sogenanntes abbildendes atmosphärisches Cherenkov-Teleskopsystem welches in der 1. Phase, die im Jahr 2004 mit der Datennahme begann, aus vier identischen 13 m Spiegelteleskopen bestand. Seitdem hat sich H.E.S.S. als das erfolgreichstes Experiment in der bodengebundenen Gammastrahlungsastronomie etabliert. Selbst die älteste der mittlerweile fast 150 entdeckten Quellen von sehr hochenergetischer Gammastrahlung, der Krebsnebel, fasziniert immernoch Wissenschaftler mit neuen bisher unbekannten und unerwarteten Phänomenen. Ein Beispiel dafür sind die vor kurzem entdeckten sehr energiereichen Ausbrüche von hochenergetischer Gammastrahlung. Bei dem letzten deratigen Ausbruch des Krebsnebels im März 2013 hat das H.E.S.S. Experiment für sechs Nächte simultan mit dem Fermi-Satelliten, welcher den Ausbruch entdeckte, Daten genommen. Die Analyse der Daten, deren Ergebnis und deren Interpretation werden im Detail in dieser Arbeit vorgestellt. Während dieser Beobachtungen befand sich ein neues 24 m × 32 m großes Spiegelteleskop, das H.E.S.S. II- Teleskop, noch in seiner Inbetriebnahme, trotzdem hat es für eine dieser sechs Nächte an der Datennahme des gesamten Teleskopsystems teilgenommen. Um die Daten rekonstruieren und analysieren zu können, mussten die für die 1. Phase des Experiments entwickelten Algorithmen und die Software des H.E.S.S.- Experiments angepasst werden. Die fortschrittlichste Schauerrekonstruktionsmethode, welche von de Naurois und Rolland entwickelt wurde, basiert auf dem Vergleich von echten Schauerbildern, die mit Hilfe der Cherenkov-Kameras der einzelnen Teleskope aufgenommen wurden, mit Schauerschablonen die mit Hilfe eines semianalytischen Modells erzeugt wurden. Das am besten passende Bild und damit auch alle relevanten Schauerparameter, wird mit Hilfe einer pixelweisen Loglikelihood-Anpassung ermittelt. Die nötigen Änderungen um Multiteleskopereignisse, welche vom heterogenen H.E.S.S. Phase II Detektor gemessen wurden, mit Hilfe dieser fortschrittlichen Schauerrekonstruktionsmethode analysieren zu können, sowie die resultierenden Ergebnisse von MonteCarlo-Simulationen, als auch die Anwendung auf echte Daten, werden im Rahmen dieser Arbeit präsentiert. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72545 ER - TY - THES A1 - Bamberg, Marlene T1 - Planetary mapping tools applied to floor-fractured craters on Mars T1 - Planetare Analysewerkzeuge am Anwendungsgebiet von Kratern mit zerbrochenen Boeden auf dem Mars N2 - Planetary research is often user-based and requires considerable skill, time, and effort. Unfortunately, self-defined boundary conditions, definitions, and rules are often not documented or not easy to comprehend due to the complexity of research. This makes a comparison to other studies, or an extension of the already existing research, complicated. Comparisons are often distorted, because results rely on different, not well defined, or even unknown boundary conditions. The purpose of this research is to develop a standardized analysis method for planetary surfaces, which is adaptable to several research topics. The method provides a consistent quality of results. This also includes achieving reliable and comparable results and reducing the time and effort of conducting such studies. A standardized analysis method is provided by automated analysis tools that focus on statistical parameters. Specific key parameters and boundary conditions are defined for the tool application. The analysis relies on a database in which all key parameters are stored. These databases can be easily updated and adapted to various research questions. This increases the flexibility, reproducibility, and comparability of the research. However, the quality of the database and reliability of definitions directly influence the results. To ensure a high quality of results, the rules and definitions need to be well defined and based on previously conducted case studies. The tools then produce parameters, which are obtained by defined geostatistical techniques (measurements, calculations, classifications). The idea of an automated statistical analysis is tested to proof benefits but also potential problems of this method. In this study, I adapt automated tools for floor-fractured craters (FFCs) on Mars. These impact craters show a variety of surface features, occurring in different Martian environments, and having different fracturing origins. They provide a complex morphological and geological field of application. 433 FFCs are classified by the analysis tools due to their fracturing process. Spatial data, environmental context, and crater interior data are analyzed to distinguish between the processes involved in floor fracturing. Related geologic processes, such as glacial and fluvial activity, are too similar to be separately classified by the automated tools. Glacial and fluvial fracturing processes are merged together for the classification. The automated tools provide probability values for each origin model. To guarantee the quality and reliability of the results, classification tools need to achieve an origin probability above 50 %. This analysis method shows that 15 % of the FFCs are fractured by intrusive volcanism, 20 % by tectonic activity, and 43 % by water & ice related processes. In total, 75 % of the FFCs are classified to an origin type. This can be explained by a combination of origin models, superposition or erosion of key parameters, or an unknown fracturing model. Those features have to be manually analyzed in detail. Another possibility would be the improvement of key parameters and rules for the classification. This research shows that it is possible to conduct an automated statistical analysis of morphologic and geologic features based on analysis tools. Analysis tools provide additional information to the user and are therefore considered assistance systems. N2 - Planetenforschung umfasst oft zeitintensive Projekte, bei denen Expertise und Erfahrung eine wesentliche Rolle spielen. Auf Grund äusserst komplexer und sich selten wiederholender Forschungsfragen sind Annahmen, Definitionen und Regeln zur Lösung dieser Fragen nicht leicht nachvollziehbar oder aber nicht eindeutig dokumentiert. Ein Vergleich der Ergebnisse unterschiedlicher Forscher zum selben Thema oder eine Erweiterung der Forschungsfrage macht dies somit nur schwer möglich. Vergleiche liefern oftmals verzerrte Ergebnisse, da die Ausgangslage und Randbedingungen unterschiedlich definiert worden sind. Das Ziel dieser Arbeit ist es eine Standardmethode zur Oberflächenanalyse zu entwickeln, die auf zahlreiche Untersuchungsfragen angewandt werden kann. Eine gleichbleibende Qualität der Ergebnisse muss durch diese Methode gewährleistet sein. Ein weiteres Ziel ist es, dass diese Methode ohne Vorwissen und Expertise angewandt werden kann und die Ergebnisse in kurzer Zeit vorliegen. Ausserdem müssen die Ergebnisse vergleichbar und nachvollziehbar sein. Automatisch operierende Analysewerkzeuge können die zahlreichen Anforderungen erfüllen und als Standardmethode dienen. Statistische Ergebnisse werden durch diese Methode erzielt. Die Werkzeuge basieren auf vordefinierten, geowissenschaftlichen Techniken und umfassen Messungen, Berechnungen und Klassifikationen der zu untersuchenden Oberflächenstrukturen. Für die Anwendung dieser Werkzeuge müssen Schlüsselstrukturen und Randbedingungen definiert werden. Des Weiteren benötigen die Werkzeuge eine Datenbank, in der alle Oberflächenstrukturen, aber auch Informationen zu den Randbedingungen gespeichert sind. Es ist mit geringem Aufwand möglich, Datenbanken zu aktualisieren und sie auf verschiedenste Fragestellungen zu adaptieren. Diese Tatsache steigert die Flexibilität, Reproduzierbarkeit und auch Vergleichbarkeit der Untersuchung. Die vordefinierten Randbedingungen und die Qualität der Datenbank haben jedoch auch direkten Einfluss auf die Qualität der Ergebnisse. Um eine gleichbleibend hohe Qualität der Untersuchung zu gewährleisten muss sichergestellt werden, dass alle vordefinierten Bedingungen eindeutig sind und auf vorheriger Forschung basieren. Die automatisch operierenden Analysewerkzeuge müssen als mögliche Standardmethode getestet werden. Hierbei geht es darum Vorteile, aber auch Nachteile zu identifizieren und zu bewerten. In dieser Arbeit werden die Analysewerkzeuge auf einen bestimmten Einschlagskratertyp auf dem Mars angewandt. Krater mit zerbrochenen Kraterböden (Floor-Fractured Craters) sind in verschiedensten Regionen auf dem Mars zu finden, sie zeigen zahlreiche Oberflächenstrukturen und wurden durch unterschiedliche Prozesse geformt. All diese Fakten machen diesen Kratertyp zu einem interessanten und im geologischen und morphologischen Sinne sehr komplexen Anwendungsgebiet. 433 Krater sind durch die Werkzeuge analysiert und je nach Entstehungsprozess klassifiziert worden. Für diese Analyse sind Position der Krater, Art des Umfeldes und Strukturen im Kraterinneren ausschlaggebend. Die kombinierten Informationen geben somit Auskunft über die Prozesse, welche zum Zerbrechen des Kraterbodens geführt haben. Die entwickelten Analysewerkzeuge können geologische Prozesse, die sehr ähnlich zueinander sind, von einander abhängig sind und zusätzlich auch dieselben Oberflächenstrukturen formen, nicht eindeutig unterscheiden. Aus diesem Grund sind fluviale und glaziale Entstehungsprozesse für den untersuchten Kratertyp zusammengefasst. Die Analysewerkzeuge liefern Wahrscheinlichkeitswerte für drei mögliche Entstehungsarten. Um die Qualität der Ergebnisse zu verbessern muss eine Wahrscheinlichkeit über 50 % erreicht werden. Die Werkzeuge zeigen, dass 15 % der Krater durch Vulkanismus, 20 % durch Tektonik und 43 % durch Wasser- und Eis-bedingte Prozesse gebildet wurden. Insgesamt kann für 75 % des untersuchten Kratertyps ein potentieller Entstehungsprozess zugeordnet werden. Für 25 % der Krater ist eine Klassifizierung nicht möglich. Dies kann durch eine Kombination von geologischen Prozessen, einer Überprägung von wichtigen Schlüsselstrukturen, oder eines bisher nicht berücksichtigten Prozesses erklärt werden. Zusammenfassend ist zu sagen, dass es möglich ist planetare Oberflächenstrukturen quantitativ durch automatisch operierende Analysewerkzeuge zu erfassen und hinsichtlich einer definierten Fragestellung zu klassifizieren. Zusätzliche Informationen können durch die entwickelten Werkzeuge erhalten werden, daher sind sie als Assistenzsystem zu betrachten. KW - Datenbank KW - Automatisierung KW - Klassifizierung KW - geologische Prozesse KW - Geomorphologie KW - database KW - automation KW - classification KW - geological processes KW - geomorphology Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72104 ER - TY - THES A1 - Bathke, Hannes T1 - An investigation of complex deformation patterns detected by using InSAR at Llaima and Tendürek volcanoes T1 - Eine Untersuchung von komplexen Erdoberflächenverformungen gemessen mit InSAR, an den Vulkanen Llaima und Tendürek N2 - Surface displacement at volcanic edifices is related to subsurface processes associated with magma movements, fluid transfers within the volcano edifice and gravity-driven deformation processes. Understanding of associated ground displacements is of importance for assessment of volcanic hazards. For example, volcanic unrest is often preceded by surface uplift, caused by magma intrusion and followed by subsidence, after the withdrawal of magma. Continuous monitoring of the surface displacement at volcanoes therefore might allow the forecasting of upcoming eruptions to some extent. In geophysics, the measured surface displacements allow the parameters of possible deformation sources to be estimated through analytical or numerical modeling. This is one way to improve the understanding of subsurface processes acting at volcanoes. Although the monitoring of volcanoes has significantly improved in the last decades (in terms of technical advancements and number of monitored volcanoes), the forecasting of volcanic eruptions remains puzzling. In this work I contribute towards the understanding of the subsurface processes at volcanoes and thus to the improvement of volcano eruption forecasting. I have investigated the displacement field of Llaima volcano in Chile and of Tendürek volcano in East Turkey by using synthetic aperture radar interferometry (InSAR). Through modeling of the deformation sources with the extracted displacement data, it was possible to gain insights into potential subsurface processes occurring at these two volcanoes that had been barely studied before. The two volcanoes, although of very different origin, composition and geometry, both show a complexity of interacting deformation sources. At Llaima volcano, the InSAR technique was difficult to apply, due to the large decorrelation of the radar signal between the acquisition of images. I developed a model-based unwrapping scheme, which allows the production of reliable displacement maps at the volcano that I used for deformation source modeling. The modeling results show significant differences in pre- and post-eruptive magmatic deformation source parameters. Therefore, I conjecture that two magma chambers exist below Llaima volcano: a post-eruptive deep one and a shallow one possibly due to the pre-eruptive ascent of magma. Similar reservoir depths at Llaima have been confirmed by independent petrologic studies. These reservoirs are interpreted to be temporally coupled. At Tendürek volcano I have found long-term subsidence of the volcanic edifice, which can be described by a large, magmatic, sill-like source that is subject to cooling contraction. The displacement data in conjunction with high-resolution optical images, however, reveal arcuate fractures at the eastern and western flank of the volcano. These are most likely the surface expressions of concentric ring-faults around the volcanic edifice that show low magnitudes of slip over a long time. This might be an alternative mechanism for the development of large caldera structures, which are so far assumed to be generated during large catastrophic collapse events. To investigate the potential subsurface geometry and relation of the two proposed interacting sources at Tendürek, a sill-like magmatic source and ring-faults, I have performed a more sophisticated numerical modeling approach. The optimum source geometries show, that the size of the sill-like source was overestimated in the simple models and that it is difficult to determine the dip angle of the ring-faults with surface displacement data only. However, considering physical and geological criteria a combination of outward-dipping reverse faults in the west and inward-dipping normal faults in the east seem to be the most likely. Consequently, the underground structure at the Tendürek volcano consists of a small, sill-like, contracting, magmatic source below the western summit crater that causes a trapdoor-like faulting along the ring-faults around the volcanic edifice. Therefore, the magmatic source and the ring-faults are also interpreted to be temporally coupled. In addition, a method for data reduction has been improved. The modeling of subsurface deformation sources requires only a relatively small number of well distributed InSAR observations at the earth’s surface. Satellite radar images, however, consist of several millions of these observations. Therefore, the large amount of data needs to be reduced by several orders of magnitude for source modeling, to save computation time and increase model flexibility. I have introduced a model-based subsampling approach in particular for heterogeneously-distributed observations. It allows a fast calculation of the data error variance-covariance matrix, also supports the modeling of time dependent displacement data and is, therefore, an alternative to existing methods. N2 - Oberflächenverschiebungen an Vulkanen können einerseits durch unterirdische Magmen- oder Fluidbewegungen oder andererseits durch Gravitation verursacht werden. So sind insbesondere vor Eruptionen oft Aufwölbungen an Vulkanen zu beobachten, verursacht durch Magmenintrusion in die Erdkruste. Nach Eruptionen hingegen sinkt das Vulkangebäude aufgrund von Magmenextrusion wieder. Kontinuierliche Messungen an Vulkanen ermöglichen es, Eruptionen teilweise bis auf wenige Tage vorherzusagen. Die gemessenen Oberflächenverschiebungen können in analytischen oder numerischen Modellierungen genutzt werden, um Parameter eines möglichen Quellprozesses abzuschätzen. Auf diese Art und Weise kann das Verständnis über die unterirdischen Prozesse, die an Vulkanen stattfinden, verbessert werden. Obwohl es in den letzten Jahrzehnten eine enorme Entwicklung und Verbesserung der Überwachung von Vulkanen gab, sind viele Vorhersagen sehr vage und ungenau. Mit dieser Arbeit möchte ich einen Beitrag zum Verständnis von unterirdischen Prozessen an Vulkanen und auf lange Sicht gesehen, zur Vorhersage von Eruptionen leisten. Ich habe die Vulkane, Llaima in Chile und Tendürek im Osten der Türkei, mit Hilfe der Interferometrie von Radardaten (InSAR) untersucht. Die somit gemessenen Verschiebungen an der Erdoberfläche ermöglichen es, durch Modellierung der möglichen Deformationsquellen, Informationen über die Untergrundstrukturen dieser beiden bisher kaum erforschten Vulkane zu bekommen. Obwohl unterschiedlich in Aufbau, Gesteinszusammensetzung und Entstehung, zeigen beide Vulkane Anzeichen dafür, dass jeweils mehrere interagierende Deformationsquellen im Untergrund existieren. Am Vulkan Llaima war es schwierig, aufgrund der starken Dekorrelation des Radarsignals zwischen den Satellitenaufnahmen, die InSAR Methode anzuwenden. Ich entwickelte eine Methode um die doppeldeutigen relativen Phasenwerte der Interferogramme modellbasiert in eindeutige relative Phasenwerte umzurechnen. Die damit erzeugten Oberflächenverschiebungskarten am Vulkan eigneten sich nun für eine anschließende Modellierung der Deformationsquelle. Die Modellierungsergebnisse zeigen signifikante Unterschiede zwischen den Parametern der präeruptiven- und posteruptiven Deformationsquellen. Demzufolge könnten zwei unterschiedliche, interagierende Magmenkammern unter Llaima existieren, eine tiefe, posteruptiv aktive Kammer und eine flache, durch den Aufstieg von Magma präeruptiv aktive Kammer. Am Vulkan Tendürek ist eine langfristige, kontinuierliche Senkung des Vulkangebäudes zu beobachten, die mit einem großen, aufgrund von Kühlung sich kontrahierenden, magmatischen Sill, erklärbar ist. Unter Hinzunahme von hochauflösenden, optischen Daten jedoch, sind bei genauerer Untersuchung bogenförmige Strukturen an der Erdoberfläche sichtbar. Diese sind Anzeichen dafür, dass Verwerfungen existieren, die das gesamte Vulkangebäude in einem elliptischen Ring umgeben. Dabei ist zu beobachten, dass die Ringstörungen über Jahrtausende, möglicherweise sogar kontinuierlich, geringe Magnituden von Versatz aufweisen. Bei langer, kontinuierlicher Aktivität über mehrere zehntausende von Jahren, könnte dies ein weiterer Mechanismus zur Entstehung von Calderastrukturen an Vulkanen darstellen, der jedoch sehr langsam verläuft. Im Gegensatz dazu ist die heutige weit verbreitete Auffassung, dass Calderen als Folge katastrophaler Einstürze von Vulkangebäuden entstehen. Um zu untersuchen welche Geometrie die vorgeschlagenen Strukturen Sill und Ringstörungen an Tendürek im Untergund haben könnten, vollführte ich eine weitaus komplexere numerische Modellierung. Diese zeigt, dass die Größe des Sills ohne Berücksichtigung der Ringstörung um ein Vielfaches überschätzt ist. Die Orientierung und Geometrie der Ringstörungen ist jedoch nicht eindeutig nur mit Oberflächenverschiebungsdaten auflösbar. Unter der Berücksichtigung von geologischen und physikalischen Gesichtspunkten sind nach Außen einfallende Aufschiebungen im Westen und nach Innen einfallende Abschiebungen im Osten die plausibelste Erklärung. Außerdem habe ich eine Methode zur Datenreduzierung entwickelt. Abhängig vom zu untersuchenden Prozess sind für die Modellierung von unterirdischen Deformationsquellen verhältnismäßig wenige gut verteilte Messpunkte an der Erdoberfläche ausreichend. Satelliten gestützte Radaraufnahmen haben jedoch oft mehrere Millionen dieser Punkte. Deshalb müssen diese riesigen Datensätze auf eine Art und Weise reduziert werden, dass keine oder nur möglichst wenige Informationen verloren gehen. Für diesen Zweck habe ich, ausgehend von einem existierenden Algorithmus, eine modellbasierte Methode zur Reduzierung von besonders heterogen verteilten Oberflächendaten entwickelt. Diese Methode ist besonders gut auf Zeitreihendatensätze anwendbar und stellt somit eine Alternative zu existierenden Algorithmen dar. KW - InSAR KW - Deformationsquellenmodellierung KW - Llaima Vulkan KW - Tendürek Vulkan KW - Ringstörungen KW - InSAR KW - deformation source modeling KW - Llaima volcano KW - Tendürek volcano KW - ring-fault Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70522 ER - TY - THES A1 - Benz, Verena T1 - Sex-specific differences in the regulation of body weight dynamics and adipose tissue metabolism Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Borchardt, Sven T1 - Rainfall, weathering and erosion BT - quantification of earth surface processes in Suguta Valley, northern Kenya, using multispectral and hyperspectral data Y1 - 2014 ER - TY - THES A1 - Brandt-Kobele, Oda-Christina T1 - Comprehension of verb inflection in German-speaking children T1 - Das Verständnis von Verbflexionsendungen bei deutschsprachigen Kindern N2 - Previous studies on the acquisition of verb inflection in normally developing children have revealed an astonishing pattern: children use correctly inflected verbs in their own speech but fail to make use of verb inflections when comprehending sentences uttered by others. Thus, a three-year old might well be able to say something like ‘The cat sleeps on the bed’, but fails to understand that the same sentence, when uttered by another person, refers to only one sleeping cat but not more than one. The previous studies that have examined children's comprehension of verb inflections have employed a variant of a picture selection task in which the child was asked to explicitly indicate (via pointing) what semantic meaning she had inferred from the test sentence. Recent research on other linguistic structures, such as pronouns or focus particles, has indicated that earlier comprehension abilities can be found when methods are used that do not require an explicit reaction, like preferential looking tasks. This dissertation aimed to examine whether children are truly not able to understand the connection the the verb form and the meaning of the sentence subject until the age of five years or whether earlier comprehension can be found when a different measure, preferential looking, is used. Additionally, children's processing of subject-verb agreement violations was examined. The three experiments of this thesis that examined children's comprehension of verb inflections revealed the following: German-speaking three- to four-year old children looked more to a picture showing one actor when hearing a sentence with a singular inflected verb but only when their eye gaze was tracked and they did not have to perform a picture selection task. When they were asked to point to the matching picture, they performed at chance-level. This pattern indicates asymmetries in children's language performance even within the receptive modality. The fourth experiment examined sensitivity to subject-verb agreement violations and did not reveal evidence for sensitivity toward agreement violations in three- and four-year old children, but only found that children's looking patterns were influenced by the grammatical violations at the age of five. The results from these experiments are discussed in relation to the existence of a production-comprehension asymmetry in the use of verb inflections and children's underlying grammatical knowledge. N2 - Experimentelle Studien zum Erwerb der Verbflexion bei sprachunauffälligen Kindern haben ein überraschendes Muster aufgezeigt. Kinder im Alter von drei und vier Jahren verwenden Verbflexionsendungen anscheinend korrekt in ihrer eigenen Sprachproduktion, aber sie scheinen unfähig zu sein, Verbflexionen in den Äußerungen anderer zu verstehen. Ein Kind ist also problemlos in der Lage “Sie schläft auf dem Bett.” zu sagen, wenn es die Position von z. B. einer Katze beschreiben möchte. Gleichzeitig scheint es nicht zu verstehen, dass sich ein Satz wie “Sie schläft auf dem Bett” auf nur eine schlafende Katze und nicht mehrere bezieht. Das Verständnis von Sätzen, in denen der einzige Hinweis auf die Anzahl der Handelnden (den Numerus des Subjekts) die Verbflexion ist, wurde bislang nur mit ‘Zeige-Experimenten’ untersucht. In solchen Sprachtests soll das Kind durch eine Zeigegeste auf eines von zwei vorgegebenen Bildern explizit anzeigen wie es den vorgegebenen Satz verstanden hat. Aktuelle Studien, die das Verständnis von sprachlichen Elementen wie Pronomen und Fokuspartikeln bei Kindern untersucht haben, lassen erkennen, dass die Testmethodik einen erheblichen Einfluss auf die kindlichen Sprachverständnisfähigkeiten zu haben scheint. Wenn man Methoden verwendet, die keine explizite Reaktion von Seiten der Kinder verlangen, findet man korrektes Verständnis schon bei jüngeren Kindern. Das Ziel dieser Dissertation war es zu untersuchen, ob drei- und vierjährige Kinder tatsächlich nicht in der Lage sind die Beziehung zwischen Verbform (Art der Verbflexion) und Subjektbedeutung (Numerus des Subjekts) zu verstehen oder ob man korrektes Sprachverständnis in jüngeren Populationen finden kann, wenn eine alternative Testmethode, die Messung der Augenbewegungen, verwendet wird. Zusätzlich wurde untersucht ob Kinder im gleichen Alter Verletzungen der Subjekt-Verb-Kongruenz in auditiv präsentierten Sätzen entdecken. Drei Experimente dieser Dissertation, die das kindliche Sprachverständnis in Bezug auf Verbflexion untersucht haben bringen folgendes Muster zum Vorschein: Deutsch-sprachige Kinder im Alter von drei bis vier Jahren schauten mehr zu einem Bild, auf dem nur ein Akteur zu sehen war, wenn sie einen Satz mit einem singular flektierten Verb hörten (Sie streichelt eine Katze). Andererseits schauten sie mehr zu einem Bild, auf dem zwei Akteure zu sehen waren, wenn sie einen Satz mit einem plural flektierten Verb hörten (Sie streicheln eine Katze). Wenn sie hingegen gebeten wurden, auf das korrekte Bild zu zeigen, reagierten sie nicht besser als es der Zufall erwartet hätte, d.h.~sie waren nicht in der Lage einen Satz einem entsprechenden Bild zuzuordnen. Dieses Ergebnismuster deutet auf die Existenz von (methoden-abhängigen) Asymmetrien innerhalb einer sprachlichen Modalität, dem Sprach\-verständnis, hin. Das vierte Experiment untersuchte die kindliche Sensitivität gegenüber der Verletzung von Subjekt-Verb-Kongruenz. Hier zeigte sich, dass das Blickverhalten von fünfjährigen Kindern von der Grammatikalität der Testsätze beeinflusst war, während keine Evidenz für das Erkennen von Grammatikalitätsverletzungen bei jüngeren Kindern gefunden werden konnte. Das asymmetrische Performanzmuster innerhalb der rezeptiven Modalität, das in dieser Arbeit gefunden wurde, erlaubt Rückschlüsse auf die Annahme einer Produktions-Verständnis-Aymmetrie und somit auch auf Theorien zur grammatischen Entwicklung bei Kindern. T3 - Spektrum Patholinguistik - Schriften - 6 KW - Spracherwerb KW - Verbflexion KW - Blickbewegungsmessung KW - Methoden KW - Sprachverständnis KW - Language acquisition KW - verb inflection KW - eye-tracking KW - methods KW - language comprehension Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62046 SN - 978-3-86956-216-2 SN - 1869-3822 SN - 1869-3830 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Braun, Andreas T1 - Open innovation - an analysis of the individual level Y1 - 2014 CY - Potsdam ER - TY - THES A1 - Brem, Patrick T1 - Compact objects in dense astrophysical environments BT - numerical simulations and implications for gravitational wave astronomy Y1 - 2014 ER - TY - THES A1 - Burdack, Doreen T1 - Water management policies and their impact on irrigated crop production in the Murray-Darling Basin, Australia T1 - Wasserregulierungsstrategien und deren Auswirkungen auf bewässerte Feldfrüchteproduktion im Murray-Darling Flusseinzugsgebiet, Australien N2 - The economic impact analysis contained in this book shows how irrigation farming is particularly susceptible when applying certain water management policies in the Australian Murray-Darling Basin, one of the world largest river basins and Australia’s most fertile region. By comparing different pricing and non-pricing water management policies with the help of the Water Integrated Market Model, it is found that the impact of water demand reducing policies is most severe on crops that need to be intensively irrigated and are at the same time less water productive. A combination of increasingly frequent and severe droughts and the application of policies that decrease agricultural water demand, in the same region, will create a situation in which the highly water dependent crops rice and cotton cannot be cultivated at all. N2 - Die ökonomische Folgenanalyse in diesem Buch zeigt, dass insbesondere Landwirte, die stark auf Bewässerung angewiesen sind, von Wasserregulierungsstrategien im Australischen Murray-Darling Becken betroffen sind. Dieses Gebiet ist eines der größten Flussbecken weltweit und zugleich Australiens fruchtbarste Region. Durch den Vergleich von verschiedenen Preisstrategien und anderen Ansätzen konnte mit Hilfe des Water Integrated Market Models herausgefunden werden, dass die Auswirkungen auf hochgradig wasserabhängige Feldfrüchte mit geringeren Wasserproduktivitäten am stärksten sind. Die Kombination von häufigeren und intensiveren Trockenzeiten und einer Regulierungspolitik mit dem Ziel, die Nachfrage nach Wasser zu verringern, führt dazu, dass in ein und derselben Region hochgradig wasserabhängige Feldfrüchte wie Reis und Baumwolle mit geringeren Wasserproduktivitäten nicht mehr angebaut werden können. T3 - Potsdam Economic Studies - 4 KW - Wasserregulierung KW - Wasserpolitik KW - Bewässerung KW - landwirtschaftliche Produktion KW - Australien KW - water management KW - water policy KW - irrigation KW - agricultural production KW - Australia Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72245 SN - 978-3-86956-306-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Cao, Xianyong T1 - Vegetation and climate change in eastern continental Asia during the last 22 ka inferred from pollen data synthesis Y1 - 2014 ER - TY - THES A1 - Conrad, Claudia T1 - Open cluster groups and complexes T1 - Gruppen und Komplexe offener Sternhaufen N2 - It is generally agreed upon that stars typically form in open clusters and stellar associations, but little is known about the structure of the open cluster system. Do open clusters and stellar associations form isolated or do they prefer to form in groups and complexes? Open cluster groups and complexes could verify star forming regions to be larger than expected, which would explain the chemical homogeneity over large areas in the Galactic disk. They would also define an additional level in the hierarchy of star formation and could be used as tracers for the scales of fragmentation in giant molecular clouds? Furthermore, open cluster groups and complexes could affect Galactic dynamics and should be considered in investigations and simulations on the dynamical processes, such as radial migration, disc heating, differential rotation, kinematic resonances, and spiral structure. In the past decade there were a few studies on open cluster pairs (de La Fuente Marcos & de La Fuente Marcos 2009a,b,c) and on open cluster groups and complexes (Piskunov et al. 2006). The former only considered spatial proximity for the identification of the pairs, while the latter also required tangential velocities to be similar for the members. In this work I used the full set of 6D phase-space information to draw a more detailed picture on these structures. For this purpose I utilised the most homogeneous cluster catalogue available, namely the Catalogue of Open Cluster Data (COCD; Kharchenko et al. 2005a,b), which contains parameters for 650 open clusters and compact associations, as well as for their uniformly selected members. Additional radial velocity (RV) and metallicity ([M/H]) information on the members were obtained from the RAdial Velocity Experiment (RAVE; Steinmetz et al. 2006; Kordopatis et al. 2013) for 110 and 81 clusters, respectively. The RAVE sample was cleaned considering quality parameters and flags provided by RAVE (Matijevič et al. 2012; Kordopatis et al. 2013). To ensure that only real members were included for the mean values, also the cluster membership, as provided by Kharchenko et al. (2005a,b), was considered for the stars cross-matched in RAVE. 6D phase-space information could be derived for 432 out of the 650 COCD objects and I used an adaption of the Friends-of-Friends algorithm, as used in cosmology, to identify potential groupings. The vast majority of the 19 identified groupings were pairs, but I also found four groups of 4-5 members and one complex with 15 members. For the verification of the identified structures, I compared the results to a randomly selected subsample of the catalogue for the Milky Way global survey of Star Clusters (MWSC; Kharchenko et al. 2013), which became available recently, and was used as reference sample. Furthermore, I implemented Monte-Carlo simulations with randomised samples created from two distinguished input distributions for the spatial and velocity parameters. On the one hand, assuming a uniform distribution in the Galactic disc and, on the other hand, assuming the COCD data distributions to be representative for the whole open cluster population. The results suggested that the majority of identified pairs are rather by chance alignments, but the groups and the complex seemed to be genuine. A comparison of my results to the pairs, groups and complexes proposed in the literature yielded a partial overlap, which was most likely because of selection effects and different parameters considered. This is another verification for the existence of such structures. The characteristics of the found groupings favour that members of an open cluster grouping originate from a common giant molecular cloud and formed in a single, but possibly sequential, star formation event. Moreover, the fact that the young open cluster population showed smaller spatial separations between nearest neighbours than the old cluster population indicated that the lifetime of open cluster groupings is most likely comparable to that of the Galactic open cluster population itself. Still even among the old open clusters I could identify groupings, which suggested that the detected structure could be in some cases more long lived as one might think. In this thesis I could only present a pilot study on structures in the Galactic open cluster population, since the data sample used was highly incomplete. For further investigations a far more complete sample would be required. One step in this direction would be to use data from large current surveys, like SDSS, RAVE, Gaia-ESO and VVV, as well as including results from studies on individual clusters. Later the sample can be completed by data from upcoming missions, like Gaia and 4MOST. Future studies using this more complete open cluster sample will reveal the effect of open cluster groupings on star formation theory and their significance for the kinematics, dynamics and evolution of the Milky Way, and thereby of spiral galaxies. N2 - Es ist weithin anerkannt, dass Sterne typischerweise in offenen Sternenhaufen und Sternassoziationen entstehen, dennoch ist wenig über Strukturen in diesem System der offenen Sternhaufen bekannt. Entstehen offenen Sternhaufen und Sternassoziationen isoliert oder entstehen sie bevorzugt in Gruppen und Komplexen? Gruppen und Komplexe von offenen Sternhaufen könnten bestätigen, dass Sternentstehungsregionen größer sind als erwartet, was die Homogenität der chemischen Zusammensetzung über weite Areale in der galaktischen Scheibe erklären würde. Sie würden auch eine weitere Stufe in der Hierarchie der Sternentstehung definieren und könnten als Indikatoren für die Skalen der Fragmentierung in Riesenmolekülwolken dienen. Des Weiteren könnten Gruppen und Komplexe von offenen Sternhaufen die Dynamik unserer Galaxis beeinflussen und sollten in Untersuchungen und Simulationen von dynamischen Prozessen, wie radiale Migration, kinematische Aufheizung der Scheibe, differentielle Rotation, kinematische Resonanzen und der Spiralstruktur, miteinbezogen werden. In den vergangenen Jahrzehnten gab es einigen Studien zu Paaren von offenen Sternhaufen (de La Fuente Marcos & de La Fuente Marcos 2009a,b,c) sowie zu Gruppen und Komplexen von offenen Sternhaufen (Piskunov et al. 2006). Erstere betrachteten ausschließlich räumliche Nähe für die Identifizierung der Paare, während letztere auch ähnliche tangentiale Geschwindigkeiten für die Mitglieder verlangten. In dieser Arbeit nutzte ich den kompletten Satz an 6D-Phasenrauminformationen, um ein vollständigeres Bild dieser Strukturen zu erstellen. Aus diesem Grund habe ich den homogensten Sternhaufenkatalog verwendet, der zu dieser Zeit verfügbar war, nämlich den Catalogue of Open Cluster Data (COCD; Kharchenko et al. 2005a,b), welcher Parameter für 650 offene Sternhaufen und Sternassoziationen, sowie deren einheitlich ausgewählte Mitglieder, enthält. Weitere Radialgeschwindigkeits- (RV) und Metallizitätsinformationen ([M/H]) für die Sternhaufenmitglieder wurden mit Hilfe des RAdial Velocity Experiment (RAVE; Steinmetz et al. 2006; Kordopatis et al. 2013) für 110 beziehungsweise 81 Haufen bestimmt. Der RAVE-Datensatz wurde mit Hilfe von Qualitätsparametern aus RAVE (Matijevič et al. 2012; Kordopatis et al. 2013) gereinigt. Um sicherzustellen, dass nur echte Mitglieder für die Mittelwertbestimmung betrachtet wurden, wurde auch die Haufenmitgliedschaft, wie von Kharchenko et al. (2005a,b) bereitgestellt, für die in RAVE identifizierten Sterne miteinbezogen. 6D-Phasenrauminformationen konnten für 432 der 650 COCD Objekte bestimmt werden und ich habe eine angepasste Variante des Friends-of-Friends Algorithmus genutzt, der in der Kosmologie verwendet wird, um potenzielle Gruppierungen zu identifizieren. Der überwiegende Teil der 19 identifizierten Gruppierungen waren Paare, ich habe aber auch vier Gruppen mit 4-5 Mitgliedern und einen Komplex mit 15 Mitgliedern gefunden. Für die Bestätigung der identifizierten Strukturen, verglich ich die Ergebnisse mit einem zufällig ausgewählten Datensatz aus dem Milky Way global survey of Star Clusters (MWSC; Kharchenko et al. 2013), der kürzlich erst zur Verfügung gestellt wurde und hier als Vergleichsdatensatz verwendet wurde. Des Weiteren, habe ich Monte-Carlo Simulationen mit zufälligen Datensätzen implementiert, die anhand von zwei unterschiedlichen Varianten für die Ausgangsverteilungen der räumlichen und Geschwindigkeitsparameter generiert wurden. Zum Einen unter der Annahme einer gleichmäßigen Verteilung in der galaktischen Scheibe und zum Anderen unter der Annahme, dass die Datenverteilungen im COCD repräsentativ sind für die gesamte Population der offenen Sternhaufen. Die Ergebnisse deuteten darauf hin, dass die Mehrheit der identifizierten Paare eher zufällige Anordnungen sind, aber die Gruppen und der Komplex schienen echt zu sein. Ein Vergleich meiner Ergebnisse mit den in der Literatur vorgeschlagenen Paaren, Gruppen und Komplexen ergab eine teilweise Überschneidung, die höchstwahrscheinlich durch Auswahleffekte und die Verwendung unterschiedlicher Parameter bedingt war. Dies ist eine weitere Bestätigung für die Existenz solcher Strukturen. Die Eigenschaften der gefundenen Gruppierungen bevorzugen, dass die Mitglieder einer Gruppierung von offenen Sternhaufen aus einer gemeinsamen Riesenmolekülwolke stammen und in einem Sternentstehungsereignis geformt wurden, das möglicherweise auch sequenziell ablief. Außerdem zeigte die junge Population der offenen Sternhaufen kleinere räumliche Abstände zwischen den nächsten Nachbarn als die alte Haufenpopulation, was darauf hindeutet, dass die Lebenszeit von Gruppierungen von offenen Sternhaufen vergleichbar ist mit der für die Population galaktischer offener Sternhaufen selbst. Dennoch wurden auch unter den alten offenen Sternhaufen Gruppierungen identifiziert, was andeutete, dass die gefundenen Strukturen doch in einigen Fällen langlebiger ist als man denken könnte. In dieser Doktorarbeit konnte ich nur eine Pilotstudie zu Strukturen in der Population der galaktischen offenen Sternhaufen präsentieren, da der verwendete Datensatz höchst unvollständig war. Für zukünftige Untersuchungen wäre ein deutlich vollständigerer Datensatz notwendig. Ein Schritt in diese Richtung wäre die Verwendung von Daten aus großen momentan verfügbaren Beobachtungskampagnen, wie dem SDSS, RAVE, Gaia-ESO und dem VVV, sowie das miteinbeziehen der Ergebnisse von Studien an einzelnen offenen Sternhaufen. Später könnte dieser Datensatz durch die Verwendung von Daten aus kommenden Missionen, wie Gaia und 4MOST, komplettiert werden. Zukünftige Studien mit einem vollständigeren Datensatz werden den Einfluss von Gruppierungen von offenen Sternhaufen für die Sternentstehungstheorie und ihre Bedeutung für die Kinematik, Dynamik und Entwicklung der Milchstraße, und damit auch für andere Spiralgalaxien, enträtseln. KW - open clusters and stellar associations KW - stellar populations KW - offene Sternhaufen und stellare Assoziationen KW - Sternpopulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77605 ER - TY - THES A1 - Czesnick, Hjördis T1 - Functional specialization of Arabidopsis poly(A) polymerases in relation to flowering time and stress T1 - Funktionelle Spezialisierung von Arabidopsis Poly(A)-Polymerasen in Hinsicht auf Blühzeit und Stress N2 - Polyadenylation is a decisive 3’ end processing step during the maturation of pre-mRNAs. The length of the poly(A) tail has an impact on mRNA stability, localization and translatability. Accordingly, many eukaryotic organisms encode several copies of canonical poly(A) polymerases (cPAPs). The disruption of cPAPs in mammals results in lethality. In plants, reduced cPAP activity is non-lethal. Arabidopsis encodes three nuclear cPAPs, PAPS1, PAPS2 and PAPS4, which are constitutively expressed throughout the plant. Recently, the detailed analysis of Arabidopsis paps1 mutants revealed a subset of genes that is preferentially polyadenylated by the cPAP isoform PAPS1 (Vi et al. 2013). Thus, the specialization of cPAPs might allow the regulation of different sets of genes in order to optimally face developmental or environmental challenges. To gain insights into the cPAP-based gene regulation in plants, the phenotypes of Arabidopsis cPAPs mutants under different conditions are characterized in detail in the following work. An involvement of all three cPAPs in flowering time regulation and stress response regulation is shown. While paps1 knockdown mutants flower early, paps4 and paps2 paps4 knockout mutants exhibit a moderate late-flowering phenotype. PAPS1 promotes the expression of the major flowering inhibitor FLC, supposedly by specific polyadenylation of an FLC activator. PAPS2 and PAPS4 exhibit partially overlapping functions and ensure timely flowering by repressing FLC and at least one other unidentified flowering inhibitor. The latter two cPAPs act in a novel regulatory pathway downstream of the autonomous pathway component FCA and act independently from the polyadenylation factors and flowering time regulators CstF64 and FY. Moreover, PAPS1 and PAPS2/PAPS4 are implicated in different stress response pathways in Arabidopsis. Reduced activity of the poly(A) polymerase PAPS1 results in enhanced resistance to osmotic and oxidative stress. Simultaneously, paps1 mutants are cold-sensitive. In contrast, PAPS2/PAPS4 are not involved in the regulation of osmotic or cold stress, but paps2 paps4 loss-of-function mutants exhibit enhanced sensitivity to oxidative stress provoked in the chloroplast. Thus, both PAPS1 and PAPS2/PAPS4 are required to maintain a balanced redox state in plants. PAPS1 seems to fulfil this function in concert with CPSF30, a polyadenylation factor that regulates alternative polyadenylation and tolerance to oxidative stress. The individual paps mutant phenotypes and the cPAP-specific genetic interactions support the model of cPAP-dependent polyadenylation of selected mRNAs. The high similarity of the polyadenylation machineries in yeast, mammals and plants suggests that similar regulatory mechanisms might be present in other organism groups. The cPAP-dependent developmental and physiological pathways identified in this work allow the design of targeted experiments to better understand the ecological and molecular context underlying cPAP-specialization. N2 - Polyadenylierung ist ein entscheidender Schritt der 3‘-End-Prozessierung und somit der Reifung von prä-mRNAs. Die Länge des Poly(A)-Schwanzes entscheidet unter anderem über die Stabilität und Lokalisierung von mRNAs. Viele Eukaryoten besitzen mehrere Kopien der kanonischen Poly(A)-Polymerasen (PAP). In Säugetieren ist das Ausknocken dieser Enzyme letal. Pflanzen mit reduzierter PAP-Aktivität sind hingegen überlebensfähig. Arabidopsis exprimiert drei im Zellkern lokalisierte PAPs namens PAPS1, PAPS2 und PAPS4. Kürzlich ergab die Analyse von Arabidopsis paps1-Mutanten, dass eine Gen-Untergruppe vorzugsweise von PAPS1 polyadenyliert wird (Vi et al. 2013). Die Spezialisierung der PAPs könnte der Regulierung verschiedener Gengruppen in Anpassung an die Pflanzenentwicklung und an bestimmte Umweltbedingungen dienen. In der vorliegenden Arbeit werden die Phänotypen von Arabidopsis PAP-Mutanten unter verschiedenen Bedingungen im Detail charakterisiert, um die PAP-basierte Genregulation besser zu verstehen. Es wird gezeigt, dass alle drei PAPs an der Regulation der Blühzeit und an der Regulation von Stressantworten beteiligt sind. Während paps1-Mutanten früh blühen, zeigen paps4- und paps2 paps4-Mutanten einen spät blühenden Phänotypen. PAPS1 fördert die Expression des Blühzeitinhibitors FLC vermutlich über die Polyadenylierung eines FLC-Aktivators. PAPS2 und PAPS4 haben teilweise überlappende Funktionen und unterdrücken die Expression von FLC und mindestens einem weiteren, bisher unbekannten Blühzeitinhibitor. Die beiden PAPs agieren in einem neu entdeckten, genetischen Pfad gemeinsam mit dem Blühzeitregulator FCA, jedoch unabhängig von den Polyadenylierungsfaktoren und Blühzeitregulatoren CstF64 und FY. Des Weiteren regulieren PAPS1 und PAPS2/PAPS4 verschiedene Stressantworten. Das Reduzieren der PAPS1-Aktivität führt zu verstärkter Resistenz gegen osmotischen und oxidativen Stress, bei gleichzeitig erhöhter Kältesensitivität der Pflanzen. PAPS2/PAPS4 sind im Gegensatz dazu nicht an der Regulation von Kälte- oder osmotischem Stress beteiligt. Die paps2 paps4-Mutanten besitzen jedoch reduzierte Toleranz gegen oxidativen Stress in Chloroplasten. Das heißt, sowohl PAPS1 als auch PAPS2/PAPS4 sind nötig, um einen ausgeglichenen Redoxstatus der Pflanzenzellen zu gewährleisten. PAPS1 arbeitet bei dieser Regulation scheinbar mit dem Polyadenylierungsfaktor CPSF30 zusammen. Die individuellen Phänotypen der paps-Mutanten und die spezifischen genetischen Interaktionen der Poly(A)-Polymerasen in Arabidopsis unterstützen das Modell der PAP-abhängigen Polyadenylierung von selektierten mRNAs. Da die Polyadenylierungskomplexe in Hefen, Säugetieren und Pflanzen starke Ähnlichkeiten aufweisen, ist es denkbar, dass dieser Regulierungsmechanismus auch in anderen Organismengruppen präsent ist. Basierend auf den Ergebnissen dieser Arbeit können gezielt weitere Experimente entwickelt werden, um die ökologischen und molekularen Grundlagen der PAP-Spezialisierung zu untersuchen. KW - polyadenylation KW - flowering KW - Polyadenylierung KW - Arabidopsis KW - Poly(A)-Polymerasen KW - Blühzeit Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78015 ER - TY - THES A1 - Dahlsten, Ulf T1 - World market governance T1 - Weltmarktsteuerung BT - the alternative; how an international rule of law can reap the benefits of the global market economy and strengthen national and regional sovereignty N2 - Democratic capitalism or liberal democracy, as the successful marriage of convenience between market liberalism and democracy sometimes is called, is in trouble. The market economy system has become global and there is a growing mismatch with the territoriality of the nation-states. The functional global networks and inter-governmental order can no longer keep pace with the rapid development of the global market economy and regulatory capture is all too common. Concepts like de-globalization, self-regulation, and global government are floated in the debate. The alternatives are analysed and found to be improper, inadequate or plainly impossible. The proposed route is instead to accept that the global market economy has developed into an independent fundamental societal system that needs its own governance. The suggestion is World Market Governance based on the Rule of Law in order to shape the fitness environment for the global market economy and strengthen the nation-states so that they can regain the sovereignty to decide upon the social and cultural conditions in each country. Elements in the proposed Rule of Law are international legislation decided by an Assembly supported by a Council, and an independent Judiciary. Existing international organisations would function as executors. The need for broad sustained demand for regulations in the common interest is identified. N2 - Die erfolgreiche Zweckehe zwischen Marktliberalismus und Demokratie, auch als Demokratischer Kapitalismus oder Liberale Demokratie bezeichnet, befindet sich in einer Krise. Das System der Marktwirtschaft hat sich globalisiert und die Diskrepanz zur Territorialität der Nationalstaaten nimmt zu. Globale Netzwerke und die zwischenstaatliche Ordnung können nicht mehr Schritt halten mit der Entwicklungsgeschwindigkeit der globalen Marktwirtschaft, und die Vereinnahmung von Regulierungsinstanzen („regulatory capture“) ist ein weit verbreitetes Phänomen. Konzepte wie Deglobalisierung, Selbstregulierung und Weltregierung werden debattiert. Diese Alternativen werden in dieser Dissertationsschrift analysiert und stellen sich als unpassend, unzulänglich oder schlicht unmöglich heraus. Stattdessen wird vorgeschlagen, zu akzeptieren, dass sich die globale Marktwirtschaft zu einem unabhängigen fundamentalen gesellschaftlichen System entwickelt hat, das einer eigenen Steuerung bedarf. Vorgeschlagen wird ein System der Weltmarktsteuerung aufbauend auf dem Prinzip der Rechtsstaatlichkeit, in das die globale Marktwirtschaft eingebettet wird und das die Nationalstaaten stärkt, so dass sie Ihre Souveränität hinsichtlich Entscheidungen über nationale soziale und kulturelle Bedingungen wiedererlangen. Elemente des vorgeschlagenen gesetzesbasierten Steuerung sind eine internationale Gesetzgebung durch eine Versammlung, unterstützt durch einen Rat, und eine unabhängige Gerichtsbarkeit. Bestehende Internationale Organisationen würden als Exekutive fungieren. Dazu ist eine dauerhafte und umfängliche Nachfrage nach Regulierung im Gemeininteresse erforderlich. KW - Welt KW - Wirtschaft KW - Steuerung KW - Finanz KW - Markt KW - global KW - markets KW - governance KW - finance KW - economy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70168 ER - TY - THES A1 - Dyachenko, Evgeniya T1 - Elliptic problems with small parameter T1 - Elliptische Problemen mit kleinem Parameter N2 - In this thesis we consider diverse aspects of existence and correctness of asymptotic solutions to elliptic differential and pseudodifferential equations. We begin our studies with the case of a general elliptic boundary value problem in partial derivatives. A small parameter enters the coefficients of the main equation as well as into the boundary conditions. Such equations have already been investigated satisfactory, but there still exist certain theoretical deficiencies. Our aim is to present the general theory of elliptic problems with a small parameter. For this purpose we examine in detail the case of a bounded domain with a smooth boundary. First of all, we construct formal solutions as power series in the small parameter. Then we examine their asymptotic properties. It suffices to carry out sharp two-sided \emph{a priori} estimates for the operators of boundary value problems which are uniform in the small parameter. Such estimates failed to hold in functional spaces used in classical elliptic theory. To circumvent this limitation we exploit norms depending on the small parameter for the functions defined on a bounded domain. Similar norms are widely used in literature, but their properties have not been investigated extensively. Our theoretical investigation shows that the usual elliptic technique can be correctly carried out in these norms. The obtained results also allow one to extend the norms to compact manifolds with boundaries. We complete our investigation by formulating algebraic conditions on the operators and showing their equivalence to the existence of a priori estimates. In the second step, we extend the concept of ellipticity with a small parameter to more general classes of operators. Firstly, we want to compare the difference in asymptotic patterns between the obtained series and expansions for similar differential problems. Therefore we investigate the heat equation in a bounded domain with a small parameter near the time derivative. In this case the characteristics touch the boundary at a finite number of points. It is known that the solutions are not regular in a neighbourhood of such points in advance. We suppose moreover that the boundary at such points can be non-smooth but have cuspidal singularities. We find a formal asymptotic expansion and show that when a set of parameters comes through a threshold value, the expansions fail to be asymptotic. The last part of the work is devoted to general concept of ellipticity with a small parameter. Several theoretical extensions to pseudodifferential operators have already been suggested in previous studies. As a new contribution we involve the analysis on manifolds with edge singularities which allows us to consider wider classes of perturbed elliptic operators. We examine that introduced classes possess a priori estimates of elliptic type. As a further application we demonstrate how developed tools can be used to reduce singularly perturbed problems to regular ones. N2 - In dieser Dissertation betrachten wir verschiedene Aspekte der Existenz und Korrektheit asymptotischer Lösungen für elliptische Differentialgleichungen und Pseudodifferentialgleichungen. Am Anfang betrachtet die Arbeit den Fall eines allgemeinen elliptischen Grenzwertproblems in partiellen Ableitungen. Hierbei hängen die Koeffizienten von einem kleinen Parameter ab. Solche Gleichungen wurden schon reichlich untersucht, aber es gibt immer noch theoretische Lücken. Unser Ziel ist eine allgemeine Theorie elliptischer Operatorklassen mit kleinen Parametern. Zu diesem Zweck untersuchen wir im Detail den Fall eines beschränkten Gebietes mit glattem Rand. Zuerst konstruieren wir formale Lösungen als Potenzreihe einer kleinen Variablen. Weiter untersuchen wir ihre asymptotischen Eigenschaften. Dazu reicht es aus, beidseitige A-Priori Abschätzungen für diejenigen Randwertproblemoperatoren zu bestimmen, die gleichmäßig stetig von den kleinen Parametern abhängen. Solche Abschätzungen gelten nicht in Funktionenräumen, die in der klassischen elliptischen Theorie benutzt werden. Um diese Beschränkungen zu überwinden, nutzen wir Normen abhängig vom kleinen Parameter. Änliche Normen finden sich oft in der Literatur, aber ihre Eigenschaften wurden unzureichend untersucht. Unsere theoretische Forschung zeigt, dass die gewöhnliche elliptische Methode korrekt durchgeführt werden kann. Die erhaltenen Abschätzungen erlauben das Fortsetzen der Normen auf kompakte Mannigfältigkeiten mit Rand. Unsere Forschung wird mit algebraischen Bedingungen für die Operatoren abgeschlossen. Wir zeigen, dass diese Bedingungen äquivalent zu der Existenz der A-Priori-Abschätzungen sind. Im zweiten Schritt erweitern wir das Konzept der Elliptizität mit kleinen Parametern zu allgemeineren Operatorklassen. Zuerst wollen wir den Unterschied in asymptotischen Mustern zwischen der erhaltenen Reihe und Lösungen ähnlicher Probleme untersuchen. Deshalb untersuchen wir die Wärmeleitungsgleichung in einem beschränkten Gebiet mit einem kleinen Parameter in der Zeitableitung. In diesem Fall tangiert der Rand die Charakteristik endlich oft. Es ist bekannt, dass die Lösungen unregulär im Allgemeinen in Umgebungen solcher Stellen sind. Wir nehmen an, dass der Rand an solchen Stellen nicht glätt sein kann und kaspydalische Singularitäten hat. Wir haben eine formale asymptotische Zerlegung gefunden und einen Schwellenwert gezeigt, sodass die asymptotische Eigenschaft der Reihe nicht mehr gilt, wenn der Randparameter diesen Schwellenwert übersteigt. Der letze Teil der Arbeit führt ein allgemeines Konzept der Elliptizit\"at mit einem kleinen Parameter ein. Mehrere theoretische Erweiterungen auf Pseudodifferentialoperatoren wurden schon in früheren Studien vorgeschlagen. Als neuen Beitrag wenden wir die Analysis auf Manigfältigkeiten mit Kantensingularitäten an. Dies lässt es zu, allgemeinere gestörte Operatorklassen zu betrachten. Wir beobachten, dass die eingef\"uhrten Klassen A-Priori-Abschätzungen elliptischer Gestalt haben. Als weitere Anwendung demonstrieren wir, wie die entwickelten Mittel zum Reduzieren singular gestörter Probleme zu regulären Fällen benutzt werden können. KW - elliptische Gleichungen KW - kleine Parameter KW - elliptic problems KW - small parameter KW - boundary layer Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72056 ER - TY - THES A1 - Eggers, Ute T1 - Environmental impacts on white stork (Ciconia ciconia) breeding success BT - a long-term study with a focus on effects of weather conditions at the breeding grounds Y1 - 2014 ER - TY - THES A1 - Emadpour, Masoumeh T1 - Development of tools for inducible gene expression in choroplasts Y1 - 2014 ER - TY - THES A1 - Ermeydan, Mahmut Ali T1 - Wood cell wall modification with hydrophobic molecules T1 - Modifikation von Holzzellwänden durch hydrophobe Moleküle N2 - Wood is used for many applications because of its excellent mechanical properties, relative abundance and as it is a renewable resource. However, its wider utilization as an engineering material is limited because it swells and shrinks upon moisture changes and is susceptible to degradation by microorganisms and/or insects. Chemical modifications of wood have been shown to improve dimensional stability, water repellence and/or durability, thus increasing potential service-life of wood materials. However current treatments are limited because it is difficult to introduce and fix such modifications deep inside the tissue and cell wall. Within the scope of this thesis, novel chemical modification methods of wood cell walls were developed to improve both dimensional stability and water repellence of wood material. These methods were partly inspired by the heartwood formation in living trees, a process, that for some species results in an insertion of hydrophobic chemical substances into the cell walls of already dead wood cells, In the first part of this thesis a chemistry to modify wood cell walls was used, which was inspired by the natural process of heartwood formation. Commercially available hydrophobic flavonoid molecules were effectively inserted in the cell walls of spruce, a softwood species with low natural durability, after a tosylation treatment to obtain “artificial heartwood”. Flavonoid inserted cell walls show a reduced moisture absorption, resulting in better dimensional stability, water repellency and increased hardness. This approach was quite different compared to established modifications which mainly address hydroxyl groups of cell wall polymers with hydrophilic substances. In the second part of the work in-situ styrene polymerization inside the tosylated cell walls was studied. It is known that there is a weak adhesion between hydrophobic polymers and hydrophilic cell wall components. The hydrophobic styrene monomers were inserted into the tosylated wood cell walls for further polymerization to form polystyrene in the cell walls, which increased the dimensional stability of the bulk wood material and reduced water uptake of the cell walls considerably when compared to controls. In the third part of the work, grafting of another hydrophobic and also biodegradable polymer, poly(ɛ-caprolactone) in the wood cell walls by ring opening polymerization of ɛ-caprolactone was studied at mild temperatures. Results indicated that polycaprolactone attached into the cell walls, caused permanent swelling of the cell walls up to 5%. Dimensional stability of the bulk wood material increased 40% and water absorption reduced more than 35%. A fully biodegradable and hydrophobized wood material was obtained with this method which reduces disposal problem of the modified wood materials and has improved properties to extend the material’s service-life. Starting from a bio-inspired approach which showed great promise as an alternative to standard cell wall modifications we showed the possibility of inserting hydrophobic molecules in the cell walls and supported this fact with in-situ styrene and ɛ-caprolactone polymerization into the cell walls. It was shown in this thesis that despite the extensive knowledge and long history of using wood as a material there is still room for novel chemical modifications which could have a high impact on improving wood properties. N2 - Der nachwachsende Rohstoff Holz wird aufgrund seiner guten mechanischen Eigenschaften und der leichten Verfügbarkeit für viele Anwendungszwecke genutzt. Quellen und Schrumpfen bei Feuchtigkeitsänderungen des hygroskopischen Werkstoffs Holz limitieren jedoch die Einsatzmöglichkeiten. Ein weiteres Problem stellt der mitunter leichte Abbau – u.a. bei feuchtem Holz - durch Mikroorganismen und/oder Insekten dar. Durch chemische Modifizierungen können die Dimensionsstabilität, die Hydrophobizität und die Dauerhaftigkeit verbessert und damit die potentielle Lebensdauer des Werkstoffes erhöht werden. Dabei ist die dauerhafte Modifikation der Zellwand nur äußerst schwer realisierbar. Inspiriert von der Kernholzbildung in lebenden Bäumen, ein zellwandverändernder Prozess, der Jahre nach der Holzbildung erfolgt, wurden im Rahmen dieser Arbeit neue Ansätze zur chemischen Modifizierung der Zellwände entwickelt, um die Dimensionsstabilität und Hydrophobizität zu erhöhen. Der erste Teil der Arbeit ist stark vom Prozess der Kernholzbildung inspiriert, eine abgeleitete Chemie wurde verwendet, um die Zellwände von Fichte, einem Nadelholz von geringer natürlicher Dauerhaftigkeit, zu modifizieren. Kommerziell verfügbare hydrophobe Flavonoide wurden nach einem Tosylierungsschritt erfolgreich in die Zellwand eingebracht, um so „artifizielles Kernholz“ zu erzeugen. Die modifizierten Holzproben zeigten eine verringerte Wasseraufnahme, die zu erhöhter Dimensionsstabilität und Härte führte. Dieser Ansatz unterscheidet sich grundlegend von bereits etablierten Modifikationen, die hauptsächlich hypdrophile Substanzen an die Hydroxylgruppen der Zellwand anlagern. Der zweite Teil der Arbeit beschäftigt sich mit der Polymerisation von Styren in tosylierten Zellwänden. Es ist bekannt, dass es nur eine schwache Adhäsion zwischen den hydrophoben Polymeren und den hydrophilen Zellwandkomponenten gibt. Die hydrophoben Styren-Monomere wurden in die tosylierte Zellwand eingebracht und zu Polystyren polymerisiert. Wie bei der Modifikation mit Flavonoiden konnte eine erhöhte Dimensionsstabilität und reduzierte Wasseraufnahme der Zellwände beobachtet werden. Im dritten Teil der Arbeit wurde das biologisch abbaubare, hydrophobe poly(ɛ-caprolacton) in der Zellwand aufpolymerisiert. Die Ergebnisse deuten darauf hin, dass Polycaprolacton in der Zellwand gebunden ist und zu einer permanenten Quellung führt (bis zu 5 %). Die Dimensionsstabilität nahm um 40 % zu und die Wasseraufnahmerate konnte um mehr als 35 % reduziert werden. Mit dieser Methode kann nicht nur dimensionsstabileres Holz realisiert werden, auch biologische Abbaubarkeit und damit eine einfache Entsorgung sind gewährleistest. KW - Holzmodifikation KW - hydrophobe Moleküle KW - Dimensionsstabilität KW - Wassergehalt KW - wood modification KW - hydrophobic molecules KW - dimensional stability KW - moisture content Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71325 ER - TY - THES A1 - Faber, Michael T1 - Folding dynamics of RNA secondary structures BT - a structure based approach Y1 - 2014 ER - TY - THES A1 - Federici, Simone T1 - Gamma-ray studies of the young shell-type SNR RX J1713.7-3946 T1 - Untersuchung im Gamma-Strahlungsbereich des schalenartigen Supernova-Überrests RX J1713.7−3946 N2 - One of the most significant current discussions in Astrophysics relates to the origin of high-energy cosmic rays. According to our current knowledge, the abundance distribution of the elements in cosmic rays at their point of origin indicates, within plausible error limits, that they were initially formed by nuclear processes in the interiors of stars. It is also believed that their energy distribution up to 1018 eV has Galactic origins. But even though the knowledge about potential sources of cosmic rays is quite poor above „ 1015 eV, that is the “knee” of the cosmic-ray spectrum, up to the knee there seems to be a wide consensus that supernova remnants are the most likely candidates. Evidence of this comes from observations of non-thermal X-ray radiation, requiring synchrotron electrons with energies up to 1014 eV, exactly in the remnant of supernovae. To date, however, there is not conclusive evidence that they produce nuclei, the dominant component of cosmic rays, in addition to electrons. In light of this dearth of evidence, γ-ray observations from supernova remnants can offer the most promising direct way to confirm whether or not these astrophysical objects are indeed the main source of cosmic-ray nuclei below the knee. Recent observations with space- and ground-based observatories have established shell-type supernova remnants as GeV-to- TeV γ-ray sources. The interpretation of these observations is however complicated by the different radiation processes, leptonic and hadronic, that can produce similar fluxes in this energy band rendering ambiguous the nature of the emission itself. The aim of this work is to develop a deeper understanding of these radiation processes from a particular shell-type supernova remnant, namely RX J1713.7–3946, using observations of the LAT instrument onboard the Fermi Gamma-Ray Space Telescope. Furthermore, to obtain accurate spectra and morphology maps of the emission associated with this supernova remnant, an improved model of the diffuse Galactic γ-ray emission background is developed. The analyses of RX J1713.7–3946 carried out with this improved background show that the hard Fermi-LAT spectrum cannot be ascribed to the hadronic emission, leading thus to the conclusion that the leptonic scenario is instead the most natural picture for the high-energy γ-ray emission of RX J1713.7–3946. The leptonic scenario however does not rule out the possibility that cosmic-ray nuclei are accelerated in this supernova remnant, but it suggests that the ambient density may not be high enough to produce a significant hadronic γ-ray emission. Further investigations involving other supernova remnants using the improved back- ground developed in this work could allow compelling population studies, and hence prove or disprove the origin of Galactic cosmic-ray nuclei in these astrophysical objects. A break- through regarding the identification of the radiation mechanisms could be lastly achieved with a new generation of instruments such as CTA. N2 - Eine der gegenwärtigen bedeutendsten geführten Diskussionen in der Astrophysik bezieht sich auf den Ursprung der hochenergetischen Kosmischen Strahlung. Nach unserem heutigen Verständnis weist die am Ort des Ursprungs elementare Zusam- mensetzung der Kosmischen Strahlung darauf hin, dass diese zu Beginn mittels nuklearer Prozesse im Inneren von Sternen gebildet wurde. Weiterhin wird ange- nommen, dass die Kosmische Strahlung bis 1018 eV galaktischen Ursprungs ist. Auch wenn das Verständnis über die potentiellen Quellen der Kosmischen Strahlung ober- halb von 1015 eV, dem sogenannten „Knie“ des Spektrums der Kosmischen Strah- lung, lückenhaft ist, so liegt doch der Konsens vor, dass Supernovaüberreste (SNR) die wahrscheinlichsten Quellen für Energien bis 1015 eV sind. Unterstützt wird die- ser Sachverhalt durch Beobachtungen von nichtthermischer Röntgenstrahlung von SNR, deren Emission Elektronen mit Energien bis zu 1014 eV erfordern. Jedoch gibt es bis heute keinen überzeugenden Beweis, dass SNR zusätzlich zu den Elektronen auch Atomkerne, die den dominierenden Anteil in der Kosmischen Strahlung bilden, beschleunigen. Trotz fehlender überzeugender Beweise ermöglichen nun Beobachtungen von SNR im γ-Strahlungsbereich einen vielversprechenden Weg zur Aufklärung der Fra- ge, ob diese astrophysikalischen Objekte in der Tat die Hauptquelle der Kosmischen Strahlung unterhalb des Knies sind. Kürzlich durchgeführte Beobachtungen im Welt- raum und auf der Erdoberfläche haben zu der Erkenntnis geführt, dass schalenartige SNR γ-Strahlung im GeV- und TeV-Bereich emittieren. Die Interpretation dieser Beobachtungen ist jedoch schwierig, da sowohl Atomkerne als auch Elektronen im betrachteten Energiebereich zu ähnlichen γ-Emissionen führen. Dadurch wird die eindeutige Identifizierung der Emission als das Resultat hadronischer oder leptoni- scher Emissionsprozesse erschwert. Das Ziel dieser Arbeit ist es, am Beispiel des schalenartigen SNR RX J1713.7- 3946 ein tieferes Verständnis über die Strahlungsprozesse zu erhalten, indem vom γ-Weltraumteleskop Fermi durchgeführte Beobachtungen analysiert werden. Um ge- naue Spektren und die Ausdehnung der Region der Emission zu erhalten, wird ein verbessertes Modell für die diffuse galaktische γ-Hintergrundstrahlung entwickelt. Die mit diesem verbesserten Hintergrund durchgeführte Analyse von RX J1713.7- 3946 zeigt, dass das vom Fermi-Satelliten beobachtete Spektrum nicht dem hadro- nischen Szenario zugeschrieben werden kann, sodass das leptonische Szenario für die γ-Emissionen von diesem SNR verantwortlich ist. Das leptonische Szenario schließt jedoch nicht die Möglichkeit aus, dass auch Atomkerne in diesem SNR beschleu- nigt werden. Aber es deutet darauf hin, dass die umgebende Teilchendichte nicht ausreichend hoch genug ist, um zu einer signifikanten hadronischen γ-Emission zu führen. Weitere Untersuchungen, die andere SNR in Kombination mit dem hier ent- wickelten verbesserten Modell der Hintergrundstrahlung beinhalten, können Popu- lationsstudien erlauben. Dies könnte klären, ob die SNR tatsächlich die Quellen der galaktischen Kosmischen Strahlung sind. Ein Durchbruch bezüglich der Identi- fikation des Strahlungsmechanismus könnte auch durch eine neue Generation von Beobachtungsinstrumenten, wie das Cherenkov Telescope Array, erreicht werden. KW - Supernovaüberrest KW - gamma-ray KW - cosmic-rays KW - supernova remnants Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71734 ER - TY - THES A1 - Feld, Christian T1 - Crustal structure of the Eratosthenes Seamount, Cyprus and S. Turkey from an amphibian wide-angle seismic profile T1 - Die Krustenstruktur von dem Eratosthenes Seeberg, Zypern und der Süd-Türkei anhand eines amphibischen seismischen Weitwinkel Profils N2 - In March 2010, the project CoCoCo (incipient COntinent-COntinent COllision) recorded a 650 km long amphibian N-S wide-angle seismic profile, extending from the Eratosthenes Seamount (ESM) across Cyprus and southern Turkey to the Anatolian plateau. The aim of the project is to reveal the impact of the transition from subduction to continent-continent collision of the African plate with the Cyprus-Anatolian plate. A visual quality check, frequency analysis and filtering were applied to the seismic data and reveal a good data quality. Subsequent first break picking, finite-differences ray tracing and inversion of the offshore wide-angle data leads to a first-arrival tomographic model. This model reveals (1) P-wave velocities lower than 6.5 km/s in the crust, (2) a variable crustal thickness of about 28 - 37 km and (3) an upper crustal reflection at 5 km depth beneath the ESM. Two land shots on Turkey, also recorded on Cyprus, airgun shots south of Cyprus and geological and previous seismic investigations provide the information to derive a layered velocity model beneath the Anatolian plateau and for the ophiolite complex on Cyprus. The analysis of the reflections provides evidence for a north-dipping plate subducting beneath Cyprus. The main features of this layered velocity model are (1) an upper and lower crust with large lateral changes of the velocity structure and thickness, (2) a Moho depth of about 38 - 45 km beneath the Anatolian plateau, (3) a shallow north-dipping subducting plate below Cyprus with an increasing dip and (4) a typical ophiolite sequence on Cyprus with a total thickness of about 12 km. The offshore-onshore seismic data complete and improve the information about the velocity structure beneath Cyprus and the deeper part of the offshore tomographic model. Thus, the wide-angle seismic data provide detailed insights into the 2-D geometry and velocity structures of the uplifted and overriding Cyprus-Anatolian plate. Subsequent gravity modelling confirms and extends the crustal P-wave velocity model. The deeper part of the subducting plate is constrained by the gravity data and has a dip angle of ~ 28°. Finally, an integrated analysis of the geophysical and geological information allows a comprehensive interpretation of the crustal structure related to the collision process. N2 - Im März 2010 wurden im Rahmen des "CoCoCo"-Projektes ein 650km langes amphibisches, seismisches Weitwinkel Profil aufgenommen. Dieses erstreckte sich von dem Eratosthenes Seeberg (ESM) über Zypern und der Süd-Türkei bis zum anatolischen Plateau. Das Hauptziel des Projektes ist es, den Einfluss zu untersuchen, der von dem Übergang eines Subduktion Prozesses hin zu einer Kontinent-Kontinent Kollision der afrikanischen Platte mit der zyprisch-anatolischen Platte hervorgerufen wird. Die seismischen Daten wurden einer visuelle Qualitätsüberprüfung, Frequenz-Analyse und Filterung unterzogen und zeigten eine gute Qualität. Das darauf folgende Picken der Ersteinstätze, eine Finite-Differenzen Raytracing und eine Inversion der offshore Weitwinkel Daten, führte zu einem Laufzeit Tomographie Model. Das Modell zeigt (1) P-Wellengeschwindigkeiten kleiner als 6.5 km/s in der Kruste, (2) eine variable Krustenmächtigkeit von 28 - 37 km und (3) eine obere Krustenreflektion in 5 km Tiefe unter dem ESM. Zwei Landschüsse in der Türkei, ebenfalls aufgenommen auf Zypern, Luftkanonen-Schüsse südlich von Zypern und vorausgegangene geologische und seismische Untersuchungen lieferten die Grundlage, um ein geschichtetes Geschwindigkeitsmodell für das anatolische Plateau und für den Ophiolith-Komplex auf Zypern abzuleiten. Die Analyse der Reflexionen liefert den Beweis für eine nach Norden einfallende Platte welche unter Zypern subduziert. Die Hauptkennzeichen dieses geschichteten Geschwindigkeitsmodelles sind (1) eine obere und untere Kruste mit starken lateral Änderungen in Geschwindigkeit und Mächtigkeit, (2) eine Mohotiefe in 38 - 45 km unter dem anatolischen Plateau, (3) eine flach nach Norden einfallende Platte unter Zypern mit ansteigendem Einfallwinkel und (4) eine typische Ophiolith Sequenz auf Zypern mit einer Gesamtmächtigkeit von 12 km. Die seismischen offshore / onshore Daten komplettieren und verbessern die bisherigen Kenntnisse über die Geschwindigkeitsstruktur unter Zypern und des tieferen Bereiches der offshore Tomographie. Damit liefert die Weitwinkel Seismik detaillierte Einblicke in die 2-D Geometrie und die Geschwindigkeitsstrukturen der angehobenen und überlagerten zyprisch-anatolischen Platte. Die darauf folgende Gravimetrie Modellierung bestätigt und erweitert das P-Wellen Krusten-Geschwindigkeits Modell. Der tiefere Teil der subduzierten Platte, welche einen Einfallswinkel von ~ 28° hat, wurde durch die Gravimetrie Daten belegt. Letztlich erlaubt eine ganzheitliche Analyse von geophysikalischen und geologischen Informationen die umfassende Interpretation der Krustenstruktur welche in Verbindung mit dem Kollisions Prozess steht. KW - incipient continent-continent collision KW - crustal structure of the Eratosthenes Seamount KW - controlled source wide angle seismic KW - crustal structure of south central Turkey KW - Cyprus arc KW - aktive Weitewinkel-Seismik KW - Krustenstruktur des Eratosthenes Seeberges KW - beginnende Kontinent-Kontinent Kollision KW - Krustenstruktur der Süd-Türkei KW - Zypernbogen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73479 ER - TY - THES A1 - Fronton, Ludivine T1 - Modeling approaches to characterize the disposition of monoclonal antibodies T1 - Modellierungsansätze zur Charakterisierung der Verteilung und Eliminierung monoklonaler Antikörper BT - from detailed PBPK models to classical compartment models BT - vom detaillierten PBPK-Model zum klassischen Kompartiment-Model N2 - Monoclonal antibodies (mAbs) are engineered immunoglobulins G (IgG) used for more than 20 years as targeted therapy in oncology, infectious diseases and (auto-)immune disorders. Their protein nature greatly influences their pharmacokinetics (PK), presenting typical linear and non-linear behaviors. While it is common to use empirical modeling to analyze clinical PK data of mAbs, there is neither clear consensus nor guidance to, on one hand, select the structure of classical compartment models and on the other hand, interpret mechanistically PK parameters. The mechanistic knowledge present in physiologically-based PK (PBPK) models is likely to support rational classical model selection and thus, a methodology to link empirical and PBPK models is desirable. However, published PBPK models for mAbs are quite diverse in respect to the physiology of distribution spaces and the parameterization of the non-specific elimination involving the neonatal Fc receptor (FcRn) and endogenous IgG (IgGendo). The remarkable discrepancy between the simplicity of biodistribution data and the complexity of published PBPK models translates in parameter identifiability issues. In this thesis, we address this problem with a simplified PBPK model—derived from a hierarchy of more detailed PBPK models and based on simplifications of tissue distribution model. With the novel tissue model, we are breaking new grounds in mechanistic modeling of mAbs disposition: We demonstrate that binding to FcRn is indeed linear and that it is not possible to infer which tissues are involved in the unspecific elimination of wild-type mAbs. We also provide a new approach to predict tissue partition coefficients based on mechanistic insights: We directly link tissue partition coefficients (Ktis) to data-driven and species-independent published antibody biodistribution coefficients (ABCtis) and thus, we ensure the extrapolation from pre-clinical species to human with the simplified PBPK model. We further extend the simplified PBPK model to account for a target, relevant to characterize the non-linear clearance due to mAb-target interaction. With model reduction techniques, we reduce the dimensionality of the simplified PBPK model to design 2-compartment models, thus guiding classical model development with physiological and mechanistic interpretation of the PK parameters. We finally derive a new scaling approach for anatomical and physiological parameters in PBPK models that translates the inter-individual variability into the design of mechanistic covariate models with direct link to classical compartment models, specially useful for PK population analysis during clinical development. N2 - Monoklonale Antikörper (mAbs) sind gentechnisch hergestellte Immunglobuline G (IgG), die seit mehr als 20 Jahren therapeutisch gezielt gegen spezifische Antigene eingesetzt werden. Die Hauptindikationen sind vor allem die Gebiete Onkologie, Infektions- und (Auto-)Immun-Erkrankungen. Monoklonale Antikörper sind hydrophile und geladene Moleküle mit hoher Affinität und Selektivität für ihr Target. Diese Eigenschaften haben einen groçen Einfluss auf die Pharmacokinetik (PK), wobei oft lineares und nicht-lineares Verhalten beobachtet wird. Mathematische Modelle, wie zum Beispiel empirische Modelle, werden routinemässig in der Forschung und Entwicklung verwendet, um die PK für mAbs zu charakterisieren. Hingegen sind physiologisch-basierte PK (PBPK) Modelle für mAbs nur begrenzt einsetzbar. Zur Identifikation und Quantifizierung der Variabilität in klinischen PK-Daten werden meistens empirische 2-Kompartiment Modelle für populationspharmakokinetischen Analysen eingesetzt. Allerdings gibt es weder einen klaren Konsens noch Richtlinien, um lineare und nicht-lineare Clearances zu erklären und um physiologische und mechanistische PK-Parameter zu interpretieren. Prädiktive PBPK-Modelle, die für mAbs publiziert wurden, sind sehr unterschiedlich in Bezug auf die betrachteten Verteilungsvolumina (vaskulär, interstitiell, endosomal) und die Parametrisierung der nicht-spezifischen Elimination durch den neonatalen Fc-Rezeptor und endogenes IgG. Je detaillierter die Beschreibung dieser Prozesse ist, desto mehr Parameter werden benötigt. Allerdings sind deren Werte oftmals nicht bekannt. Dies führt zu Problemen in der Identifizierbarkeit bei den üblicherweise zur Verfügung stehenden in vivo Verteilungsdaten. In der vorliegenden Doktorarbeit präsentieren wir hierarchisch aufgebaute PBPK Modelle für mAbs. Dazu gehören detaillierte, intermediäre und vereinfachte Modelle, deren Ableitungen auf Simplifizierungen des Gewebe-Verteilungs-Modells basieren. Mit dem neuen, vereinfachten PBPK Modell können wir einen Einblick in die mechanistische Interpretation von Gewebe-Verteilungskoeffizienten geben. Diese können mit publizierten, auf Daten basierenden Antikörper Biodistributions Koeffizienten verglichen werden. Weiterhin erlaubt ein simplifiziertes Modell Parameter Identifizierbarkeit und die Auswahl an Gewebe, die bei der nicht-spezifischen Eliminierung der mAbs eine Rolle spielen. Das vereinfachte PBPK Modell kann nach Bedarf um ein Target erweitert werden, das relevant ist für die nicht-lineare Clearance in Folge einer mAb-Target Interaktion zu erklären. Mit Hilfe von Techniken zur Modell-Reduktion reduzieren wir das vereinfachte PBPK Modell, um Kompartiment-Modelle mit niedriger Dimensionalität zu entwickeln. Dadurch wird die physiologische und mechanistische Interpretation der PK Parameter garantiert. Zuletzt leiten wir eine neue Skalierungsmethode für anatomische und physiologische Parameter ab. Sie ermöglicht die Translation der inter-individuellen Variabilität in das Design eines mechanistischen Covariat-Models mit direktem Link zu klassischen Kompartiment-Modellen. Dies ist vor allem für populationspharmakokinetischen Analysen wÃdhrend der klinischen Entwicklung hilfreich. KW - mAb disposition KW - PBPK KW - extravasation-rate limited tissue model KW - classical compartment model KW - mAb Disposition KW - PBPK KW - Extravasation-rate limited Gewebemodelle KW - Kompartiment-Modelle Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76537 ER - TY - THES A1 - Fudickar, Sebastian T1 - Sub Ghz transceiver for indoor localisation of smartphones BT - Optimising localisation accuracy and device runtimes Y1 - 2014 ER - TY - THES A1 - Gaßmöller, René T1 - The interaction of subducted slabs and plume generation zones in geodynamic models Y1 - 2014 ER - TY - THES A1 - Gericke, Lutz T1 - Tele-Board - Supporting and analyzing creative collaboration in synchronous and asynchronous scenario Y1 - 2014 ER - TY - THES A1 - Girbig, Dorothee T1 - Analysing concerted criteria for local dynamic properties of metabolic systems T1 - Die Analyse koordinierter Kriterien für lokale dynamische Eigenschaften metabolischer Systeme N2 - Metabolic systems tend to exhibit steady states that can be measured in terms of their concentrations and fluxes. These measurements can be regarded as a phenotypic representation of all the complex interactions and regulatory mechanisms taking place in the underlying metabolic network. Such interactions determine the system's response to external perturbations and are responsible, for example, for its asymptotic stability or for oscillatory trajectories around the steady state. However, determining these perturbation responses in the absence of fully specified kinetic models remains an important challenge of computational systems biology. Structural kinetic modeling (SKM) is a framework to analyse whether a metabolic steady state remains stable under perturbation, without requiring detailed knowledge about individual rate equations. It provides a parameterised representation of the system's Jacobian matrix in which the model parameters encode information about the enzyme-metabolite interactions. Stability criteria can be derived by generating a large number of structural kinetic models (SK-models) with randomly sampled parameter sets and evaluating the resulting Jacobian matrices. The parameter space can be analysed statistically in order to detect network positions that contribute significantly to the perturbation response. Because the sampled parameters are equivalent to the elasticities used in metabolic control analysis (MCA), the results are easy to interpret biologically. In this project, the SKM framework was extended by several novel methodological improvements. These improvements were evaluated in a simulation study using a set of small example pathways with simple Michaelis Menten rate laws. Afterwards, a detailed analysis of the dynamic properties of the neuronal TCA cycle was performed in order to demonstrate how the new insights obtained in this work could be used for the study of complex metabolic systems. The first improvement was achieved by examining the biological feasibility of the elasticity combinations created during Monte Carlo sampling. Using a set of small example systems, the findings showed that the majority of sampled SK-models would yield negative kinetic parameters if they were translated back into kinetic models. To overcome this problem, a simple criterion was formulated that mitigates such infeasible models and the application of this criterion changed the conclusions of the SKM experiment. The second improvement of this work was the application of supervised machine-learning approaches in order to analyse SKM experiments. So far, SKM experiments have focused on the detection of individual enzymes to identify single reactions important for maintaining the stability or oscillatory trajectories. In this work, this approach was extended by demonstrating how SKM enables the detection of ensembles of enzymes or metabolites that act together in an orchestrated manner to coordinate the pathways response to perturbations. In doing so, stable and unstable states served as class labels, and classifiers were trained to detect elasticity regions associated with stability and instability. Classification was performed using decision trees and relevance vector machines (RVMs). The decision trees produced good classification accuracy in terms of model bias and generalizability. RVMs outperformed decision trees when applied to small models, but encountered severe problems when applied to larger systems because of their high runtime requirements. The decision tree rulesets were analysed statistically and individually in order to explore the role of individual enzymes or metabolites in controlling the system's trajectories around steady states. The third improvement of this work was the establishment of a relationship between the SKM framework and the related field of MCA. In particular, it was shown how the sampled elasticities could be converted to flux control coefficients, which were then investigated for their predictive information content in classifier training. After evaluation on the small example pathways, the methodology was used to study two steady states of the neuronal TCA cycle with respect to their intrinsic mechanisms responsible for stability or instability. The findings showed that several elasticities were jointly coordinated to control stability and that the main source for potential instabilities were mutations in the enzyme alpha-ketoglutarate dehydrogenase. N2 - Metabolische Systeme neigen zur Ausbildung von Fließgleichgewichten, deren Konzentrationen und Reaktionsflüsse experimentell charakterisierbar sind. Derartige Messungen bieten eine phänotypische Repräsentation der zahlreichen Interaktionen und regulatorischen Mechanismen des zugrundeliegenden metabolischen Netzwerks. Diese Interaktionen bestimmen die Reaktion des Systems auf externe Perturbationen, wie z.B. dessen asymptotische Stabilität und Oszillationen. Die Charakterisierung solcher Eigenschaften ist jedoch schwierig, wenn kein entsprechendes kinetisches Modell mit allen Ratengleichungen und kinetischen Parametern für das untersuchte System zur Verfügung steht. Die strukturelle kinetische Modellierung (SKM) ermöglicht die Untersuchung dynamischer Eigenschaften wie Stabilität oder Oszillationen, ohne die Ratengleichungen und zugehörigen Parameter im Detail zu kennen. Statt dessen liefert sie eine parametrisierte Repräsentation der Jacobimatrix, in welcher die einzelnen Parameter Informationen über die Sättigung der Enzyme des Systems mit ihren Substraten kodieren. Die Parameter entsprechen dabei den Elastizitäten aus der metabolischen Kontrollanalyse, was ihre biologische Interpretation vereinfacht. Stabilitätskriterien werden durch Monte Carlo Verfahren hergeleitet, wobei zunächst eine große Anzahl struktureller kinetische Modelle (SK-Modelle) mit zufällig gezogenen Parametermengen generiert, und anschließend die resultierenden Jacobimatrizen evaluiert werden. Im Anschluss kann der Parameterraum statistisch analysiert werden, um Enzyme und Metabolite mit signifikantem Einfluss auf die Stabilität zu detektieren. In der vorliegenden Arbeit wurde das bisherige SKM-Verfahren durch neue methodische Verbesserungen erweitert. Diese Verbesserungen wurden anhand einer Simulationsstudie evaluiert, welche auf kleinen Beispielsystemen mit einfachen Michaelis Menten Kinetiken basierte. Im Anschluss wurden sie für eine detaillierte Analyse der dynamischen Eigenschaften des Zitratzyklus verwendet. Die erste Erweiterung der bestehenden Methodik wurde durch Untersuchung der biologischen Machbarkeit der zufällig erzeugten Elastizitäten erreicht. Es konnte gezeigt werden, dass die Mehrheit der zufällig erzeugten SK-Modelle zu negativen Michaeliskonstanten führt. Um dieses Problem anzugehen, wurde ein einfaches Kriterium formuliert, welches das Auftreten solcher biologisch unrealistischer SK-Modelle verhindert. Es konnte gezeigt werden, dass die Anwendung des Kriteriums die Ergebnisse von SKM Experimenten stark beeinflussen kann. Der zweite Beitrag bezog sich auf die Analyse von SKM-Experimenten mit Hilfe überwachter maschineller Lernverfahren. Bisherige SKM-Studien konzentrierten sich meist auf die Detektion individueller Elastizitäten, um einzelne Reaktionen mit Einfluss auf das Stabilitäts- oder oszillatorische Verhalten zu identifizieren. In dieser Arbeit wurde demonstriert, wie SKM Experimente im Hinblick auf multivariate Muster analysiert werden können, um Elastizitäten zu entdecken, die gemeinsam auf orchestrierte und koordinierte Weise die Eigenschaften des Systems bestimmen. Sowohl Entscheidungsbäume als auch Relevanzvektormaschinen (RVMs) wurden als Klassifikatoren eingesetzt. Während Entscheidungsbäume im allgemeinen gute Klassifikationsergebnisse lieferten, scheiterten RVMs an ihren großen Laufzeitbedürfnissen bei Anwendung auf ein komplexes System wie den Zitratzyklus. Hergeleitete Entscheidungsbaumregeln wurden sowohl statistisch als auch individuell analysiert, um die Koordination von Enzymen und Metaboliten in der Kontrolle von Trajektorien des Systems zu untersuchen. Der dritte Beitrag, welcher in dieser Arbeit vorgestellt wurde, war die Etablierung der Beziehung zwischen SKM und der metabolischer Kontrollanalyse. Insbesondere wurde gezeigt, wie die zufällig generierten Elastizitäten in Flusskontrollkoeffizienten umgewandelt werden. Diese wurden im Anschluss bezüglich ihres Informationsgehaltes zum Klassifikationstraining untersucht. Nach der Evaluierung anhand einiger kleiner Beispielsysteme wurde die neue Methodik auf die Studie zweier Fließgleichgewichte des neuronalen Zitratzyklus angewandt, um intrinsische Mechanismen für Stabilität oder Instabilität zu finden. Die Ergebnisse identifizierten Mutationen im Enzym alpha-ketoglutarate dehydrogenase als wahrscheinlichste Quelle füur Instabilitäten. KW - Systembiologie KW - mathematische Modellierung KW - systems biology KW - mathematical modeling Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72017 ER - TY - THES A1 - Goldshteyn, Jewgenij T1 - Frequency-resolved ultrafast dynamics of phonon polariton wavepackets in the ferroelectric crystals LiNbO₃ and LiTaO₃ N2 - During this work I built a four wave mixing setup for the time-resolved femtosecond spectroscopy of Raman-active lattice modes. This setup enables to study the selective excitation of phonon polaritons. These quasi-particles arise from the coupling of electro-magnetic waves and transverse optical lattice modes, the so-called phonons. The phonon polaritons were investigated in the optically non-linear, ferroelectric crystals LiNbO₃ and LiTaO₃. The direct observation of the frequency shift of the scattered narrow bandwidth probe pulses proofs the role of the Raman interaction during the probe and excitation process of phonon polaritons. I compare this experimental method with the measurement where ultra-short laser pulses are used. The frequency shift remains obscured by the relative broad bandwidth of these laser pulses. In an experiment with narrow bandwidth probe pulses, the Stokes and anti-Stokes intensities are spectrally separated. They are assigned to the corresponding counter-propagating wavepackets of phonon polaritons. Thus, the dynamics of these wavepackets was separately studied. Based on these findings, I develop the mathematical description of the so-called homodyne detection of light for the case of light scattering from counter propagating phonon polaritons. Further, I modified the broad bandwidth of the ultra-short pump pulses using bandpass filters to generate two pump pulses with non-overlapping spectra. This enables the frequency-selective excitation of polariton modes in the sample, which allows me to observe even very weak polariton modes in LiNbO₃ or LiTaO₃ that belong to the higher branches of the dispersion relation of phonon polaritons. The experimentally determined dispersion relation of the phonon polaritons could therefore be extended and compared to theoretical models. In addition, I determined the frequency-dependent damping of phonon polaritons. N2 - Während dieser Arbeit habe ich ein optisches Vier-Wellen-Misch-Experiment aufgebaut, um zeitaufgelöste Femtosekunden-Spektroskopie von Raman-aktiven Gittermoden durchzuführen. Dieser Aufbau erlaubt die Untersuchung selektiv angeregter Phonon Polaritonen. Diese Quasiteilchen entstehen durch die Kopplung von elektromagnetischen Wellen und transversal-optischer Gittermoden, den sogenannten Phononen. Die Phonon Polaritonen wurden in den optisch nichtlinearen, ferroelektrischen Kristallen LiNbO₃ und LiTaO₃ untersucht. Durch die direkte Beobachtung der Frequenzverschiebung der gestreuten, schmalbandigen Abfragepulse konnte die Raman-Wechselwirkung im Abfrage- und Erzeugungsprozess von Phonon Polaritonen nachgewießen werden. Diese experimentelle Methode vergleiche ich mit der Messung mittels ultrakurzen Laserpulsen. Hierbei ist die Frequenzverschiebung wegen der relativ großen Bandbreite der Laserpulse nicht auflösbar. Die Stokes und Anti-Stokes-Intensitäten sind hingegen in einem Experiment mit schmalbandigen Abfragepulsen spektral getrennt. Diese konnten den jeweiligen, entgegengesetzt propagierenden Wellenpaketen der Phonon Polaritonen zugeordnet werden. Deshalb war es moeglich, die Dynamik dieser Wellenpakete einzeln zu untersuchen. Basierend auf diesen Erkenntnissen konnte ich eine mathematische Beschreibung der sogenannten homodynen Detektion des Lichtes für den Fall von Lichtstreuung an entgegengesetzt propagierenden Phonon Polaritonen entwickeln. Desweiteren habe ich die breitbandigen, ultrakurzen Pumppulse mithilfe von zwei Bandpassfiltern so modifiziert, dass zwei spektral unterschiedliche und spektral nicht überlappende Anregepulse zur Verfügung standen. Dadurch wurde die frequenz-selektive Anregung von Polariton-Moden in der Probe ermöglicht. Diese Technik erlaubt mir die Untersuchung auch sehr schwacher Gittermoden in LiNbO₃ und LiTaO₃, die zu den höheren Ästen der Dispersionsrelation der Phonon Polaritonen gehören. Die experimentell bestimmte Dispersionsrelation der Phonon Polaritonen wurde erweitert und mit theoretischen Modellen verglichen. Zusätzlich habe ich die frequenzabhängige Dämpfung der Phonon Polaritonen bestimmt. T2 - Frequenzaufgelöste ultraschnelle Dynamik von Phonon Polariton Wellenpaketen in ferroelektrischen Kristallen LiNbO₃ und LiTaO₃ KW - transient grating KW - time resolved spectroskopy KW - non-linear optics KW - phonon polariton KW - impulsive stimulated Raman scattering KW - transientes Gitter KW - zeitaufgelöste Spektroskopie KW - nichtlineare Optik KW - Phonon-Polariton KW - impulsive stimulierte Raman Streuung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-71623 ER - TY - THES A1 - Goswami, Bedartha T1 - Uncertainties in climate data analysis T1 - Unsicherheiten in der Analyse von Klimadaten BT - Perspectives on working with measurement errors and other unknowns BT - Über Möglichkeiten der Arbeit mit Meßfehlern und anderen Unbekannten N2 - Scientific inquiry requires that we formulate not only what we know, but also what we do not know and by how much. In climate data analysis, this involves an accurate specification of measured quantities and a consequent analysis that consciously propagates the measurement errors at each step. The dissertation presents a thorough analytical method to quantify errors of measurement inherent in paleoclimate data. An additional focus are the uncertainties in assessing the coupling between different factors that influence the global mean temperature (GMT). Paleoclimate studies critically rely on `proxy variables' that record climatic signals in natural archives. However, such proxy records inherently involve uncertainties in determining the age of the signal. We present a generic Bayesian approach to analytically determine the proxy record along with its associated uncertainty, resulting in a time-ordered sequence of correlated probability distributions rather than a precise time series. We further develop a recurrence based method to detect dynamical events from the proxy probability distributions. The methods are validated with synthetic examples and demonstrated with real-world proxy records. The proxy estimation step reveals the interrelations between proxy variability and uncertainty. The recurrence analysis of the East Asian Summer Monsoon during the last 9000 years confirms the well-known `dry' events at 8200 and 4400 BP, plus an additional significantly dry event at 6900 BP. We also analyze the network of dependencies surrounding GMT. We find an intricate, directed network with multiple links between the different factors at multiple time delays. We further uncover a significant feedback from the GMT to the El Niño Southern Oscillation at quasi-biennial timescales. The analysis highlights the need of a more nuanced formulation of influences between different climatic factors, as well as the limitations in trying to estimate such dependencies. N2 - Wissenschaftliche Untersuchungen setzen nicht nur eine Formulierung des gegenwärtigen Kenntnisstandes mitsamt ihrer Unsicherheiten voraus, sondern ebenso eine Eingrenzung des Unbekannten. Bezogen auf die Analyse von Klimadaten beinhaltet dies eine präzise Spezifikation gemessener Größen sowie eine durchgängige Berücksichtigung ihrer Messunsicherheiten in allen Schritten der Analyse. Diese Dissertation präsentiert eine analytische Methode zur Quantifizierung der in Paläoklimadaten inhärenten Messunsicherheiten. Ein weiterer Schwerpunkt liegt auf der Untersuchung von Unsicherheiten in der Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die globale Durchschnittstemperatur (GMT global mean temperature) beeinflussen. Die Paläoklimaforschung beruht in kritischem Maße auf der Analyse von Proxydaten welche die Klimaentwicklung dokumentieren. Allerdings sind Proxydaten mit inhärenten Datierungsunsicherheiten behaftet. Basierend auf einem generischen Bayes’schen Ansatz wird in dieser Dissertation eine analytische Methode vorgestellt um aus den zeitlich unsicheren Proxydaten zeitlich präzise Folgen korrelierter Wahrscheinlichkeitsverteilungen zu erhalten. Von diesen Verteilungen werden Proxyzeitreihen zusammen mit ihren Unsicherheiten berechnet. Weiterhin wird eine rekurrenzbasierte Methode zur Analyse von Proxydaten entwickelt welche anhand dieser Wahrscheinlichkeitsverteilungen plötzliche Änderungen in der Dynamik des Systems ermittelt. Beide Methoden werden mit Hilfe synthetischer Beispieldaten validiert und mit realen Proxydaten demonstriert. Diese statistische Analyse von Proxydaten deckt unteranderem die Beziehungen zwischen der Variabilität der Daten und zugehöriger Unsicherheiten der Proxyzeitreihen auf. Die Re- kurrenzanalyse des Ostasiatischen Sommermonsuns bestätigt die bekannten Trockenzeiten der letzten 9.000 Jahre um 8.200 bzw. 4.400 Jahre vor unserer Zeit und deckt eine zusätzliche Trockenzeit um etwa 6.900 Jahre vor unserer Zeit auf. Die Kopplungsstruktur zwischen Klimafaktoren die bekanntermaßen die GMT beeinflussen lässt sich als ein verworrenes, gerichtetes Netzwerk mit multiplen Links, welche zu verschiedenen Zeitskalen gehören, darstellen. Speziell ergibt sich eine signifikante Wechselwirkung zwischen der GMT und dem ENSO-Phänomen (El Niño-Southern Oscillation) auf einer quasi-zweijährigen Zeitskala. Einerseits beleuchtet diese Analyse die Notwendigkeit Einflüsse verschiedener Klimafaktoren auf die GMT nuancierter zu formulieren, andererseits werden die Grenzen der Quantifizierung dieser Einflüsse aufgezeigt. KW - data analysis KW - Bayesian estimation KW - Bayessche Schätzer KW - Datenanalyse Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78312 ER - TY - THES A1 - Grigoli, Francesco T1 - Automated seismic event location by waveform coherence analysis T1 - Die automatische Lokalisierung von Mikroerdbeben durch die Wellenform Kohärenzanalyse N2 - Automated location of seismic events is a very important task in microseismic monitoring operations as well for local and regional seismic monitoring. Since microseismic records are generally characterised by low signal-to-noise ratio, such methods are requested to be noise robust and sufficiently accurate. Most of the standard automated location routines are based on the automated picking, identification and association of the first arrivals of P and S waves and on the minimization of the residuals between theoretical and observed arrival times of the considered seismic phases. Although current methods can accurately pick P onsets, the automatic picking of the S onset is still problematic, especially when the P coda overlaps the S wave onset. In this thesis I developed a picking free automated method based on the Short-Term-Average/Long-Term-Average (STA/LTA) traces at different stations as observed data. I used the STA/LTA of several characteristic functions in order to increase the sensitiveness to the P wave and the S waves. For the P phases we use the STA/LTA traces of the vertical energy function, while for the S phases, we use the STA/LTA traces of the horizontal energy trace and then a more optimized characteristic function which is obtained using the principal component analysis technique. The orientation of the horizontal components can be retrieved by robust and linear approach of waveform comparison between stations within a network using seismic sources outside the network (chapter 2). To locate the seismic event, we scan the space of possible hypocentral locations and origin times, and stack the STA/LTA traces along the theoretical arrival time surface for both P and S phases. Iterating this procedure on a three-dimensional grid we retrieve a multidimensional matrix whose absolute maximum corresponds to the spatial and temporal coordinates of the seismic event. Location uncertainties are then estimated by perturbing the STA/LTA parameters (i.e the length of both long and short time windows) and relocating each event several times. In order to test the location method I firstly applied it to a set of 200 synthetic events. Then we applied it to two different real datasets. A first one related to mining induced microseismicity in a coal mine in the northern Germany (chapter 3). In this case we successfully located 391 microseismic event with magnitude range between 0.5 and 2.0 Ml. To further validate the location method I compared the retrieved locations with those obtained by manual picking procedure. The second dataset consist in a pilot application performed in the Campania-Lucania region (southern Italy) using a 33 stations seismic network (Irpinia Seismic Network) with an aperture of about 150 km (chapter 4). We located 196 crustal earthquakes (depth < 20 km) with magnitude range 1.1 < Ml < 2.7. A subset of these locations were compared with accurate locations retrieved by a manual location procedure based on the use of a double difference technique. In both cases results indicate good agreement with manual locations. Moreover, the waveform stacking location method results noise robust and performs better than classical location methods based on the automatic picking of the P and S waves first arrivals. N2 - Die automatische Lokalisierung seismischer Ereignisse ist eine wichtige Aufgabe, sowohl im Bereich des Mikroseismischen Monitorings im Bergbau und von Untegrund Aktivitäten,  wie auch für die lokale und regionale Überwachung von natürlichen Erdbeben. Da mikroseismische Datensätze häufig ein schlechtes Signal-Rausch-Verhältnis haben müssen die Lokalisierungsmethoden robust gegen Rauschsignale und trotzdem hinreichend genau sein. Aufgrund der in der Regel sehr hochfrequent aufgezeichneten Messreihen und der dadurch sehr umfangreichen Datensätze sind automatische Auswertungen erstrebenswert. Solche Methoden benutzen in der Regel automatisch gepickte und  den P und S Phasen zugeordnete Ersteinsätze und Minimieren die Summe der quadratischen Zeitdifferenz zwischen den beobachteten und theoretischen Einsatzzeiten. Obgleich das automatische Picken der P Phase in der Regel sehr genau möglich ist, hat man beim Picken der S Phasen häufig Probleme, z.B. wenn die Coda der P Phase sehr lang ist und in den Bereich der S Phase hineinreicht. In dieser Doktorarbeit wird eine Methode vollautomatische, Wellenform-basierte Lokalisierungsmethode entwickelt, die Funktionen des Verhältnisses "Short Term Average / Long Term Average"  (STA/LTA) verwendet und keine Pickzeiten invertiert. Die STA/LTA charakteristische Funktion wurde für unterschiedliche Wellenform Attribute getestet, um die Empfindlichkeit für P und S Phasen zu erhöhen. Für die P Phase wird die STA/LTA Funktion für die Energie der Vertikalkomponente der Bodenbewegung benutzt, wohingegen für die S Phase entweder die Energie der horizontalen Partikelbewegung oder eine optimierte Funktion auf Basis der Eigenwertzerlegung benutzt wird. Um die Ereignisse zu lokalisieren wird eine Gittersuche über alle möglichen Untergrundlokalisierungen durchgeführt. Für jeden räumlichen und zeitlichen Gitterpunkt werden die charakteristischen Funktionen entlang der theoretischen Einsatzkurve aufsummiert. Als Ergebnis erhält man eine 4-dimensionale Matrix über Ort und Zeit des Ereignisses, deren Maxima die wahrscheinlichsten Lokalisierungen darstellen. Um die Unsicherheiten der Lokalisierung abzuschätzen wurden die Parameter der STA/LTA Funktionen willkürlich verändert und das Ereignis relokalisiert. Die Punktwolke aller möglichen Lokalisierungen gibt ein Maß für die Unsicherheit des Ergebnisses. Die neu entwickelte Methode wurde an einem synthetischen Datensatz von 200 Ereignissen getestet und für zwei beobachtete Datensätze demonstriert. Der erste davon betrifft induzierte Seismizität in einem Kohlebergbau in Norddeutschland. Es wurden 391 Mikrobeben mit Magnituden zwischen Ml 0.5 und 2.0 erfolgreich lokalisiert und durch Vergleich mit manuell ausgewerteten Lokalisierungen verifziert.Der zweite Datensatz stammt von einem Anwednung auf des Regionale Überwachungsnetz in der Region Campania-Lucania (Süditalien)  mit 33 seismischen Stationen und einer Apertur von etwa 150 km. Wir konnten 196 Erdbeben mit Tiefen < 20 km und Magnituden zwischen Ml 1.1 und 2.7 lokalisieren. Eine Untergruppe der eigenen Lokalisierungen wurde mit den Lokalisierungen einer Standard Lokalisierung sowie einer  hochgenauen Relativlokalisierung verglichen. In beiden Fällen ist die Übereinstimmung mit den manuellen Lokalisierungen groß. Außerdem finden wir, dass die Wellenform Summations Lokalisierung ronbust gegen Rauschen ist und bessere Ergebnisse liefert als die Standard Lokalisierung, die auf dem automatischen Picken von Ersteinsatzzeiten alleine basiert. KW - earthquake location KW - induced seismicity KW - microseismicity Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70329 ER - TY - THES A1 - Guzman-Perez, Valentina T1 - Effect of benzylglucosinolate on signaling pathways associated with type 2 diabetes prevention T1 - Wirkung von benzylglucosinolate auf Signalwege mit Type 2 diabetes Prävention zugeordnet N2 - Type 2 diabetes (T2D) is a health problem throughout the world. In 2010, there were nearly 230 million individuals with diabetes worldwide and it is estimated that in the economically advanced countries the cases will increase about 50% in the next twenty years. Insulin resistance is one of major features in T2D, which is also a risk factor for metabolic and cardiovascular complications. Epidemiological and animal studies have shown that the consumption of vegetables and fruits can delay or prevent the development of the disease, although the underlying mechanisms of these effects are still unclear. Brassica species such as broccoli (Brassica oleracea var. italica) and nasturtium (Tropaeolum majus) possess high content of bioactive phytochemicals, e.g. nitrogen sulfur compounds (glucosinolates and isothiocyanates) and polyphenols largely associated with the prevention of cancer. Isothiocyanates (ITCs) display their anti-carcinogenic potential by inducing detoxicating phase II enzymes and increasing glutathione (GSH) levels in tissues. In T2D diabetes an increase in gluconeogenesis and triglyceride synthesis, and a reduction in fatty acid oxidation accompanied by the presence of reactive oxygen species (ROS) are observed; altogether is the result of an inappropriate response to insulin. Forkhead box O (FOXO) transcription factors play a crucial role in the regulation of insulin effects on gene expression and metabolism, and alterations in FOXO function could contribute to metabolic disorders in diabetes. In this study using stably transfected human osteosarcoma cells (U-2 OS) with constitutive expression of FOXO1 protein labeled with GFP (green fluorescent protein) and human hepatoma cells HepG2 cell cultures, the ability of benzylisothiocyanate (BITC) deriving from benzylglucosinolate, extracted from nasturtium to modulate, i) the insulin-signaling pathway, ii) the intracellular localization of FOXO1 and iii) the expression of proteins involved in glucose metabolism, ROS detoxification, cell cycle arrest and DNA repair was evaluated. BITC promoted oxidative stress and in response to that induced FOXO1 translocation from cytoplasm into the nucleus antagonizing the insulin effect. BITC stimulus was able to down-regulate gluconeogenic enzymes, which can be considered as an anti-diabetic effect; to promote antioxidant resistance expressed by the up-regulation in manganese superoxide dismutase (MnSOD) and detoxification enzymes; to modulate autophagy by induction of BECLIN1 and down-regulation of the mammalian target of rapamycin complex 1 (mTORC1) pathway; and to promote cell cycle arrest and DNA damage repair by up-regulation of the cyclin-dependent kinase inhibitor (p21CIP) and Growth Arrest / DNA Damage Repair (GADD45). Except for the nuclear factor (erythroid derived)-like2 (NRF2) and its influence in the detoxification enzymes gene expression, all the observed effects were independent from FOXO1, protein kinase B (AKT/PKB) and NAD-dependent deacetylase sirtuin-1 (SIRT1). The current study provides evidence that besides of the anticarcinogenic potential, isothiocyanates might have a role in T2D prevention. BITC stimulus mimics the fasting state, in which insulin signaling is not triggered and FOXO proteins remain in the nucleus modulating gene expression of their target genes, with the advantage of a down-regulation of gluconeogenesis instead of its increase. These effects suggest that BITC might be considered as a promising substance in the prevention or treatment of T2D, therefore the factors behind of its modulatory effects need further investigation. N2 - Diabetes mellitus Typ 2 stellt auf der ganzen Welt ein Gesundheitsproblem dar. Im Jahr 2010 waren annähernd 230 Millionen Personen weltweit an Diabetes erkrankt und innerhalb der nächsten 20 Jahre wird in industrialisierten Ländern eine Steigerung der Fälle um 50% erwartet. Eines der Hauptmerkmale des Typ 2 Diabetes ist die Insulinresistenz, die auch als Risikofaktor für metabolische und kardio-vaskuläre Komplikationen gilt. Epidemiologische Studien und Tierversuche haben ergeben, dass durch Verzehr von Gemüse und Obst eine Prävention oder Verzögerung der Entwicklung dieser Krankheit erreicht werden kann, jedoch sind die zugrunde liegenden Mechanismen dieser Effekte noch nicht aufgeklärt. Brassica Spezies wie Broccoli (Brassica oleracea var. italica) und Nasturtium (Tropaeolum majus) enthalten einen hohen Anteil an bioaktiven Pflanzen-inhaltsstoffen, wie z. B. stickstoff- und schwefelhaltige Verbindungen (Glukosinolate und Isothiocyanate) und Polyphenole, die bisher hauptsächlich mit der Prävention von Krebs assoziiert wurden. Isothiocyanate (ITCs) erreichen ihr antikanzerogenes Potential durch die Induktion von entgiftenden Phase II Enzymen und eine Anhebung der Glutathion (GSH)-Spiegel im Gewebe. Diabetes Typ2 geht einher mit einem Anstieg der Glukoneogenese und Triglycerid-Synthese, sowie einer Reduktion der Fettsäure-Oxidation in Verbindung mit erhöhten Spiegeln an reaktiven Sauerstoffspezies (ROS) insgesamt als Resultat einer unangemessenen Insulinantwort. Forkhead box O (FOXO) Transkriptionsfaktoren spielen eine wesentliche Rolle in der Regulation der Insulineffekte in Bezug auf die vermittelte Genexpression und den Metabolismus, wobei Veränderungen in der Funktion von FOXO zu metabolischen Entgleisungen im Diabetes beitragen können. In dieser Studie wurde unter Verwendung von stabil transfizierten humanen Osteosarkoma-Zellen (U-2 OS) mit konstitutiver Expression von GFP (grün fluoreszierendes Protein)-markiertem FOXO1 und humanen Hepatoma-Zellen (HepG2) die Wirkung von Benzylisothiocyanat (BITC), dessen Vorstufe Benzylglukosinolat aus Nasturtium isoliert wurde, in Zellkulturen evaluiert wie Modulationen der i) Insulin-Signal-Kaskade, ii) intrazellulären Lokalisation von FOXO1 und iii) Expression beteiligter Proteine am Glucose Metabolismus, der ROS Detoxifikation, Zellzyklus-Fixierung und DNA-Reparatur. BITC erzeugte oxidativen Stress und induzierte als Antwort darauf eine Translokation von FOXO1 aus dem Zytoplasma in den Zellkern antagonisierend zum Insulin-Effekt. Eine Stimultion mit BITC war in der Lage, die Expression von Enzymen der Gluconeogenese herunter zu regulieren, was als antidiabetogener Effekt betrachtet werden kann, eine antioxidative Resistenz durch Induktion der Mangan-Superoxid-Dismutase (MnSOD) und entgiftender Enzyme zu erzeugen, Autophagie zu modulieren durch Induktion von BECLIN1 und Herunterregulation des „mammalian target of rapamycin complex1 (mTORC1)-Stoffwechselwegs, den Zellzyklus zu fixieren und DNA-Reparatur zu induzieren durch Hochregulation des Cyclin- abhängigen Kinase- Inhibitors p21CIP und GADD45 (growth arrest and DNA damage repair). Mit Ausnahme des nuklearen Faktors (erythroid derived)-like2 (NRF2) und dessen Einfluss auf die Genexpression von Entgiftungsenzymen waren alle beobachteten Effekte unabhängig von FOXO1, Proteinkinase B (PKB/AKT) und der NAD-abhängigen Deacetylase Sirtuin-1 (SIRT1). Die gegenwärtige Studie liefert Anhaltspunkte dafür, dass Isothiocayanate neben dem antikanzerogenen Potential eine Rolle bei der Prävention von Typ 2 Diabetes spielen könnten. BITC-Stimulationen ahmen einen Fastenzustand nach, in dem kein Insulin-Signal ausgelöst wird, FOXO Proteine im Zellkern verbleiben und die Expression von Target-Genen modulieren, mit dem Vorteil einer Herunterregulation der Glukoneogenese anstelle seiner Zunahme. Diese Effekte legen nahe, dass BITC als vielversprechende Substanz zur Prävention und Behandlung von Typ 2 Diabetes angesehen werden könnte. Deshalb benötigen die Faktoren, die dessen modulatorische Effekte hervorrufen, weitere Untersuchungen. KW - FOXO1 KW - Benzylisothiocyanat KW - Glukosinolaten KW - type 2 diabetes KW - Zellkulturen KW - FOXO1 KW - benzylisothiocyanate KW - glucosinolates KW - type 2 diabetes KW - cell cuture Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72351 ER - TY - THES A1 - Hebig, Regina T1 - Evolution of model-driven engineering settings in practice T1 - Evolution von Modelgetriebenen Entwicklungssettings in der Praxis N2 - Nowadays, software systems are getting more and more complex. To tackle this challenge most diverse techniques, such as design patterns, service oriented architectures (SOA), software development processes, and model-driven engineering (MDE), are used to improve productivity, while time to market and quality of the products stay stable. Multiple of these techniques are used in parallel to profit from their benefits. While the use of sophisticated software development processes is standard, today, MDE is just adopted in practice. However, research has shown that the application of MDE is not always successful. It is not fully understood when advantages of MDE can be used and to what degree MDE can also be disadvantageous for productivity. Further, when combining different techniques that aim to affect the same factor (e.g. productivity) the question arises whether these techniques really complement each other or, in contrast, compensate their effects. Due to that, there is the concrete question how MDE and other techniques, such as software development process, are interrelated. Both aspects (advantages and disadvantages for productivity as well as the interrelation to other techniques) need to be understood to identify risks relating to the productivity impact of MDE. Before studying MDE's impact on productivity, it is necessary to investigate the range of validity that can be reached for the results. This includes two questions. First, there is the question whether MDE's impact on productivity is similar for all approaches of adopting MDE in practice. Second, there is the question whether MDE's impact on productivity for an approach of using MDE in practice remains stable over time. The answers for both questions are crucial for handling risks of MDE, but also for the design of future studies on MDE success. This thesis addresses these questions with the goal to support adoption of MDE in future. To enable a differentiated discussion about MDE, the term MDE setting'' is introduced. MDE setting refers to the applied technical setting, i.e. the employed manual and automated activities, artifacts, languages, and tools. An MDE setting's possible impact on productivity is studied with a focus on changeability and the interrelation to software development processes. This is done by introducing a taxonomy of changeability concerns that might be affected by an MDE setting. Further, three MDE traits are identified and it is studied for which manifestations of these MDE traits software development processes are impacted. To enable the assessment and evaluation of an MDE setting's impacts, the Software Manufacture Model language is introduced. This is a process modeling language that allows to reason about how relations between (modeling) artifacts (e.g. models or code files) change during application of manual or automated development activities. On that basis, risk analysis techniques are provided. These techniques allow identifying changeability risks and assessing the manifestations of the MDE traits (and with it an MDE setting's impact on software development processes). To address the range of validity, MDE settings from practice and their evolution histories were capture in context of this thesis. First, this data is used to show that MDE settings cover the whole spectrum concerning their impact on changeability or interrelation to software development processes. Neither it is seldom that MDE settings are neutral for processes nor is it seldom that MDE settings have impact on processes. Similarly, the impact on changeability differs relevantly. Second, a taxonomy of evolution of MDE settings is introduced. In that context it is discussed to what extent different types of changes on an MDE setting can influence this MDE setting's impact on changeability and the interrelation to processes. The category of structural evolution, which can change these characteristics of an MDE setting, is identified. The captured MDE settings from practice are used to show that structural evolution exists and is common. In addition, some examples of structural evolution steps are collected that actually led to a change in the characteristics of the respective MDE settings. Two implications are: First, the assessed diversity of MDE settings evaluates the need for the analysis techniques that shall be presented in this thesis. Second, evolution is one explanation for the diversity of MDE settings in practice. To summarize, this thesis studies the nature and evolution of MDE settings in practice. As a result support for the adoption of MDE settings is provided in form of techniques for the identification of risks relating to productivity impacts. N2 - Um die steigende Komplexität von Softwaresystemen beherrschen zu können, werden heutzutage unterschiedlichste Techniken gemeinsam eingesetzt. Beispiele sind, Design Pattern, Serviceorientierte Architekturen, Softwareentwicklungsprozesse oder modellgetriebene Entwicklung (MDE). Ziel dabei ist die Erhöhung der Produktivität, so dass Entwicklungsdauer und Qualität stabil bleiben können. Während hoch entwickelte Softwareentwicklungsprozesse heute schon standardmäßig genutzt werden, fangen Firmen gerade erst an MDE einzusetzen. Jedoch zeigen Studien, dass der erhoffte Erfolg von MDE nicht jedes Mal eintritt. So scheint es, dass noch kein ausreichendes Verständnis dafür existiert, inwiefern MDE auch Nachteile für die Produktivität bergen kann. Zusätzlich ist bei der Kombination von unterschiedlichen Techniken damit zu rechnen, dass die erreichten Effekte sich gegenseitig negieren anstatt sich zu ergänzen. Hier entsteht die Frage wie MDE und andere Techniken, wie Softwareentwicklungsprozesse, zusammenwirken. Beide Aspekte, der direkte Einfluss auf Produktivität und die Wechselwirkung mit anderen Techniken, müssen aber verstanden werden um den Risiken für den Produktivitätseinfluss von MDE zu identifizieren. Außerdem, muss auch die Generalisierbarkeit dieser Aspekte untersucht werden. Das betrifft die Fragen, ob der Produktivitätseinfluss bei jedem Einsatz von MDE gleich ist und ob der Produktivitätseinfluss über die Zeit stabil bleibt. Beide Fragen sind entscheidend, will man geeignete Risikobehandlung ermöglichen oder künftige Studien zum Erfolg von MDE planen. Diese Dissertation widmet sich der genannten Fragen. Dafür wird zuerst der Begriff MDE Setting'' eingeführt um eine differenzierte Betrachtung von MDE-Verwendungen zu ermöglichen. Ein MDE Setting ist dabei der technische Aufbau, inklusive manueller und automatische Aktivitäten, Artefakten, Sprachen und Werkzeugen. Welche Produktivitätseinflüsse von MDE Settings möglich sind, wird in der Dissertation mit Fokus auf Änderbarkeit und die Wechselwirkung mit Softwareentwicklungsprozessen betrachtet. Dafür wird einerseits eine Taxonomie von Changeability Concerns'' (potentiell betroffene Aspekte von Änderbarkeit) vorgestellt. Zusätzlich, werden drei MDE Traits'' (Charakteristika von MDE Settings die unterschiedlich ausgeprägt sein können) identifiziert. Es wird untersucht welche Ausprägungen dieser MDE Traits Einfluss auf Softwareentwicklungsprozesse haben können. Um die Erfassung und Bewertung dieser Einflüsse zu ermöglichen wird die Software Manufaktur Modell Sprache eingeführt. Diese Prozessmodellierungssprache ermöglicht eine Beschreibung, der Veränderungen von Artefaktbeziehungen während der Anwendung von Aktivitäten (z.B. Codegenerierung). Weiter werden auf Basis dieser Modelle, Analysetechniken eingeführt. Diese Analysetechniken erlauben es Risiken für bestimmte Changeability Concerns aufzudecken sowie die Ausprägung von MDE Traits zu erfassen (und damit den Einfluss auf Softwareentwicklungsprozesse). Um die Generalisierbarkeit der Ergebnisse zu studieren, wurden im Rahmen der Arbeit mehrere MDE Settings aus der Praxis sowie teilweise deren Evolutionshistorien erhoben. Daran wird gezeigt, dass MDE Settings sich in einem breiten Spektrum von Einflüssen auf Änderbarkeit und Prozesse bewegen. So ist es weder selten, dass ein MDE Setting neutral für Prozesse ist, noch, dass ein MDE Setting Einschränkungen für einen Prozess impliziert. Ähnlich breit gestreut ist der Einfluss auf die Änderbarkeit.Zusätzlich, wird diskutiert, inwiefern unterschiedliche Evolutionstypen den Einfluss eines MDE Settings auf Änderbarkeit und Prozesse verändern können. Diese Diskussion führt zur Identifikation der strukturellen Evolution'', die sich stark auf die genannten Charakteristika eines MDE Settings auswirken kann. Mithilfe der erfassten MDE Settings, wird gezeigt, dass strukturelle Evolution in der Praxis üblich ist. Schließlich, werden Beispiele aufgedeckt bei denen strukturelle Evolutionsschritte tatsächlich zu einer Änderung der Charakteristika des betreffenden MDE Settings geführt haben. Einerseits bestärkt die ermittelte Vielfalt den Bedarf nach Analysetechniken, wie sie in dieser Dissertation eingeführt werden. Zum Anderen erscheint es nun, dass Evolution zumindest zum Teil die unterschiedlichen Ausprägungen von MDE Settings erklärt. Zusammenfassend wird studiert wie MDE Settings und deren Evolution in der Praxis ausgeprägt sind. Als Ergebnis, werden Techniken zur Identifikation von Risiken für Produktivitätseinflüsse bereitgestellt um den Einsatz von MDE Settings zu unterstützen. KW - modelgetriebene Entwicklung KW - Softwareentwicklung KW - Softwareentwicklungsprozesse KW - Änderbarkeit KW - empirische Studien KW - model-driven engineering KW - software development KW - software development processes KW - changeability KW - empirical studies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70761 ER - TY - THES A1 - Heise, Arvid T1 - Data cleansing and integration operators for a parallel data analytics platform T1 - Datenreinigungs- und Integrationsoperatoren für ein paralles Datenanalyseframework N2 - The data quality of real-world datasets need to be constantly monitored and maintained to allow organizations and individuals to reliably use their data. Especially, data integration projects suffer from poor initial data quality and as a consequence consume more effort and money. Commercial products and research prototypes for data cleansing and integration help users to improve the quality of individual and combined datasets. They can be divided into either standalone systems or database management system (DBMS) extensions. On the one hand, standalone systems do not interact well with DBMS and require time-consuming data imports and exports. On the other hand, DBMS extensions are often limited by the underlying system and do not cover the full set of data cleansing and integration tasks. We overcome both limitations by implementing a concise set of five data cleansing and integration operators on the parallel data analytics platform Stratosphere. We define the semantics of the operators, present their parallel implementation, and devise optimization techniques for individual operators and combinations thereof. Users specify declarative queries in our query language METEOR with our new operators to improve the data quality of individual datasets or integrate them to larger datasets. By integrating the data cleansing operators into the higher level language layer of Stratosphere, users can easily combine cleansing operators with operators from other domains, such as information extraction, to complex data flows. Through a generic description of the operators, the Stratosphere optimizer reorders operators even from different domains to find better query plans. As a case study, we reimplemented a part of the large Open Government Data integration project GovWILD with our new operators and show that our queries run significantly faster than the original GovWILD queries, which rely on relational operators. Evaluation reveals that our operators exhibit good scalability on up to 100 cores, so that even larger inputs can be efficiently processed by scaling out to more machines. Finally, our scripts are considerably shorter than the original GovWILD scripts, which results in better maintainability of the scripts. N2 - Die Datenqualität von Realweltdaten muss ständig überwacht und gewartet werden, damit Organisationen und Individuen ihre Daten verlässlich nutzen können. Besonders Datenintegrationsprojekte leiden unter schlechter Datenqualität in den Quelldaten und benötigen somit mehr Zeit und Geld. Kommerzielle Produkte und Forschungsprototypen helfen Nutzern die Qualität in einzelnen und kombinierten Datensätzen zu verbessern. Die Systeme können in selbständige Systeme und Erweiterungen von bestehenden Datenbankmanagementsystemen (DBMS) unterteilt werden. Auf der einen Seite interagieren selbständige Systeme nicht gut mit DBMS und brauchen zeitaufwändigen Datenimport und -export. Auf der anderen Seite sind die DBMS Erweiterungen häufig durch das unterliegende System limitiert und unterstützen nicht die gesamte Bandbreite an Datenreinigungs- und -integrationsaufgaben. Wir überwinden beide Limitationen, indem wir eine Menge von häufig benötigten Datenreinigungs- und Datenintegrationsoperatoren direkt in der parallelen Datenanalyseplattform Stratosphere implementieren. Wir definieren die Semantik der Operatoren, präsentieren deren parallele Implementierung und entwickeln Optimierungstechniken für die einzelnen und mehrere Operatoren. Nutzer können deklarative Anfragen in unserer Anfragesprache METEOR mit unseren neuen Operatoren formulieren, um die Datenqualität von einzelnen Datensätzen zu erhöhen, oder um sie zu größeren Datensätzen zu integrieren. Durch die Integration der Operatoren in die Hochsprachenschicht von Stratosphere können Nutzer Datenreinigungsoperatoren einfach mit Operatoren aus anderen Domänen wie Informationsextraktion zu komplexen Datenflüssen kombinieren. Da Stratosphere Operatoren durch generische Beschreibungen in den Optimierer integriert werden, ist es für den Optimierer sogar möglich Operatoren unterschiedlicher Domänen zu vertauschen, um besseren Anfrageplänen zu ermitteln. Für eine Fallstudie haben wir Teile des großen Datenintegrationsprojektes GovWILD auf Stratosphere mit den neuen Operatoren nachimplementiert und zeigen, dass unsere Anfragen signifikant schneller laufen als die originalen GovWILD Anfragen, die sich auf relationale Operatoren verlassen. Die Evaluation zeigt, dass unsere Operatoren gut auf bis zu 100 Kernen skalieren, sodass sogar größere Datensätze effizient verarbeitet werden können, indem die Anfragen auf mehr Maschinen ausgeführt werden. Schließlich sind unsere Skripte erheblich kürzer als die originalen GovWILD Skripte, was in besserer Wartbarkeit unserer Skripte resultiert. KW - data KW - cleansing KW - holistic KW - parallel KW - map reduce KW - Datenreinigung KW - Datenintegration KW - ganzheitlich KW - parallel KW - map reduce Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77100 ER - TY - THES A1 - Heise, Robert T1 - Estimation of photosynthetic carbon fluxes in intact plants Y1 - 2014 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Herenz, Peter T1 - A study of the absorption characteristics of gaseous galaxy halos in the local Universe T1 - Untersuchung von Absorptionsstrukturen in den gasförmigen Halos von Galaxien im lokalen Universum. N2 - Today, it is well known that galaxies like the Milky Way consist not only of stars but also of gas and dust. The galactic halo, a sphere of gas that surrounds the stellar disk of a galaxy, is especially interesting. It provides a wealth of information about in and outflowing gaseous material towards and away from galaxies and their hierarchical evolution. For the Milky Way, the so-called high-velocity clouds (HVCs), fast moving neutral gas complexes in the halo that can be traced by absorption-line measurements, are believed to play a crucial role in the overall matter cycle in our Galaxy. Over the last decades, the properties of these halo structures and their connection to the local circumgalactic and intergalactic medium (CGM and IGM, respectively) have been investigated in great detail by many different groups. So far it remains unclear, however, to what extent the results of these studies can be transferred to other galaxies in the local Universe. In this thesis, we study the absorption properties of Galactic HVCs and compare the HVC absorption characteristics with those of intervening QSO absorption-line systems at low redshift. The goal of this project is to improve our understanding of the spatial extent and physical conditions of gaseous galaxy halos in the local Universe. In the first part of the thesis we use HST /STIS ultraviolet spectra of more than 40 extragalactic background sources to statistically analyze the absorption properties of the HVCs in the Galactic halo. We determine fundamental absorption line parameters including covering fractions of different weakly/intermediately/highly ionized metals with a particular focus on SiII and MgII. Due to the similarity in the ionization properties of SiII and MgII, we are able to estimate the contribution of HVC-like halo structures to the cross section of intervening strong MgII absorbers at z = 0. Our study implies that only the most massive HVCs would be regarded as strong MgII absorbers, if the Milky Way halo would be seen as a QSO absorption line system from an exterior vantage point. Combining the observed absorption-cross section of Galactic HVCs with the well-known number density of intervening strong MgII absorbers at z = 0, we conclude that the contribution of infalling gas clouds (i.e., HVC analogs) in the halos of Milky Way-type galaxies to the cross section of strong MgII absorbers is 34%. This result indicates that only about one third of the strong MgII absorption can be associated with HVC analogs around other galaxies, while the majority of the strong MgII systems possibly is related to galaxy outflows and winds. The second part of this thesis focuses on the properties of intervening metal absorbers at low redshift. The analysis of the frequency and physical conditions of intervening metal systems in QSO spectra and their relation to nearby galaxies offers new insights into the typical conditions of gaseous galaxy halos. One major aspect in our study was to regard intervening metal systems as possible HVC analogs. We perform a detailed analysis of absorption line properties and line statistics for 57 metal absorbers along 78 QSO sightlines using newly-obtained ultraviolet spectra obtained with HST /COS. We find clear evidence for bimodal distribution in the HI column density in the absorbers, a trend that we interpret as sign for two different classes of absorption systems (with HVC analogs at the high-column density end). With the help of the strong transitions of SiII λ1260, SiIII λ1206, and CIII λ977 we have set up Cloudy photoionization models to estimate the local ionization conditions, gas densities, and metallicities. We find that the intervening absorption systems studied by us have, on average, similar physical conditions as Galactic HVC absorbers, providing evidence that many of them represent HVC analogs in the vicinity of other galaxies. We therefore determine typical halo sizes for SiII, SiIII, and CIII for L = 0.01L∗ and L = 0.05L∗ galaxies. Based on the covering fractions of the different ions in the Galactic halo, we find that, for example, the typical halo size for SiIII is ∼ 160 kpc for L = 0.05L∗ galaxies. We test the plausibility of this result by searching for known galaxies close to the QSO sightlines and at similar redshifts as the absorbers. We find that more than 34% of the measured SiIII absorbers have galaxies associated with them, with the majority of the absorbers indeed being at impact parameters ρ ≤160 kpc. N2 - Galaxien bestehen nicht nur aus Planeten und Sternen, sondern sind u.a. auch von einer Hülle aus Gas und Staub, dem Halo, umgeben. Dieser Halo spielt für die Entwicklung der Galaxie eine zentrale Rolle, da er mit der galaktischen Scheibe wechselwirken kann. Für das Verständnis des galaktischen Materiekreislaufs ist es daher entscheidend, die Prozesse und Vorgänge sowie das Zusammenspiel der verschiedenen Gasphasen in diesem Übergangsbereich zum intergalaktischen Medium charakterisieren und verstehen zu können. In der vorliegenden Arbeit werden lokale Phänomene, die sogenannten Hochgeschwindigkeitswolken (HVCs), im Halo der Milchstraße mit Hilfe des Hubble-Weltraumteleskops analysiert und ausgewertet. Im Gegensatz zu dem normalen Halo Gas bewegen sich diese HVCs mit ungewöhnlich hohen Geschwindigkeiten durch die ̈ äußeren Bereiche der Milchstraße. Sie passen daher nicht in das Galaktische Ge- schwindigkeitsmodell und stellen eine eigene, wichtige Klasse von Objekten dar, welche mit der Galaxie wechselwirken und diese beeinflussen. Für die Analyse dieser HVCs werden mehr als 40 Spektren von extragalaktischen Hintergrundquellen statistisch untersucht, um u.a. den Bedeckungsanteil von verschiedenen niedrig-/mittel- und hochionisierten Metallen zu ermitteln. Wegen der Ähnlichkeit der Ionisationsparameter von einfach ionisiertem Silizium, SiII, und einfach ionisiertem Magnesium, MgII, ist es möglich, den Beitrag von HVCs zum Wirkungsquerschnitt von starken MgII Absorbern im lokalen Universum zu bestimmen. Es stellt sich heraus, dass, würde man von außen auf die Milchstraße schauen, Galaktische HVCs etwa 52 % zum totalen Wirkungsquerschnitt von starken MgII Absorptionssystemen in der Milchstraße beitragen. Weiterhin ergibt sich, dass nur etwa ein Drittel der starken MgII Absorptionssysteme in der Umgebung von Milchstraßen-ähnlichen Galaxien als HVC Gegenstücke identifziert werden kann. Betrachtet man die große Anzahl an bekannten MgII Absorptionssystemen folgt daraus, dass das HVC-Phänomen nicht alleine auf unsere Galaxie beschränkt ist, sondern im Gegenteil, weit verbreitet zu sein scheint. Weiterhin werden die Eigenschaften von Metallsystemen bei niedriger Rotverschiebung in Quasarspektren analysiert. Die Suche nach extragalaktischen Metallsystemen in einer Vielzahl von Spektren und deren statistische Auswertung bezogen auf ihre Ursprungsgalaxien ermöglicht es, neue Erkenntnisse über die typische Struktur von Halos Milchstraßen-ähnlicher Galaxien zu erlangen. Eine der Hauptfragestellungen ist die Identifizierung von entfernten Metallsystemen als HVC-Analoga. Dazu wurden weitere Quasarspektren des Hubble-Teleskops ausgewertet und mit den Ergebnissen über Galaktische HVCs verglichen. Es zeigt sich hierbei, dass z.B. in der Säulendichteverteilung von neutralem Wasserstoff eine deutliche zweikomponentige Struktur zu erkennen ist. Diese könnte das Resultat von zwei verschiedenen Absorber Populationen sein, wobei eine HVC-ähnliche Eigenschaften aufweist. Diese Absorptionssysteme besitzen im Mittel sehr ähnliche Eigenschaften wie Galaktische Absorber, z.B. in Bezug auf die Eigenschaften des Gases oder dessen Zusammensetzung. Das impliziert u.a., dass sich auch dazugehörige Galaxien innerhalb eines bestimmten Abstandes um diese Absorber befinden sollten. Diese Vermutung wird anhand der Daten exemplarisch für zweichfach ionisiertes Silizium, SiII, untersucht. Es stellt sich heraus, dass sich in mehr als 34 % der Fälle zugehörige Galaxien bei SiIII Absorbern befinden, wobei die Mehrheit sogar innerhalb des von uns ermittelten mittleren Detektionsradius von 160 kpc zu finden ist. Allgemein können wir viele Hinweise darauf finden, dass das HVC-Phänomen nicht nur auf die Milchstraße beschränkt, sondern weit verbreitet ist. Zusätzlich scheinen Metallsysteme in Quasarspektren gute Indikatoren für HVC-Analoga in der Umgebung von anderen entfernten Galaxien zu sein. KW - Halo KW - Hochgeschwindigkeitswolken KW - Galaxien KW - Spektroskopie KW - halo KW - high-velocity-clouds KW - galaxies KW - spectroscopy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70513 ER - TY - THES A1 - Hermawan, Romy T1 - Coordination and civil service reform in Indonesia (1999-2009) N2 - The background of civil service reform in Indonesia reveals the emergence of the reformation movement in 1998, following the fall of the authoritarian New Order regime. The reformation movement has seen the introduction of reforms in Indonesia's various governmental institutions, including the civil service. The civil service reforms were marked by the revision of Act 8/ 74 with Act 43 of 1999 on Civil Service Administration. The implementation of the civil service reform program, which was carried out by both central and local governments, required cooperation between the actors (in particular, Ministries, agencies and local governments), known as coordination. Currently, the coordination that occurs between actors tends to be rigid and hierarchical. As a result, targets are not efficiently and effectively met. Hierarchical coordination, without a strong public sector infrastructure, tends to have a negative impact on achieving the desired outcomes of the civil service reform program. As an intrinsic part of the New Order regime, hierarchical coordination resulted in inefficiency and lack of efficacy. Despite these inefficiencies, the administration and the political environment have changed significantly as a result of the reform process. Obvious examples of the reforms are changes in recruitment patterns, placement and remuneration policies. However, in the case of Indonesia, it appears that every state institution has its own policy. Thus, it appears that there has not been policy coherence in the civil service reform program, resulting in the lack of a sustainable program. The important thing to examine is how the coordination mechanisms of the civil service reform program in the central government have developed during the reform era in Indonesia The purpose of this study is to analyse the linkages between coordination mechanisms and the actual implementation of civil service reform programs. This is undertaken as a basis for intervention based on the structures and patterns of coordination mechanisms in the implementation of civil service reform programs. The next step is to formulate the development coordination mechanisms, particularly to create structures and patterns of civil service reforms which are more sustainable to the specific characteristics of public sector organisations in Indonesia. The benefits of this research are a stronger understanding of the linkages between the mechanisms of coordination and implementation of civil service reform programs. Through this analysis, the findings can then be applied as a basic consideration in planning a sustainable civil service reform program. In the basis of theoretical issues concerning the linkages between coordination mechanisms and implementation of civil service reform program sustainability, this book explores the type of coordination, which is needed to test the proportional and sustainable concept of the intended civil service reform program in Indonesia. Research conducted through studies, surveys and donors has shown that poor coordination is the major hindrance to the civil service program reform in Indonesia. This research employs a qualitative approach. In this study, the coordination mechanisms and implementations of civil service reform programs are demonstrated by means of case studies of the State Ministry for Administrative Reform, the National Civil Service Agency and the National Public Administration Institute. The coordination mechanisms in these Ministries and agencies were analysed using indicators of effective and efficient coordination. The analysis of the coordination mechanisms shows a tendency towards rigid hierarchical coordination. This raises concerns about fragmentation among departments and agencies at the central government level and calls for integrated civil service reform both at central and local governmental levels. In the context of implementation programs, a hierarchical mechanism of coordination leverages on various aspects, such as the program formulation, implementation flow of the program, the impact of policies, and achievement targets. In particular, there was a shift process of the mainstream civil service reform in the Ministries and agencies which are marked by the emergence of sectoral interest and inefficiencies in the civil service reform program. The primary result of successful civil service reform is increased professionalism in the civil service. The findings on hierarchical mechanisms and the prescriptions which will follow show that the professionalism of Indonesia’s civil service is at stake. The implementation of the program through coordination mechanisms in Ministries and agencies is measured in various dimensions: the centre of coordination, integration of coordination, sustainability of coordination and multidimensionality of coordination. The results of this analysis show that coordination mechanisms and the implementation of civil service reform are more successful when they are integration rather than hierarchical mechanisms. For a successful implementation of the reform program, it is crucial to intervene and change the type of coordination at the central government through the integration approach (hierarchy, market, and network). Furthermore, in order to move towards the integration type mechanism of coordination the separation of the administration and politics in the practice of good governance needs to be carried out immediately and simultaneously. Based on this analysis, it can be concluded that the integration type mechanism of coordination is a suitable for Indonesia for a sustainable civil service reform program. Finally, to achieve coherent civil service reforms, national policies developed according to the central government's priorities are indispensable, establishing a coordination mechanism that can be adhered to throughout all reform sectors. N2 - Seit dem Sturz des autoritären und dem Wechsel zum Regime des „New Order“ im Jahre 1998 haben die Reformbemühungen in der öffentlichen Verwaltung in Indonesien stark zugenommen. Ihren Ursprung nahmen sie mit der Revision des Gesetzes 8/74 und 43 im Jahre 1999 betreffend die Grundlagen der öffentlichen Verwaltung. Implementiert wurde die Reform sowohl durch die Zentralregierung als auch durch die Lokalregierungen. Jedoch erforderte die Implementierung dieses Programmes auch die Zusammenarbeit bzw. die Koordination verschiedener Akteure, wie beispielsweise Ministerien, Behörden, und Lokalregierungen. Die gegenwärtige Koordination zwischen diesen Akteuren ist rigide und hierarchisch. Daraus ergibt sich, dass die gesteckten Ziele nicht effizient und effektiv erreicht werden. Hierarchische Koordination ohne eine gefestigte Verwaltungsstruktur verhindert die Umsetzung des Reformprogrammes. Als intrinsisches Merkmal des „New Order“ Regimes führt die hierarchische Koordination zur Ineffizienz und einem Mangel an Effektivität. Trotz dieser Ineffizienzen haben die Reformen zu signifikanten Veränderungen in der Verwaltung und im politischen Umfeld geführt. Offensichtliche Beispiele der Verwaltungsreform sind Änderungen in der Einstellungs-, Beförderungs- und Entlohnungspraxis. Im Falle Indonesiens jedoch scheint jede einzelne Institution ihr eigenes Regelwerk zu besitzen. Dies deutet darauf hin, dass das Verwaltungsreformprogramm keine allzu große Kohärenz aufgewiesen hat. Es ist hierbei wichtig zu untersuchen wie die Koordinationsmechanismen dieses Programmes sich nach der Reformära in Indonesien entwickelt haben. Diese Studie hat die Absicht, die Verbindungen zwischen den Koordinationsmechanismen und den tatsächlichen Durchführung des Reformprogrammes der öffentlichen Verwaltung zu analysieren. Offensichtlich zeichnete sich dieseweder durch Kohärenz noch eine nachhaltige Implementierung aus. Es ist nun wichtig, eine Richtung zu bestimmen, wie die Koordinationsmechanismen sich entwickeln müssten um Strukturen und Mechanismen zu schaffen, die besser zu den spezifischen Charakteristiken der öffentlichen Verwaltungen in Indonesien passen. Diese Untersuchung trägt dazu bei, die Zusammenhänge zwischen Koordinationsmechanismen und des tatsächlichen Implementationserfolges von Reformprogrammen der öffentlichen Verwaltung zu verstehen. Ein solches Analyseergebnis kann dann zu nachhaltigen Reformbemühungen beitragen. Ausgehend von theoretischen Überlegungen bezüglich der Verbindung von Koordinationsmechanismen und der Implementierung von Reformprogrammen der öffentlichen Verwaltung, erforscht diese Studie verschiedene Aspekte des Koordinationstypus, der notwendig scheint, um das verhältnismäßige und nachhaltigeKonzept des beabsichtigten Reformprogrammes in Indonesien zu testen. Bisherige Forschung auf dem Gebiet der Koordination zeigt, dass das größte Hindernis für ein erfolgreiches Reformprogramm der öffentlichen Verwaltung ein Mangel an Koordination ist. Diese Studie wählt einen qualitativen Ansatz. Sie zeigt die Koordinationsmechanismen bei der Implementation von Reformprogrammen in der öffentlichen Verwaltung an den Fallbeispielen des „Staatsministeriums für Administrative Reformen“, der „Nationalen Agentur für den Öffentlichen Dienst“ und des „Nationalen Instituts für die Öffentliche Verwaltung“. Die Koordinationsmechanismen dieser Ministerien und Institute wurden dabei auf Grundlage von Indikatoren für effektive und effiziente Koordination untersucht. Die Analyse zeit tendenziell, dass die Koordination einerigide und hierarchische Form annimmt. Dies lässt Bedenken über die Fragmentierung der Abteilungen und Agenturen der Zentralregierung aufkommen und verdeutlicht die Notwendigkeit einer integrierten Reform der öffentlichen Verwaltung sowohl auf der Ebene der Zentralregierung als auch der Lokalregierungen. Im Kontext der Implementierungsbemühungen berührt eine hierarchische Koordination verschiedene Aspekte wie zum Beispiel die Formulierung des Programmes, der Ablauf der Implementation, der Einfluss des Regelwerks und die Erreichung der gesteckten Ziele. Insbesondere konnte beobachtet werden, dass sich der grundlegende Verwaltungsprozesses in den Ministerien und den Agenturen verlagert hat, was sich durch die Verstärkung sektoraler Interessen und zunehmender Ineffizienzen des Reformprogrammes ausdrückt. Das derzeitige Ergebnis ist im Wesentlichen eine zunehmende Professionalisierung des öffentlichen Dienstes. Die Befunde über hierarchische Mechanismen und die danach folgenden Vorgaben stellen die Professionalität des öffentlichen Dienstes in Indonesien in Frage. Die Implementierung des Reformprogrammes durch Koordinationsmechanismen in Ministerien und Agenturen werden auf mehreren Dimensionen gemessen: der Ausgangspunkt der Koordination, ihre Einbindung, Nachhaltigkeit und Mehrdimensionalität. Die Ergebnisse dieser Analyse zeigen, dass integrative Koordinationsmechanismen und Implementationen erfolgreicher sind als hierarchische. Um das restliche Reformprogramm erfolgreich zu einem Ende zu bringen, erscheint es wesentlich einzugreifen und die vorherrschende Koordination in der Zentralregierung durch einen integrativen Ansatz zu ersetzen (Hierarchie, Markt, Netzwerk). Darüber hinaus muss, um dies zu erreichen, die Trennung von Verwaltung und Politik im Sinne der guten Regierungsführung gleichzeitig umgesetzt werden. Auf Grundlage dieser Analyse kann gefolgert werden, dass der integrative Ansatz bei der Koordination geeignet erscheint, um das Reformprogramm der öffentlichen Verwaltung in Indonesien umzusetzen. Schlussendlich, um eine einheitliche Reform der öffentlichen Verwaltung zu erreichen bedarf es einer zentralen Koordinationsstrategie der Zentralregierung, die einheitlich in allen Reformsektoren befolgt wird. KW - Indonesien KW - Verwaltungsreform KW - Geschichte 1999-2009 KW - Coordination KW - Civil Service Reform KW - Bureaucracy Y1 - 2014 SN - 978-602-284-061-9 PB - Center of South South Cooperation Studies, Univ. CY - Brawijaya ER - TY - THES A1 - Hewing, Martin T1 - Collaboration with potential users for discontinuous innovation : eperimental research on user creativity Y1 - 2014 SN - 978-3-658-03752-9 PB - Springer Gabler CY - Wiesbaden ER - TY - THES A1 - Holler, Markus T1 - Photon reconstruction for the H.E.S.S. 28 m telescope and analysis of Crab Nebula and galactic centre observations T1 - Photonrekonstruktion für das 28 m H.E.S.S. Teleskop und Analyse von Beobachtungen des Krebsnebels und des galaktischen Zentrums N2 - In the presented thesis, the most advanced photon reconstruction technique of ground-based γ-ray astronomy is adapted to the H.E.S.S. 28 m telescope. The method is based on a semi-analytical model of electromagnetic particle showers in the atmosphere. The properties of cosmic γ-rays are reconstructed by comparing the camera image of the telescope with the Cherenkov emission that is expected from the shower model. To suppress the dominant background from charged cosmic rays, events are selected based on several criteria. The performance of the analysis is evaluated with simulated events. The method is then applied to two sources that are known to emit γ-rays. The first of these is the Crab Nebula, the standard candle of ground-based γ-ray astronomy. The results of this source confirm the expected performance of the reconstruction method, where the much lower energy threshold compared to H.E.S.S. I is of particular importance. A second analysis is performed on the region around the Galactic Centre. The analysis results emphasise the capabilities of the new telescope to measure γ-rays in an energy range that is interesting for both theoretical and experimental astrophysics. The presented analysis features the lowest energy threshold that has ever been reached in ground-based γ-ray astronomy, opening a new window to the precise measurement of the physical properties of time-variable sources at energies of several tens of GeV. N2 - In der vorliegenden Dissertation wird die zur Zeit sensitivste Methode zur Photonrekonstruktion in der bodengebundenen Gammastrahlungsastronomie an das 28 m H.E.S.S. Teleskop angepasst. Die Analyse basiert auf einem semi-analytischen Modell von elektromagnetischen Teilchenschauern in der Erdatmosphäre. Die Rekonstruktion erfolgt durch den Vergleich des Bildes der Teleskopkamera mit der Tscherenkow-Emission, die mittels des Schauermodells berechnet wurde. Zur Verringerung des dominanten Untergrundes, der hauptsächlich durch Teilchen der geladenen kosmischen Strahlung hervorgerufen wird, werden Ereignisse anhand bestimmter Kriterien ausgewählt. Die Leistungsfähigkeit der Analyse wird unter Verwendung simulierter Ereignisse evaluiert. Die Methode wird anschließend auf zwei Gammastrahlungsquellen angewendet. Zuerst wird der Krebsnebel analysiert, die Standardkerze der bodengebundenen Gammastrahlungsastronomie. Die Resultate der Analyse des Krebsnebels bestätigen die bereits zuvor erwartete Leistungsfähigkeit der Rekonstruktionsmethode, wobei hier insbesondere die im Vergleich zu H.E.S.S. I stark verringerte Energieschwelle hervorzuheben ist. Als Zweites werden Beobachtungen der Region um das galaktische Zentrum ausgewertet. Die Analyseergebnisse dieser Daten unterstreichen die Fähigkeiten des neuen Teleskops zur Messung kosmischer Gammastrahlung in einem für die theoretische und experimentelle Astrophysik interessanten Energiebereich. Die vorgestellte Analyse besitzt die niedrigste Energieschwelle, die in der bodengebundenen Gammastrahlungsastronomie je erreicht wurde. Sie ermöglicht damit präzise Messungen der physikalischen Eigenschaften von zeitabhängigen Quellen im Energiebereich von 10 bis 100 GeV. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - galaktisches Zentrum KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula KW - galactic centre Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72099 ER - TY - THES A1 - Hutter, Anne T1 - Unveiling the epoch of reionization by simulations and high-redshift galaxies T1 - Untersuchungen der Epoche der Reionisation mithilfe von Simulationen und Beobachtungen hoch rotverschobener Galaxien N2 - The Epoch of Reionization marks after recombination the second major change in the ionization state of the universe, going from a neutral to an ionized state. It starts with the appearance of the first stars and galaxies; a fraction of high-energy photons emitted from galaxies permeate into the intergalactic medium (IGM) and gradually ionize the hydrogen, until the IGM is completely ionized at z~6 (Fan et al., 2006). While the progress of reionization is driven by galaxy evolution, it changes the ionization and thermal state of the IGM substantially and affects subsequent structure and galaxy formation by various feedback mechanisms. Understanding this interaction between reionization and galaxy formation is further impeded by a lack of understanding of the high-redshift galactic properties such as the dust distribution and the escape fraction of ionizing photons. Lyman Alpha Emitters (LAEs) represent a sample of high-redshift galaxies that are sensitive to all these galactic properties and the effects of reionization. In this thesis we aim to understand the progress of reionization by performing cosmological simulations, which allows us to investigate the limits of constraining reionization by high-redshift galaxies as LAEs, and examine how galactic properties and the ionization state of the IGM affect the visibility and observed quantities of LAEs and Lyman Break galaxies (LBGs). In the first part of this thesis we focus on performing radiative transfer calculations to simulate reionization. We have developed a mapping-sphere-scheme, which, starting from spherically averaged temperature and density fields, uses our 1D radiative transfer code and computes the effect of each source on the IGM temperature and ionization (HII, HeII, HeIII) profiles, which are subsequently mapped onto a grid. Furthermore we have updated the 3D Monte-Carlo radiative transfer pCRASH, enabling detailed reionization simulations which take individual source characteristics into account. In the second part of this thesis we perform a reionization simulation by post-processing a smoothed-particle hydrodynamical (SPH) simulation (GADGET-2) with 3D radiative transfer (pCRASH), where the ionizing sources are modelled according to the characteristics of the stellar populations in the hydrodynamical simulation. Following the ionization fractions of hydrogen (HI) and helium (HeII, HeIII), and temperature in our simulation, we find that reionization starts at z~11 and ends at z~6, and high density regions near sources are ionized earlier than low density regions far from sources. In the third part of this thesis we couple the cosmological SPH simulation and the radiative transfer simulations with a physically motivated, self-consistent model for LAEs, in order to understand the importance of the ionization state of the IGM, the escape fraction of ionizing photons from galaxies and dust in the interstellar medium (ISM) on the visibility of LAEs. Comparison of our models results with the LAE Lyman Alpha (Lya) and UV luminosity functions at z~6.6 reveals a three-dimensional degeneracy between the ionization state of the IGM, the ionizing photons escape fraction and the ISM dust distribution, which implies that LAEs act not only as tracers of reionization but also of the ionizing photon escape fraction and of the ISM dust distribution. This degeneracy does not even break down when we compare simulated with observed clustering of LAEs at z~6.6. However, our results show that reionization has the largest impact on the amplitude of the LAE angular correlation functions, and its imprints are clearly distinguishable from those of properties on galactic scales. These results show that reionization cannot be constrained tightly by exclusively using LAE observations. Further observational constraints, e.g. tomographies of the redshifted hydrogen 21cm line, are required. In addition we also use our LAE model to probe the question when a galaxy is visible as a LAE or a LBG. Within our model galaxies above a critical stellar mass can produce enough luminosity to be visible as a LBG and/or a LAE. By finding an increasing duty cycle of LBGs with Lya emission as the UV magnitude or stellar mass of the galaxy rises, our model reveals that the brightest (and most massive) LBGs most often show Lya emission. Predicting the Lya equivalent width (Lya EW) distribution and the fraction of LBGs showing Lya emission at z~6.6, we reproduce the observational trend of the Lya EWs with UV magnitude. However, the Lya EWs of the UV brightest LBGs exceed observations and can only be reconciled by accounting for an increased Lya attenuation of massive galaxies, which implies that the observed Lya brightest LAEs do not necessarily coincide with the UV brightest galaxies. We have analysed the dependencies of LAE observables on the properties of the galactic and intergalactic medium and the LAE-LBG connection, and this enhances our understanding of the nature of LAEs. N2 - Die Epoche der Reionisation markiert die nach der Rekombination zweite grundlegende Änderung des Ionisationszustandes des Universums, nämlich den Übergang von einem neutralen zu einem ionisierten Zustand. Die Epoche der Reionisation beginnt mit dem Erscheinen der ersten Sterne und Galaxien. Von den Galaxien ausgesendete energiereiche Photonen durchdringen das intergalaktische Medium (IGM) und ionisieren den vorhandenen Wasserstoff schrittweise, bis das IGM bei z~6 (Fan et al., 2006) vollständig ionisiert ist. Während der Verlauf der Reionisation zum einen durch die Galaxienentwicklung bestimmt wird, verändert die Reionisation zum anderen den Ionisations- und thermischen Zustand des IGMs und beeinflusst damit die darauffolgende Struktur- und Galaxienentwicklung durch verschiedene Rückkopplungsmechanismen. Die geringen Kenntnisse der Eigenschaften von Galaxien bei hohen Rotverschiebungen wie der Staubverteilung und des Anteils an ionisierenden Photonen, die die Galaxien verlassen können, erschweren jedoch das Verständnis des Wechselspiels zwischen Reionisation und Galaxienentwicklung. Lyman Alpha Emitter (LAE) stellen Galaxien bei hoher Rotverschiebung dar, deren Sichtbarkeit diesen Eigenschaften und den Effekten der Reionisa\-tion unterliegen. Diese Arbeit zielt darauf ab, den Verlauf der Reionisation anhand von kosmologischen Simulationen zu verstehen. Insbesondere interessiert, inwieweit der Verlauf der Reionisation durch Galaxien bei hohen Rotverschiebungen eingeschränkt werden kann, und wie die Eigenschaften der Galaxien und der Ionisationszustand des IGMs die Sichtbarkeit und die beobachtbaren Größen der LAE und Lyman Break Galaxien (LBG) beeinflussen können. Im ersten Teil dieser Arbeit werden verschiedene Ansätze zur Lösung des Strahlungstransportes neu- und weiterentwickelt mit dem Ziel, die Epoche der Reionisation zu simulieren. Dazu wurde zum einen eine Methode entwickelt, die als Berechnungsgrundlage sphärisch gemittelte Temperatur- und Dichtefelder benutzt. Mithilfe des in dieser Arbeit entwickelten eindimensionalen Strahlungstransportcodes werden die Auswirkungen jeder Quelle auf die dementsprechenden Temperatur- und Ionisa\-tionsprofile (HII, HeII, HeIII) berechnet und diese auf ein Gitter abgebildet. Zum anderen wurde der dreidimensionale Monte-Carlo-Strahlungstransportcode pCRASH so erweitert, sodass detaillierte Reionisationsimulationen, die individulle Quelleneigenschaften berücksichtigen, durchgeführt werden können. Im zweiten Teil dieser Arbeit wird die Epoche der Reionisation in sich konsistent simuliert, indem aufbauend auf einer gasdynamischen Simulation (smoothed particle hydrodynamics (SPH), GADGET-2) mithilfe von pCRASH Strahlungstransportrechnungen ausgeführt werden. Dabei werden die ionisierenden Quellen gemäß der Eigenschaften der Sternpopulationen in der gasdynamischen Simulation modelliert. Die Entwicklung der IGM-Ionisationsanteile an Wasserstoff (HII) und Helium (HeII, HeIII) sowie der Temperatur werden in der Simulation verfolgt. Es zeigt sich, dass Reionisation erstens bei z~11 beginnt und bei z~6 endet, und zweitens von überdichten zu unterdichten Gebieten des Kosmos hin verläuft. Im dritten Teil der Arbeit werden kosmologische SPH - und Strahlungstransportsimulationen mit einem physikalisch motivierten, selbst-konsistenten Modell für LAEs kombiniert, um den Einfluss des Ionisationszustandes des IGMs, des Anteils der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im interstellaren Medium (ISM) auf die sichtbaren Eigenschaften der LAEs zu verstehen. Der Vergleich der Simulationsergebnisse mit den beobachteten LAE Lyman Alpha- und UV-Leuchtkraftfunktionen bei z~6.6 offenbart eine dreidimensionale Entartung zwischen dem Ionisationszustand des IGMs, dem Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM. Dies bedeutet, dass die Sichtbarkeit von LAEs nicht nur ein Indikator für den Ionisationszustand des IGM ist, sondern auch für den Anteil an ionisierenden Photonen, die die Galaxien verlassen können, und für die Staubverteilung im ISM. Diese Entartung lässt sich auch nicht auflösen, wenn Simulations- und Beobachtungsdaten der räumlichen Verteilung der LAEs bei z~6.6 gemessen mit der winkelabhängigen Zweipunktkorrelationsfunktion verglichen werden. Jedoch zeigt unser Modell, dass die Reionisation den größten Effekt auf die Amplitude der Winkelkorrelation hat und dass sich ihre Spuren klar von den Effekten auf galaktischen Skalen (den Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM) unterscheiden lassen. Somit kann Reionisation nicht alleine durch LAE Beobachtungen eingeschränkt werden, und es werden weitere Beobachtungen, wie z.B. die Tomographie der rotverschobenen 21cm Wasserstofflinie, benötigt. KW - cosmology KW - reionization KW - high-redshift galaxies KW - radiative transfer KW - simulation KW - Kosmologie KW - Reionisation KW - hoch rotverschobene Galaxien KW - Strahlungstransport KW - Simulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76998 ER - TY - THES A1 - Ippen, Christian Justus T1 - Indium phosphide and zinc selenide quantum dots for light-emitting devices BT - relationships between surface structure and device performance Y1 - 2014 ER - TY - THES A1 - Jüppner, Jessica T1 - Characterization of metabolomic dynamics in synchronized Chlamydomonas reinhardtii cell cultures and the impact of TOR inhibition on cell cycle, proliferation and growth T1 - Charakterisierung der metabolischen Dynamik in synchronisierten Chlamydomonas reinhardtii Zellkulturen und der Einfluss der TOR-Inhibition auf Zellzyklus, Proliferation und Wachstum N2 - The adaptation of cell growth and proliferation to environmental changes is essential for the surviving of biological systems. The evolutionary conserved Ser/Thr protein kinase “Target of Rapamycin” (TOR) has emerged as a major signaling node that integrates the sensing of numerous growth signals to the coordinated regulation of cellular metabolism and growth. Although the TOR signaling pathway has been widely studied in heterotrophic organisms, the research on TOR in photosynthetic eukaryotes has been hampered by the reported land plant resistance to rapamycin. Thus, the finding that Chlamydomonas reinhardtii is sensitive to rapamycin, establish this unicellular green alga as a useful model system to investigate TOR signaling in photosynthetic eukaryotes. The observation that rapamycin does not fully arrest Chlamydomonas growth, which is different from observations made in other organisms, prompted us to investigate the regulatory function of TOR in Chlamydomonas in context of the cell cycle. Therefore, a growth system that allowed synchronously growth under widely unperturbed cultivation in a fermenter system was set up and the synchronized cells were characterized in detail. In a highly resolved kinetic study, the synchronized cells were analyzed for their changes in cytological parameters as cell number and size distribution and their starch content. Furthermore, we applied mass spectrometric analysis for profiling of primary and lipid metabolism. This system was then used to analyze the response dynamics of the Chlamydomonas metabolome and lipidome to TOR-inhibition by rapamycin The results show that TOR inhibition reduces cell growth, delays cell division and daughter cell release and results in a 50% reduced cell number at the end of the cell cycle. Consistent with the growth phenotype we observed strong changes in carbon and nitrogen partitioning in the direction of rapid conversion into carbon and nitrogen storage through an accumulation of starch, triacylglycerol and arginine. Interestingly, it seems that the conversion of carbon into triacylglycerol occurred faster than into starch after TOR inhibition, which may indicate a more dominant role of TOR in the regulation of TAG biosynthesis than in the regulation of starch. This study clearly shows, for the first time, a complex picture of metabolic and lipidomic dynamically changes during the cell cycle of Chlamydomonas reinhardtii and furthermore reveals a complex regulation and adjustment of metabolite pools and lipid composition in response to TOR inhibition. N2 - Die Anpassung der Wachstumsrate an Umweltveränderungen ist essentiell für das Überleben biologischer Systeme. Mit der Identifikation der evolutionär konservierten Serin/Threonin Kinase “Target of Rapamycin” (TOR) war ein zentraler Regulator gefunden, der in Abhängigkeit einer Vielzahl von Wachstumsfaktoren den zellulären Metabolismus und das Wachstum reguliert. Während zum heutigen Zeitpunkt schon relativ gute Kenntnisse über die Funktionen und Signalwege dieser Kinase in heterotrophen Organismen gewonnen werden konnten, wurden die Untersuchungen des TOR-Signalweges in photoautotrophen Organismen durch deren Resistenz gegenüber dem TOR-spezifischen Inhibitor Rapamycin für lange Zeit erschwert. Daher bietet die Entdeckung, dass die einzelligen Grünalge Chlamydomonas reinhardtii eine natürliche Sensitivität gegenüber Rapamycin aufweist, eine gute Grundlage zur Erforschung des TOR-Signalweges in photosynthetisch aktiven Eukaryoten. Aufgrund der Beobachtung, dass das Wachstum von Chlamydomonas nicht vollständig durch Rapamycin inhibiert werden konnte, was im Gegensatz zu Beobachtungen in anderen Organismen steht, entschieden wir uns für eine detailliertere Analyse des Einflusses von TOR auf den Zellzyklus. Dazu wurde ein System etabliert das eine Synchronisation der Zellen unter weitestgehend ungestörten Bedingungen in einem Fermenter-system erlaubte. Dieses System wurde dann für eine detaillierte Charakterisierung der synchronisierten Zellen genutzt. Mittels einer hochaufgelösten Zeitreihe wurden Veränderungen zytologischer Parameter (Zellzahl und Zellgrößenverteilung) und des Stärkegehalts analysiert. Zusätzlich wurden massenspektrometrische Verfahren zur Analyse des Primär- und Lipidmetabolismus verwendet. Dieses System wurde des Weiteren dazu genutzt dynamische Veränderungen im Metabolom und Lipidom von Chlamydomonas nach Inhibition der TOR Kinase durch Rapamycin zu untersuchen Die Ergebnisse der TOR-Inhibition zeigen ein vermindertes Wachstum, eine Verzögerung in der Zellteilung und der Entlassung der Tochterzellen und resultieren in einer um 50% verringerten Zellzahl am Ende des Zellzyklus. Des Weiteren konnte eine Akkumulation von Kohlenstoff– und Stickstoff-Reserven in Form von Stärke und Triacylglyceriden, sowie Arginin beobachtet werden. Dabei ist vor allem interessant, dass die der Einbau von Kohlenstoff in Triacylglyceride offenbar schneller erfolgt als der in Stärke, was auf eine dominantere Rolle von TOR in der Regulation der Triacylglycerid-Biosynthese gegenüber der Stärkesynthese hindeutet. Diese Studie zeigt zum ersten Mal eine komplexe Analyse der dynamischen Veränderungen im Primär- und Lipidmetabolismus im Verlauf des Zellzyklus von Chlamydomonas und zeigt weiterhin die komplexe Regulation und Adjustierung des Metabolit-Pools und der Lipidzusammensetzung als Antwort auf die Inhibition von TOR. KW - chlamydomonas reinhardtii KW - metabolites KW - Metaboliten KW - lipids KW - Lipide Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76923 ER - TY - THES A1 - Kaiser, Björn Onno T1 - Heat transport processes within the Northeast German basin BT - Results from 3D physical coupled numerical simulations Y1 - 2014 ER - TY - THES A1 - Kamprath, Martin T1 - A microfoundations perspectives on fresight and business models BT - Competence development and business model design in times of digital industry transformation Y1 - 2014 ER - TY - THES A1 - Kirchhecker, Sarah T1 - Renewable imidazolium zwitterions as platform molecules for the synthesis of ionic liquids and materials T1 - Neue funktionalisierte Imidazoliumverbindungen als Bausteinmoleküle aus Biomasse und ihre Verwendung zur Synthese von ionischen Flüssigkeiten und Materialien N2 - Following the principles of green chemistry, a simple and efficient synthesis of functionalised imidazolium zwitterionic compounds from renewable resources was developed based on a modified one-pot Debus-Radziszewski reaction. The combination of different carbohydrate-derived 1,2-dicarbonyl compounds and amino acids is a simple way to modulate the properties and introduce different functionalities. A representative compound was assessed as an acid catalyst, and converted into acidic ionic liquids by reaction with several strong acids. The reactivity of the double carboxylic functionality was explored by esterification with long and short chain alcohols, as well as functionalised amines, which led to the straightforward formation of surfactant-like molecules or bifunctional esters and amides. One of these di-esters is currently being investigated for the synthesis of poly(ionic liquids). The functionalisation of cellulose with one of the bifunctional esters was investigated and preliminary tests employing it for the functionalisation of filter papers were carried out successfully. The imidazolium zwitterions were converted into ionic liquids via hydrothermal decarboxylation in flow, a benign and scalable technique. This method provides access to imidazolium ionic liquids via a simple and sustainable methodology, whilst completely avoiding contamination with halide salts. Different ionic liquids can be generated depending on the functionality contained in the ImZw precursor. Two alanine-derived ionic liquids were assessed for their physicochemical properties and applications as solvents for the dissolution of cellulose and the Heck coupling. N2 - In dieser Arbeit wurden, den Prinzipien der nachhaltigen Chemie folgend, neue funktionalisierte Imidazolium-Verbindungen aus Biomasse hergestellt. Diese wurden als Plattformmoleküle verwendet, die durch einfache Derivation in verschiedene andere Verbindungen überführt, und als Bausteine für die Herstellung von Materialien genutzt werden können. Imidazolium Zwitterionen (ImZw) wurden in Eintopfreaktionen in Wasser dargestellt, wobei alle Ausgangsstoffe auf nachwachsenden Rohstoffen basierten Durch die Verwendung von Aminosaeuren wurden die ImZw durch die Wahl der verschiedenen Seitenketten direkt funktionalisiert. Die Säureeigenschaften der Moleküle wurden bestimmt und ihre Eignung als Katalysatoren überprüft. An einer Modellverbindung ewurden verschiedene Modifikationen der Carboxylgruppen unternommen, u.a. wurde es mit verschiedenen Alkoholen esterifiziert, und anfolgend auch mit verschiedenen Aminen amidiert. Eines von den esterifizierten ImZw wurde als Monomer für die Synthese einer komplett aus nachwachsenden Rohstoffen hergestellten polyionischen Flüssigkeit verwendet, sowie für die Funktionalisierung von Cellulosefasern und Filterpapieren. Des weiteren wurden die ImZw unter hydrothermalen Bedingungen in der Gegenwart von Essigsäure decarboxyliert und so in ionische Flüssigkeiten überführt. Diese Reaktionen wurden in einem Durchflußreaktor durchgeführt, der gegenüber anderen Synthesemethoden weniger Energie verwendet. Die so hergestellten ionischen Flüssigkeiten wurden in zwei Anwendungen getestet, wo sie sehr vielversprechende Ergebnisse zeigten. Eine wurde als Lösungsmittel in einer Heck Reaktion verwendet, wo der Pd-Katalysator 5 mal ohne Aktivitätsverlust recycelt werden konnte eine andere konnte einen hohe Menge an Cellulose (16.9 wt%) lösen. KW - ionic liquids KW - platform chemicals KW - renewables KW - imidazolium KW - green chemistry KW - hydrothermal KW - ionische Flüssigkeiten KW - nachhaltige Chemie KW - Imidazolium KW - Zwitterionen KW - nachwachsende Rohstoffe Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77412 ER - TY - THES A1 - Krügel, André T1 - Eye movement control during reading : factors and principles of computing the word center for saccade planning T1 - Augenbewegungskontrolle beim Lesen : Faktoren und Prinzipien der Bestimmung der Wortmitte zur Sakkadenplanung N2 - Reading is a complex cognitive task based on the analyses of visual stimuli. Due to the physiology of the eye, only a small number of letters around the fixation position can be extracted with high visual acuity, while the visibility of words and letters outside this so-called foveal region quickly drops with increasing eccentricity. As a consequence, saccadic eye movements are needed to repeatedly shift the fovea to new words for visual word identification during reading. Moreover, even within a foveated word fixation positions near the word center are superior to other fixation positions for efficient word recognition (O’Regan, 1981; Brysbaert, Vitu, and Schroyens, 1996). Thus, most reading theories assume that readers aim specifically at word centers during reading (for a review see Reichle, Rayner, & Pollatsek, 2003). However, saccades’ landing positions within words during reading are in fact systematically modulated by the distance of the launch site from the word center (McConkie, Kerr, Reddix, & Zola, 1988). In general, it is largely unknown how readers identify the center of upcoming target words and there is no computational model of the sensorimotor translation of the decision for a target word into spatial word center coordinates. Here we present a series of three studies which aim at advancing the current knowledge about the computation of saccade target coordinates during saccade planning in reading. Based on a large corpus analyses, we firstly identified word skipping as a further factor beyond the launch-site distance with a likewise systematic and surprisingly large effect on within-word landing positions. Most importantly, we found that the end points of saccades after skipped word are shifted two and more letters to the left as compared to one-step saccades (i.e., from word N to word N+1) with equal launch-site distances. Then we present evidence from a single saccade experiment suggesting that the word-skipping effect results from highly automatic low-level perceptual processes, which are essentially based on the localization of blank spaces between words. Finally, in the third part, we present a Bayesian model of the computation of the word center from primary sensory measurements of inter-word spaces. We demonstrate that the model simultaneously accounts for launch-site and saccade-type contingent modulations of within-word landing positions in reading. Our results show that the spatial saccade target during reading is the result of complex estimations of the word center based on incomplete sensory information, which also leads to specific systematic deviations of saccades’ landing positions from the word center. Our results have important implications for current reading models and experimental reading research. N2 - Lesen ist eine komplexe kognitive Aufgabe, die auf der Analyse visueller Reize beruht. Aufgrund der Physiologie des Auges kann jedoch nur eine kleine Anzahl von Buchstaben um den Fixationsort mit hoher visueller Genauigkeit wahrgenommen werden, während die Sichtbarkeit der Buchstaben und Wörter außerhalb der sogenannten fovealen Zone mit zunehmender Entfernung stark abnimmt. Während des Lesens sind deshalb sakkadische Augenbewegungen erforderlich, um die Fovea zur visuellen Identifikation neuer Wörter wiederholt innerhalb des Textes zu verschieben. Auch innerhalb eines direkt betrachteten Wortes erlauben mittige Fixationsorte eine effizientere Wortverarbeitung als randnahe Blickpositionen (O’Regan, 1981; Brysbaert, Vitu, and Schroyens, 1996). Die meisten Lesemodelle nehmen deshalb an, dass Leser auf die Mitte von Worten zielen (für eine Übersicht siehe Reichle, Rayner, & Pollatsek, 2003). Es zeigt sich aber, dass Landepositionen innerhalb von Wörtern im Lesen von der Distanz der Startposition einer Sakkade zur Mitte des Zielwortes moduliert werden (McConkie, Kerr, Reddix, & Zola, 1988). Noch ist weitgehend unklar, wie Leser die Mitte eines Zielwortes identifizieren. Es fehlt an computationalen Modellen die die sensumotorische Umwandlung der Auswahl eines Zielwortes in eine räumliche Koordinate der Wortmitte beschreiben. Wir präsentieren hier eine Reihe von drei Studien, die darauf abzielen, das Wissen über die Berechnung von Sakkadenzielkoordinaten im Lesen zu erweitern. In einer umfangreichen Korpusanalyse identifizerten wir zunächst das Überspringen von Wörtern als weiteren wichtigen Faktor bei der Sakkadenprogrammierung, der einen ähnlich systematischen und großen Effekt auf die Landepositionen hat wie die Startpositionen der Sakkaden. Anschließend zeigen wir Ergebnisse eines einfachen Sakkadenexperiments, welche nahelegen, dass der Effekt übersprungener Wörter das Ergebnis hoch automatisierter perzeptueller Prozesse ist, die wesentlich auf der Bestimmung von Leerzeichen zwischen Wörtern basieren. Schließlich präsentieren wir ein Bayesianisches Modell der Berechnung von Wortmitten auf der Grundlage der primären sensorischen Erfassungen von Leerzeichen zwischen Wörtern. Wir zeigen, dass das Modell gleichzeitig Effekte der Startposition und des Sakkadentyps erklärt. Unsere Arbeiten zeigen, dass die Berechnung räumlicher Koordinaten für die Sakkadenprogrammierung im Lesen auf einer komplexen Schätzung der Wortmitte anhand unvollständiger sensorischer Informationen beruht, die zu systematischen Abweichungen von der tatsächlichen Wortmitte führt. Unsere Ergebnisse haben wichtige Folgen für gegenwärtige Lesemodelle und für die experimentelle Leseforschung. KW - Blickbewegungen beim Lesen KW - Landepositionen KW - Modell der Bayesianischen Sakkadenplanung KW - Überspringen von Wörtern KW - Wortgrenzen KW - eye movements during reading KW - landing positions KW - model of Bayesian saccade planning KW - word skipping KW - word boundaries Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72599 ER - TY - THES A1 - Krüger, Jens T1 - Enterprise-specific in-memory data managment : HYRISEc - an in-memory column store engine for OLXP Y1 - 2014 PB - Hasso-Plattner-Insitut CY - Potsdam ER - TY - THES A1 - Lang, Iris Scarlett T1 - Fetal programming of growth and metabolism by maternal dietary composition BT - effects of high and low dietary protein:carbohydrate ratios in pregnant primiparous sows Y1 - 2014 ER -