TY - THES A1 - Tympel, Jens Günter T1 - Numerical modeling of the Cenozoic Pamir-Tien Shan orogeny Y1 - 2014 ER - TY - THES A1 - Trümper, Jonas T1 - Visualization techniques for the analysis of software behavior and related structures T1 - Visualisierungstechniken für die Analyse von Softwareverhalten und verwandter Strukturen N2 - Software maintenance encompasses any changes made to a software system after its initial deployment and is thereby one of the key phases in the typical software-engineering lifecycle. In software maintenance, we primarily need to understand structural and behavioral aspects, which are difficult to obtain, e.g., by code reading. Software analysis is therefore a vital tool for maintaining these systems: It provides - the preferably automated - means to extract and evaluate information from their artifacts such as software structure, runtime behavior, and related processes. However, such analysis typically results in massive raw data, so that even experienced engineers face difficulties directly examining, assessing, and understanding these data. Among other things, they require tools with which to explore the data if no clear question can be formulated beforehand. For this, software analysis and visualization provide its users with powerful interactive means. These enable the automation of tasks and, particularly, the acquisition of valuable and actionable insights into the raw data. For instance, one means for exploring runtime behavior is trace visualization. This thesis aims at extending and improving the tool set for visual software analysis by concentrating on several open challenges in the fields of dynamic and static analysis of software systems. This work develops a series of concepts and tools for the exploratory visualization of the respective data to support users in finding and retrieving information on the system artifacts concerned. This is a difficult task, due to the lack of appropriate visualization metaphors; in particular, the visualization of complex runtime behavior poses various questions and challenges of both a technical and conceptual nature. This work focuses on a set of visualization techniques for visually representing control-flow related aspects of software traces from shared-memory software systems: A trace-visualization concept based on icicle plots aids in understanding both single-threaded as well as multi-threaded runtime behavior on the function level. The concept’s extensibility further allows the visualization and analysis of specific aspects of multi-threading such as synchronization, the correlation of such traces with data from static software analysis, and a comparison between traces. Moreover, complementary techniques for simultaneously analyzing system structures and the evolution of related attributes are proposed. These aim at facilitating long-term planning of software architecture and supporting management decisions in software projects by extensions to the circular-bundle-view technique: An extension to 3-dimensional space allows for the use of additional variables simultaneously; interaction techniques allow for the modification of structures in a visual manner. The concepts and techniques presented here are generic and, as such, can be applied beyond software analysis for the visualization of similarly structured data. The techniques' practicability is demonstrated by several qualitative studies using subject data from industry-scale software systems. The studies provide initial evidence that the techniques' application yields useful insights into the subject data and its interrelationships in several scenarios. N2 - Die Softwarewartung umfasst alle Änderungen an einem Softwaresystem nach dessen initialer Bereitstellung und stellt damit eine der wesentlichen Phasen im typischen Softwarelebenszyklus dar. In der Softwarewartung müssen wir insbesondere strukturelle und verhaltensbezogene Aspekte verstehen, welche z.B. alleine durch Lesen von Quelltext schwer herzuleiten sind. Die Softwareanalyse ist daher ein unverzichtbares Werkzeug zur Wartung solcher Systeme: Sie bietet - vorzugsweise automatisierte - Mittel, um Informationen über deren Artefakte, wie Softwarestruktur, Laufzeitverhalten und verwandte Prozesse, zu extrahieren und zu evaluieren. Eine solche Analyse resultiert jedoch typischerweise in großen und größten Rohdaten, die selbst erfahrene Softwareingenieure direkt nur schwer untersuchen, bewerten und verstehen können. Unter Anderem dann, wenn vorab keine klare Frage formulierbar ist, benötigen sie Werkzeuge, um diese Daten zu erforschen. Hierfür bietet die Softwareanalyse und Visualisierung ihren Nutzern leistungsstarke, interaktive Mittel. Diese ermöglichen es Aufgaben zu automatisieren und insbesondere wertvolle und belastbare Einsichten aus den Rohdaten zu erlangen. Beispielsweise ist die Visualisierung von Software-Traces ein Mittel, um das Laufzeitverhalten eines Systems zu ergründen. Diese Arbeit zielt darauf ab, den "Werkzeugkasten" der visuellen Softwareanalyse zu erweitern und zu verbessern, indem sie sich auf bestimmte, offene Herausforderungen in den Bereichen der dynamischen und statischen Analyse von Softwaresystemen konzentriert. Die Arbeit entwickelt eine Reihe von Konzepten und Werkzeugen für die explorative Visualisierung der entsprechenden Daten, um Nutzer darin zu unterstützen, Informationen über betroffene Systemartefakte zu lokalisieren und zu verstehen. Da es insbesondere an geeigneten Visualisierungsmetaphern mangelt, ist dies eine schwierige Aufgabe. Es bestehen, insbesondere bei komplexen Softwaresystemen, verschiedenste offene technische sowie konzeptionelle Fragestellungen und Herausforderungen. Diese Arbeit konzentriert sich auf Techniken zur visuellen Darstellung kontrollflussbezogener Aspekte aus Software-Traces von Shared-Memory Softwaresystemen: Ein Trace-Visualisierungskonzept, basierend auf Icicle Plots, unterstützt das Verstehen von single- und multi-threaded Laufzeitverhalten auf Funktionsebene. Die Erweiterbarkeit des Konzepts ermöglicht es zudem spezifische Aspekte des Multi-Threading, wie Synchronisation, zu visualisieren und zu analysieren, derartige Traces mit Daten aus der statischen Softwareanalyse zu korrelieren sowie Traces mit einander zu vergleichen. Darüber hinaus werden komplementäre Techniken für die kombinierte Analyse von Systemstrukturen und der Evolution zugehöriger Eigenschaften vorgestellt. Diese zielen darauf ab, die Langzeitplanung von Softwarearchitekturen und Management-Entscheidungen in Softwareprojekten mittels Erweiterungen an der Circular-Bundle-View-Technik zu unterstützen: Eine Erweiterung auf den 3-dimensionalen Raum ermöglicht es zusätzliche visuelle Variablen zu nutzen; Strukturen können mithilfe von Interaktionstechniken visuell bearbeitet werden. Die gezeigten Techniken und Konzepte sind allgemein verwendbar und lassen sich daher auch jenseits der Softwareanalyse einsetzen, um ähnlich strukturierte Daten zu visualisieren. Mehrere qualitative Studien an Softwaresystemen in industriellem Maßstab stellen die Praktikabilität der Techniken dar. Die Ergebnisse sind erste Belege dafür, dass die Anwendung der Techniken in verschiedenen Szenarien nützliche Einsichten in die untersuchten Daten und deren Zusammenhänge liefert. KW - Visualisierung KW - Softwarewartung KW - Softwareanalyse KW - Softwarevisualisierung KW - Laufzeitverhalten KW - visualization KW - software maintenance KW - software analysis KW - software visualization KW - runtime behavior Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72145 ER - TY - THES A1 - Trost, Gerda T1 - Poly(A) Polymerase 1 (PAPS1) influences organ size and pathogen response in Arabidopsis thaliana T1 - Poly(A) Polymerase 1 (PAPS1) beeinflusst die Organgröße und Pathogenantwort in Arabidopsis thaliana N2 - Polyadenylation of pre-mRNAs is critical for efficient nuclear export, stability, and translation of the mature mRNAs, and thus for gene expression. The bulk of pre-mRNAs are processed by canonical nuclear poly(A) polymerase (PAPS). Both vertebrate and higher-plant genomes encode more than one isoform of this enzyme, and these are coexpressed in different tissues. However, in neither case is it known whether the isoforms fulfill different functions or polyadenylate distinct subsets of pre-mRNAs. This thesis shows that the three canonical nuclear PAPS isoforms in Arabidopsis are functionally specialized owing to their evolutionarily divergent C-terminal domains. A moderate loss-of-function mutant in PAPS1 leads to increase in floral organ size, whereas leaf size is reduced. A strong loss-of-function mutation causes a male gametophytic defect, whereas a weak allele leads to reduced leaf growth. By contrast, plants lacking both PAPS2 and PAPS4 function are viable with wild-type leaf growth. Polyadenylation of SMALL AUXIN UP RNA (SAUR) mRNAs depends specifically on PAPS1 function. The resulting reduction in SAUR activity in paps1 mutants contributes to their reduced leaf growth, providing a causal link between polyadenylation of specific pre-mRNAs by a particular PAPS isoform and plant growth. Additionally, opposite effects of PAPS1 on leaf and flower growth reflect the different identities of these organs. The overgrowth of paps1 mutant petals is due to increased recruitment of founder cells into early organ primordia whereas the reduced leaf size is due to an ectopic pathogen response. This constitutive immune response leads to increased resistance to the biotrophic oomycete Hyaloperonospora arabidopsidis and reflects activation of the salicylic acid-independent signalling pathway downstream of ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immune responses are accompanied by intracellular redox changes. Consistent with this, the redox-status of the chloroplast is altered in paps1-1 mutants. The molecular effects of the paps1-1 mutation were analysed using an RNA sequencing approach that distinguishes between long- and short tailed mRNA. The results shown here suggest the existence of an additional layer of regulation in plants and possibly vertebrate gene expression, whereby the relative activities of canonical nuclear PAPS isoforms control de novo synthesized poly(A) tail length and hence expression of specific subsets of mRNAs. N2 - Polyadenylierung von prä-mRNAs ist entscheidend für den Export aus dem Zellkern, die Stabilität und die Translation der reifen mRNAs und dadurch für die Genexpression. Der Großteil der mRNAs wird durch sogenannte canonische Poly(A) Polymerasen (cPAPS) prozessiert. Die Genome von sowohl Wirbeltieren als auch Pflanzen kodieren mehr als eine Isoform dieser Enzyme, welche gleichzeitig in verschiedenen Geweben exprimiert werden. Es ist jedoch kein Beispiel bekannt, das zeigt, ob die verschiedenen Isoformen unterschiedliche Funktionen einnehmen bzw. verschiedene Untergruppen von mRNAs polyadenylieren. Diese Arbeit zeigt, dass drei canonische PAPS Isoformen in Arabidopsis thaliana aufgrund ihrer evolutionär unterschiedlichen C-terminalen Domänen spezialisierte Funktionen haben. Eine schwache Verlust-Mutation im PAPS1 Gen bewirkt eine Vergrößerung der Blütenorgane, während die Blattgröße vermindert ist. Eine starke Verlust-Mutation bewirkt zusätzlich einen Defekt der männlichen Keimzellen. Im Gegenzug dazu sind Mutanten des PAPS2 oder PAPS4 Gens gesund und zeigen ein normales Wachstum. Polyadenylierung von SMALL AUXIN UP RNA (SAUR) mRNAs hängt spezifisch von der Funktion von PAPS1 ab. Die daraus entstehende Reduzierung der SAUR Aktivität in den paps1 Mutanten trägt zur Verringerung der Blattgröße bei und stellt eine kausale Verbindung zwischen Polyadenylierung spezifischer mRNAs durch bestimmte PAPS Isoformen und Pflanzenwachstum dar. Zusätzlich spiegeln die unterschiedlichen Effekte von PAPS1 auf Blüten und Blätter die Identitäten dieser Organe wieder. Das übermäßige Wachstum der mutanten Petalen beruht auf einer erhöhten Anzahl an Gründer-Zellen im frühen Primordium, wohingegen die verminderte Blattgröße auf eine ektopische Pathogen Antwort zurückzuführen ist. Diese konstitutive Immunantwort bewirkt eine erhöhte Resistenz der Mutanten gegenüber dem biotrophen Oomyceten Hyaloperonospora arabidopsidis und reflektiert die Aktivierung des Salizylsäure unabhängigen Signalweges von ENHANCED DISEASE SUSCEPTIBILITY1 (EDS1)/PHYTOALEXIN DEFICIENT4 (PAD4). Immunantworten sind von Veränderungen des intrazellulären Redoxpotenzials gekennzeichnet. Damit übereinstimmend zeigen die Chloroplasten der paps1-1 Mutanten ein verändertes Redoxpotenzial. Zur genaueren Aufklärung der molekularen Effekte der paps1 1 mutation wurde eine RNA-Sequenzierungsmethode verwendet, die zwischen mRNAs mit langem oder kurzem Poly(A) Schwanz unterscheidet. Die Aktivitäten der verschiedenen canonischen PAPS Isoformen kontrollieren die Länge des neu synthetisierten poly(A) Schwanzes und damit die Expression spezifischer Untergruppen von mRNAs. Dadurch lassen die hier gezeigten Ergebnisse eine weitere Ebene der Genregulierung in Pflanzen, und möglicherweise auch in anderen Eukaryoten, vermuten. KW - Polyadenylierung KW - Pathogenantwort KW - Organgröße KW - polyadenylation KW - pathogen response KW - organ size Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72345 ER - TY - THES A1 - Treusch, Yvonne T1 - Leitliniengestützte Therapie von neuropsychiatrischen Symptomen bei Demenz BT - gegenwärtige Situationen der Leitlinienimplementierung mit Fokus auf nicht-pharmakologischen Behandlungsoptionen für Pflegeheimbewohnern mit Apathie Y1 - 2014 ER - TY - THES A1 - Trabant, Christoph T1 - Ultrafast photoinduced phase transitions in complex materials probed by time-resolved resonant soft x-ray diffraction T1 - Ultraschnelle lichtinduzierte Phasenübergänge in komplexen Materialien untersucht mit zeitaufgelöster resonanter Weichröntgenbeugung N2 - In processing and data storage mainly ferromagnetic (FM) materials are being used. Approaching physical limits, new concepts have to be found for faster, smaller switches, for higher data densities and more energy efficiency. Some of the discussed new concepts involve the material classes of correlated oxides and materials with antiferromagnetic coupling. Their applicability depends critically on their switching behavior, i.e., how fast and how energy efficient material properties can be manipulated. This thesis presents investigations of ultrafast non-equilibrium phase transitions on such new materials. In transition metal oxides (TMOs) the coupling of different degrees of freedom and resulting low energy excitation spectrum often result in spectacular changes of macroscopic properties (colossal magneto resistance, superconductivity, metal-to-insulator transitions) often accompanied by nanoscale order of spins, charges, orbital occupation and by lattice distortions, which make these material attractive. Magnetite served as a prototype for functional TMOs showing a metal-to-insulator-transition (MIT) at T = 123 K. By probing the charge and orbital order as well as the structure after an optical excitation we found that the electronic order and the structural distortion, characteristics of the insulating phase in thermal equilibrium, are destroyed within the experimental resolution of 300 fs. The MIT itself occurs on a 1.5 ps timescale. It shows that MITs in functional materials are several thousand times faster than switching processes in semiconductors. Recently ferrimagnetic and antiferromagnetic (AFM) materials have become interesting. It was shown in ferrimagnetic GdFeCo, that the transfer of angular momentum between two opposed FM subsystems with different time constants leads to a switching of the magnetization after laser pulse excitation. In addition it was theoretically predicted that demagnetization dynamics in AFM should occur faster than in FM materials as no net angular momentum has to be transferred out of the spin system. We investigated two different AFM materials in order to learn more about their ultrafast dynamics. In Ho, a metallic AFM below T ≈ 130 K, we found that the AFM Ho can not only be faster but also ten times more energy efficiently destroyed as order in FM comparable metals. In EuTe, an AFM semiconductor below T ≈ 10 K, we compared the loss of magnetization and laser-induced structural distortion in one and the same experiment. Our experiment shows that they are effectively disentangled. An exception is an ultrafast release of lattice dynamics, which we assign to the release of magnetostriction. The results presented here were obtained with time-resolved resonant soft x-ray diffraction at the Femtoslicing source of the Helmholtz-Zentrum Berlin and at the free-electron laser in Stanford (LCLS). In addition the development and setup of a new UHV-diffractometer for these experiments will be reported. N2 - In der Datenspeichertechnologie werden bisher hauptsächlich ferromagnetische Materialien eingesetzt. Da mit diesen aber physikalische Grenzen erreicht werden, werden neue Konzepte gesucht, um schnellere und kleinere Schalter, größere Datendichten und eine höherere Energieeffizienz zu erzeugen. Unter den diskutierten Materialklassen finden sich komplexen Übergangsmetalloxide und Materialien mit antiferromagnetischer Kopplung. Die Anwendbarkeit solcher Materialien hängt stark davon ab, wie schnell sich deren Eigenschaften verändern lassen und wieviel Energie dafür eingesetzt werden muss. Die vorliegende Arbeit beschäftigt sich mit ultraschnellen, Nicht-Gleichgewicht-Phasenübergängen genau in solchen Materialien. In Übergangsmetalloxiden führt die enge Kopplung zwischen den unterschiedlichen Freiheitsgraden zu einem effektiven niederenergetischen Anregungsspektrum. Diese Anregungen sind oft verknüpft mit spektakulären makroskopischen Eigenschaften, wie z.B. dem kolossalen Magnetowiderstand, Hochtemperatur-Supraleitung, Metall- Isolator-Übergang, die oft von nanoskaliger Ordnung von Spins, Ladungen, orbitaler Besetzung sowie Gitterverzerrungen begleitet sind. Dadurch werden diese Materialien interessant für Anwendbarkeit. Magnetit, ein Prototyp eines solchen funktionalen Materials zeigt einen Metall-Isolator-Übergang bei T = 123 K. Untersucht man die Ladungs- und orbitale Ordnung sowie die Struktur nach einer optischen Anregung, so findet man, dass die elektronische Struktur und Gitterverzerrung, die kennzeichnend für die Tieftemperaturphase sind, innerhalb der Zeitauflösung des Experiments von 300 fs zerstört wird. Der eigentliche Metall-Isolator-Übergang zeigt sich erst nach 1.5 ps. Die Ergebnisse zeigen, dass MITs in funktionalen Materialien bis zu tausend Mal schneller geschaltet werden können als in vorhandenen Halbleiter-Schaltern. Seit kurzem rücken auch ferrimagnetische und antiferromagnetische Materialen in den Fokus des Interesses. Es wurde im Ferrimagnet GdFeCo gezeigt, dass der Transfer von Drehimpuls zwischen zwei entgegengesetzten Subsystemen mit unterschiedlichen Zeitkonstanten zu einem Umschalten der Magnetisierung führt. Zudem wurde vorhergesagt, dass Demagnetisierungsdynamiken in antiferromagnetischen Materialien schneller ablaufen soll als in ferromagnetischen, da kein Drehimpuls aus dem Spinsystem abgeführt werden muss. Damit wir mehr über antiferromagnetische Dynamik erfahren haben wir zwei unterschiedliche Antiferromagneten untersucht, um sie mit den bekannten FM zu vergleichen. Im metallischen AFM Holmium fanden wir, dass die magnetische Ordnung schneller und zehnmal energieeffizienter zerstört werden kann als in vergleichbaren FM Metallen. In Europium-Tellurid, einem antiferromagnetischem Halbleiter, haben wir den Zerfall der magnetischen Ordnung im Hinblick auf Wechselwirkungen mit der Struktur untersucht. Wir fanden auf kurzen Zeitskalen eine eher entkoppelte Dynamik. Eine Ausnahme ist ein schneller Beitrag zur Gitterdynamik, den wir mit dem Wegfall von Magnetostriktion erklären. Die hier gezeigten Ergebnisse wurden mit Hilfe zeitaufgelöster resonanter weicher Röntgenbeugung an der Femtoslicing Strahlungsquelle des Helmholtz-Zentrums Berlin und am freien Elektronenlaser LCLS gemessen. Zusätzlich wird über die Entwicklung und den Bau eines UHV-Diffraktometers für diese Experimente berichtet. KW - Ultraschnell KW - Weichröntgenbeugung KW - nichtgleichgewichts Dynamik KW - Phasenübergänge KW - Antiferromagnetisch KW - Ultrafast KW - soft x-ray diffraction KW - photoinduced dynamics KW - phase transitions KW - antiferromagnetic Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71377 ER - TY - THES A1 - Tinnefeld, Christian T1 - Building a columnar database on shared main memory-based storage BT - database operator placement in a shared main memory-based storage system that supports data access and code execution N2 - In the field of disk-based parallel database management systems exists a great variety of solutions based on a shared-storage or a shared-nothing architecture. In contrast, main memory-based parallel database management systems are dominated solely by the shared-nothing approach as it preserves the in-memory performance advantage by processing data locally on each server. We argue that this unilateral development is going to cease due to the combination of the following three trends: a) Nowadays network technology features remote direct memory access (RDMA) and narrows the performance gap between accessing main memory inside a server and of a remote server to and even below a single order of magnitude. b) Modern storage systems scale gracefully, are elastic, and provide high-availability. c) A modern storage system such as Stanford's RAMCloud even keeps all data resident in main memory. Exploiting these characteristics in the context of a main-memory parallel database management system is desirable. The advent of RDMA-enabled network technology makes the creation of a parallel main memory DBMS based on a shared-storage approach feasible. This thesis describes building a columnar database on shared main memory-based storage. The thesis discusses the resulting architecture (Part I), the implications on query processing (Part II), and presents an evaluation of the resulting solution in terms of performance, high-availability, and elasticity (Part III). In our architecture, we use Stanford's RAMCloud as shared-storage, and the self-designed and developed in-memory AnalyticsDB as relational query processor on top. AnalyticsDB encapsulates data access and operator execution via an interface which allows seamless switching between local and remote main memory, while RAMCloud provides not only storage capacity, but also processing power. Combining both aspects allows pushing-down the execution of database operators into the storage system. We describe how the columnar data processed by AnalyticsDB is mapped to RAMCloud's key-value data model and how the performance advantages of columnar data storage can be preserved. The combination of fast network technology and the possibility to execute database operators in the storage system opens the discussion for site selection. We construct a system model that allows the estimation of operator execution costs in terms of network transfer, data processed in memory, and wall time. This can be used for database operators that work on one relation at a time - such as a scan or materialize operation - to discuss the site selection problem (data pull vs. operator push). Since a database query translates to the execution of several database operators, it is possible that the optimal site selection varies per operator. For the execution of a database operator that works on two (or more) relations at a time, such as a join, the system model is enriched by additional factors such as the chosen algorithm (e.g. Grace- vs. Distributed Block Nested Loop Join vs. Cyclo-Join), the data partitioning of the respective relations, and their overlapping as well as the allowed resource allocation. We present an evaluation on a cluster with 60 nodes where all nodes are connected via RDMA-enabled network equipment. We show that query processing performance is about 2.4x slower if everything is done via the data pull operator execution strategy (i.e. RAMCloud is being used only for data access) and about 27% slower if operator execution is also supported inside RAMCloud (in comparison to operating only on main memory inside a server without any network communication at all). The fast-crash recovery feature of RAMCloud can be leveraged to provide high-availability, e.g. a server crash during query execution only delays the query response for about one second. Our solution is elastic in a way that it can adapt to changing workloads a) within seconds, b) without interruption of the ongoing query processing, and c) without manual intervention. N2 - Diese Arbeit beschreibt die Erstellung einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Motiviert wird diese Arbeit durch drei Faktoren. Erstens ist moderne Netzwerktechnologie mit “Remote Direct Memory Access” (RDMA) ausgestattet. Dies reduziert den Unterschied hinsichtlich Latenz und Durchsatz zwischen dem Speicherzugriff innerhalb eines Rechners und auf einen entfernten Rechner auf eine Größenordnung. Zweitens skalieren moderne Speichersysteme, sind elastisch und hochverfügbar. Drittens hält ein modernes Speichersystem wie Stanford's RAMCloud alle Daten im Hauptspeicher vor. Diese Eigenschaften im Kontext einer spalten-orientierten Datenbank zu nutzen ist erstrebenswert. Die Arbeit ist in drei Teile untergliedert. Der erste Teile beschreibt die Architektur einer spalten-orientierten Datenbank auf einem geteilten, Hauptspeicher-basierenden Speichersystem. Hierbei werden die im Rahmen dieser Arbeit entworfene und entwickelte Datenbank AnalyticsDB sowie Stanford's RAMCloud verwendet. Die Architektur beschreibt wie Datenzugriff und Operatorausführung gekapselt werden um nahtlos zwischen lokalem und entfernten Hauptspeicher wechseln zu können. Weiterhin wird die Ablage der nach einem relationalen Schema formatierten Daten von AnalyticsDB in RAMCloud behandelt, welches mit einem Schlüssel-Wertpaar Datenmodell operiert. Der zweite Teil fokussiert auf die Implikationen bei der Abarbeitung von Datenbankanfragen. Hier steht die Diskussion im Vordergrund wo (entweder in AnalyticsDB oder in RAMCloud) und mit welcher Parametrisierung einzelne Datenbankoperationen ausgeführt werden. Dafür werden passende Kostenmodelle vorgestellt, welche die Abbildung von Datenbankoperationen ermöglichen, die auf einer oder mehreren Relationen arbeiten. Der dritte Teil der Arbeit präsentiert eine Evaluierung auf einem Verbund von 60 Rechnern hinsichtlich der Leistungsfähigkeit, der Hochverfügbarkeit und der Elastizität vom System. T2 - Die Erstellung einer spaltenorientierten Datenbank auf einem verteilten, Hauptspeicher-basierenden Speichersystem KW - computer science KW - database technology KW - main memory computing KW - cloud computing KW - verteilte Datenbanken KW - Hauptspeicher Technologie KW - virtualisierte IT-Infrastruktur Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72063 ER - TY - THES A1 - Tietz, Marcel T1 - Europäisches Verwaltungsmanagement : Vergleich von Hauptstädten neuer und alter Mitgliedsstaaten der EU am Beispiel der Bürgerdienste T1 - European administrative management : comparison of capital cities of new and old member states of the EU using the example of citizen services N2 - Im Rahmen der Dissertation wird die Anwendung und Wirkung von Kernelementen des New Public Management (NPM) am Beispiel der Bürgerdienste der sechs europäischen Hauptstädte Berlin, Brüssel, Kopenhagen, Madrid, Prag und Warschau analysiert. Hierbei steht der Vergleich von Hauptstädten der MOE-Staaten mit Hauptstädten alter EU-Mitgliedsstaaten im Vordergrund. Es wird die folgende Forschungshypothese untersucht: Die Verwaltungen in den Hauptstädten der östlichen Mitgliedsstaaten der EU haben in Folge der grundsätzlichen gesellschaftlichen und politischen Umbrüche in den 1990er Jahren bedeutend mehr Kernelemente des NPM beim Neuaufbau ihrer öffentlichen Verwaltungen eingeführt. Durch den folgerichtigen Aufbau kundenorientierter und moderner Verwaltungen sowie der strikten Anwendung der Kernelemente des New Public Management arbeiten die Bürgerdienste in den Hauptstädten östlicher EU-Mitgliedsstaaten effizienter und wirkungsvoller als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten. Zur Überprüfung der Forschungshypothese werden die Vergleichsstädte zunächst den entsprechenden Rechts- und Verwaltungstraditionen (kontinentaleuropäisch deutsch, napoleonisch und skandinavisch) zugeordnet und bezüglich ihrer Ausgangslage zum Aufbau einer modernen Verwaltung (Westeuropäische Verwaltung, Wiedervereinigungsverwaltung und Transformations-verwaltung) kategorisiert. Im Anschluss werden die institutionellen Voraussetzungen hinterfragt, was die deskriptive Darstellung der Stadt- und Verwaltungsgeschichte sowie die Untersuchung von organisatorischen Strukturen der Bürgerdienste, die Anwendung der NPM-Instrumente als auch die Innen- und Außenperspektive des NPM umfasst. Es wird festgestellt, ob und in welcher Form die Bürgerdienste der Vergleichsstädte die Kernelemente des NPM anwenden. Im Anschluss werden die Vergleichsstädte bezüglich der Anwendung der Kernelemente miteinander verglichen, wobei der Fokus auf dem persönlichen Vertriebsweg und der Kundenorientierung liegt. Der folgende Teil der Dissertation befasst sich mit dem Output der Bürgerdienste, der auf operative Resultate untersucht und verglichen wird. Hierbei stellt sich insbesondere die Frage nach den Leistungsmengen und der Produktivität des Outputs. Es werden aber auch die Ergebnisse von Verwaltungsprozessen untersucht, insbesondere in Bezug auf die Kundenorientierung. Hierfür wird ein Effizienzvergleich der Bürgerdienste in den Vergleichsstädten anhand einer relativen Effizienzmessung und der Free Disposal Hull (FDH)-Methode nach Bouckaert durchgeführt. Es ist eine Konzentration auf populäre Dienstleistungen aus dem Portfolio der Bürgerdienste notwendig. Daher werden die vergleichbaren Dienstleistungen Melde-, Personalausweis-, Führerschein- und Reisepass-angelegenheiten unter Einbeziehung des Vollzeitäquivalents zur Berechnung der Effizienz der Bürgerdienste herangezogen. Hierfür werden Daten aus den Jahren 2009 bis 2011 genutzt, die teilweise aus verwaltungsinternen Datenbanken stammen. Anschließend wird der Versuch unternommen, den Outcome in die Effizienzanalyse der Bürgerdienste einfließen zu lassen. In diesem Zusammenhang wird die Anwendbarkeit von verschiedenen erweiterten Best-Practice-Verfahren und auch eine Erweiterung der relativen Effizienzmessung und der FDH-Methode geprüft. Als Gesamtfazit der Dissertation kann festgehalten werden, dass die Bürgerdienste in den untersuchten Hauptstädten der MOE-Staaten nicht mehr Kernelemente des NPM anwenden, als die Hauptstädte der westlichen Mitgliedsstaaten der EU. Im Gegenteil wendet Prag deutlich weniger NPM-Instrumente als andere Vergleichsstädte an, wohingegen Warschau zwar viele NPM-Instrumente anwendet, jedoch immer von einer westeuropäischen Vergleichsstadt übertroffen wird. Auch die Hypothese, dass die Bürgerdienste in den Hauptstädten der MOE-Staaten effizienter arbeiten als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten wurde durch die Dissertation entkräftet. Das Gegenteil ist der Fall, da Prag und Warschau im Rahmen des Effizienzvergleichs lediglich durchschnittliche oder schlechte Performances aufweisen. Die aufgestellte Hypothese ist durch die Forschungsergebnisse widerlegt, lediglich das gute Abschneiden der Vergleichsstadt Warschau bei der Anwendungsanalyse kann einen Teil der These im gewissen Umfang bestätigen. N2 - In the context of the thesis, the application and impact of core elements of the New Public Management (NPM) is analysed using the example of the Citizen Services of six European capital cities Berlin, Brussels, Copenhagen, Madrid, Prague and Warsaw. In this connection the comparison of the capital cities in the CEE countries with capital cities in the old EU Member States is foregrounded. The following research hypothesis is examined: In consequence of the fundamental social and political upheavals in the 1990s the administrations in the capital cities of the eastern EU Member States have introduced significantly more core elements of NPM during the reorganisation of their public administrations. Due to the consequent erection of customer-oriented and modern administrations and the strict application of core elements of the New Public Management, the Citizen Services in the capital cities of eastern EU Member States work more efficient and effective than comparable Citizen Services in the capital cities of western EU Member States. To survey the research hypothesis, the capital cities are initially assigned to the relevant legal and administrative traditions (Continental European German, Napoleonic and Scandinavian) and afterwards categorised with respect to their initial position to build up a modern administration (western European administration, reunion administration and transformation administration). Thereafter institutional requirements are questioned, which includes a descriptive presentation of urban and administrative history and the analyses of organisational structures of the Citizen Services, the application of NPM instruments as well as the internal and external perspectives of the NPM. It is concluded, whether and in what form the Citizen Services of the capital cities utilise the core elements of NPM. Following the capital cities are compared regarding the application of core elements, whereat the focus is on the personal channel of distribution and customer orientation. The following part of the thesis deals with the output of Citizen Services, which is examined and compared to operational results. This raises in particular the question of the activity quantity and the efficiency of the output. But there are also examines of the results of administrative processes, particularly in reference to customer orientation. Thus a comparison of efficiency of Citizen Services in the capital cities is performed, which is based on a relative measurement of efficiency and the Free Disposal Hull Method (FDH) according to Bouckaert. A focus on popular services from the portfolio of the Citizen Services is needed, wherefore the efficiency of the Citizen Services is calculated with the comparable services identity card, driving license and passport involving the full-time equivalent. Therefor data from the years 2009 to 2011 are used, which originate from internal administrative databases. Following an attempt is made to include the outcome in the analysis of efficiency of the Citizen Services. In this context, the applicability of various advanced best practice methods and an extension of the relative measurement of efficiency and the FDH method is verified. As an overall conclusion of the thesis can be stated that the Citizen Services in the investigated capital cities of the CEE countries do not apply more core elements of the NPM compared to the capital cities of the western EU Member States. In contrast Prague applies significantly less NPM instruments compared to other capital cities, whereas Warsaw applies many NPM instruments but is always exceeded by a western European capital city. The hypothesis that the Citizen Services in the capital cities of the CEE countries work more efficiently than comparable Citizen Services in the capital cities of the western EU Member States is also ruled by the thesis. The opposite is the case as Prague and Warsaw show only an average or poor performance in the context of the comparison of efficiency. The established hypothesis is disproved by the research results, only the good performance of the capital city of Warsaw in the analysis of application is able to confirm a part of the thesis to a certain extent. KW - New Public Management KW - Bürgerdienste KW - Effizienzanalyse KW - Kommunale Verwaltung KW - new public management KW - citizen services KW - analysis of efficiency KW - local government Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72171 ER - TY - THES A1 - Tian, Fang T1 - Vegetation and environmental changes on millennial, centennial and decadal time-scales in central Mongolia and their driving forces Y1 - 2014 ER - TY - THES A1 - Tetzner, Julia T1 - Stability and change in academic, social, and emotional development from early adolescence to young adulthood BT - the interplay with negative life events and protective factors Y1 - 2014 ER - TY - THES A1 - Tenenboim, Yehezkel T1 - Characterization of a Chlamydomonas protein involved in cell division and autophagy T1 - Charakterisierung eines an Zellteilung und Autophagie beteiligten Chlamydomonas-Proteins N2 - The contractile vacuole (CV) is an osmoregulatory organelle found exclusively in algae and protists. In addition to expelling excessive water out of the cell, it also expels ions and other metabolites and thereby contributes to the cell's metabolic homeostasis. The interest in the CV reaches beyond its immediate cellular roles. The CV's function is tightly related to basic cellular processes such as membrane dynamics and vesicle budding and fusion; several physiological processes in animals, such as synaptic neurotransmission and blood filtration in the kidney, are related to the CV's function; and several pathogens, such as the causative agents of sleeping sickness, possess CVs, which may serve as pharmacological targets. The green alga Chlamydomonas reinhardtii has two CVs. They are the smallest known CVs in nature, and they remain relatively untouched in the CV-related literature. Many genes that have been shown to be related to the CV in other organisms have close homologues in C. reinhardtii. We attempted to silence some of these genes and observe the effect on the CV. One of our genes, VMP1, caused striking, severe phenotypes when silenced. Cells exhibited defective cytokinesis and aberrant morphologies. The CV, incidentally, remained unscathed. In addition, mutant cells showed some evidence of disrupted autophagy. Several important regulators of the cell cycle as well as autophagy were found to be underexpressed in the mutant. Lipidomic analysis revealed many meaningful changes between wild-type and mutant cells, reinforcing the compromised-autophagy observation. VMP1 is a singular protein, with homologues in numerous eukaryotic organisms (aside from fungi), but usually with no relatives in each particular genome. Since its first characterization in 2002 it has been associated with several cellular processes and functions, namely autophagy, programmed cell-death, secretion, cell adhesion, and organelle biogenesis. It has been implicated in several human diseases: pancreatitis, diabetes, and several types of cancer. Our results reiterate some of the observations in VMP1's six reported homologues, but, importantly, show for the first time an involvement of this protein in cell division. The mechanisms underlying this involvement in Chlamydomonas, as well as other key aspects, such as VMP1's subcellular localization and interaction partners, still await elucidation. N2 - Die kontraktile Vakuole ist ein osmoregulatorisches Organell, das ausschließlich in Algen und Protisten vorkommt. Zusätzlich zu ihrer Rolle als Ausstoßer überflüßigen Wassers aus der Zelle heraus, stößt sie auch Ionen und andere Metaboliten aus, und trägt dabei zur metabolischen Homöostase der Zelle bei. Das Interesse an der kontraktilen Vakuole erstreckt sich über seine unmittelbare zelluläre Rolle hinaus. Die Funktion der kontraktilen Vakuole ist mit einigen grundsätzlichen zellulären Verfahren, wie Membrandynamik und Vesikelknospung und -fusion, verwandt; einige physiologische Verfahren in Tieren, zum Beispiel synaptische Neurotransmission und das Filtrieren des Blutes in den Nieren, sind mit der Funktion der Vakuole eng verwandt; und einige Pathogene—der Ursacher der Schlafkrankheit als Beispiel—besitzen kontraktile Vakuolen, die als Ziele von Medikamenten dienen könnten. Die grüne Alge Chlamydomonas reinhardtii verfügt über zwei Vakuolen. Sie sind die kleinsten bekannten in der Natur, und bleiben bisher verhältnismäßig unerforscht. Viele Gene, die in anderen Organismen als kontraktile-Vakuole-bezogen erwiesen wurden, haben Homologe in C. reinhardtii. Wir versuchten, diese Gene auszuschalten und den Einfluss auf die Vakuole zu beobachten. Die Ausschaltung eines unserer Gene, VMP1, verursachte starke, beachtliche Phänotype. Die Zellen zeigten gestörte Zytokinese und aberrante Zellformen. Die kontraktile Vakuole blieb jedoch verschont. Des Weiteren zeigten Mutantzellen einige Hinweise auf gestörte Autophagie. Einige wichtige Gene des Zellzyklus und der Autophagie waren unterexprimiert in Mutantzellen. Lipidomische Analyse zeigte mehrere bedeutsame Unterschiede zwischen Wildtyp und Mutant, die die Beobachtungen der gestörten Autophagie verstärkten. VMP1 ist ein singularisches Protein, mit Homologen in zähligen eukaryotischen Organismen (jedoch nicht in Pilzen), aber üblicherweise ohne Verwandte in den jeweiligen Genomen. Seit seiner Erstcharakterisierung 2002 wurde es mit etlichen zellulären Verfahren, wie Autophagie, programmiertem Zelltod, Sekretion, Zelladhäsion, und Biogenese der Organellen, assoziiert. Es wurde auch mit einigen menschlichen Krankheiten wie Diabetes, Pankreatitis, und einigen Arten von Krebs in Verbindung gebracht. Unsere Ergebnisse wiederholen einige Beobachtungen in anderen Organismen, zeigen dennoch zum ersten Mal eine Beteiligung von VMP1 an der Zellteilung. Die unterliegenden Mechanismen dieser Beteiligung in Chlamydomonas, sowie andere wichtige Aspekte, etwa die subzelluläre Lokalisierung von VMP1 und dessen Interaktionspartner, warten noch auf Aufklärung. KW - VMP1 KW - autophagy KW - cytokinesis KW - chlamydomonas Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70650 ER - TY - THES A1 - Takouna, Ibrahim T1 - Energy-efficient and performance-aware virtual machine management for cloud data centers T1 - Energieeffizientes und performancebewusstes Management virtueller Maschinen für Cloud Datenzentren N2 - Virtualisierte Cloud Datenzentren stellen nach Bedarf Ressourcen zur Verfügu-ng, ermöglichen agile Ressourcenbereitstellung und beherbergen heterogene Applikationen mit verschiedenen Anforderungen an Ressourcen. Solche Datenzentren verbrauchen enorme Mengen an Energie, was die Erhöhung der Betriebskosten, der Wärme innerhalb der Zentren und des Kohlendioxidausstoßes verursacht. Der Anstieg des Energieverbrauches kann durch ein ineffektives Ressourcenmanagement, das die ineffiziente Ressourcenausnutzung verursacht, entstehen. Die vorliegende Dissertation stellt detaillierte Modelle und neue Verfahren für virtualisiertes Ressourcenmanagement in Cloud Datenzentren vor. Die vorgestellten Verfahren ziehen das Service-Level-Agreement (SLA) und die Heterogenität der Auslastung bezüglich des Bedarfs an Speicherzugriffen und Kommunikationsmustern von Web- und HPC- (High Performance Computing) Applikationen in Betracht. Um die präsentierten Techniken zu evaluieren, verwenden wir Simulationen und echte Protokollierung der Auslastungen von Web- und HPC- Applikationen. Außerdem vergleichen wir unser Techniken und Verfahren mit anderen aktuellen Verfahren durch die Anwendung von verschiedenen Performance Metriken. Die Hauptbeiträge dieser Dissertation sind Folgendes: Ein Proaktives auf robuster Optimierung basierendes Ressourcenbereitstellungsverfahren. Dieses Verfahren erhöht die Fähigkeit der Hostes zur Verfüg-ungsstellung von mehr VMs. Gleichzeitig aber wird der unnötige Energieverbrauch minimiert. Zusätzlich mindert diese Technik unerwünschte Ände-rungen im Energiezustand des Servers. Die vorgestellte Technik nutzt einen auf Intervall basierenden Vorhersagealgorithmus zur Implementierung einer robusten Optimierung. Dabei werden unsichere Anforderungen in Betracht gezogen. Ein adaptives und auf Intervall basierendes Verfahren zur Vorhersage des Arbeitsaufkommens mit hohen, in kürzer Zeit auftretenden Schwankungen. Die Intervall basierende Vorhersage ist implementiert in der Standard Abweichung Variante und in der Median absoluter Abweichung Variante. Die Intervall-Änderungen basieren auf einem adaptiven Vertrauensfenster um die Schwankungen des Arbeitsaufkommens zu bewältigen. Eine robuste VM Zusammenlegung für ein effizientes Energie und Performance Management. Dies ermöglicht die gegenseitige Abhängigkeit zwischen der Energie und der Performance zu minimieren. Unser Verfahren reduziert die Anzahl der VM-Migrationen im Vergleich mit den neu vor kurzem vorgestellten Verfahren. Dies trägt auch zur Reduzierung des durch das Netzwerk verursachten Energieverbrauches. Außerdem reduziert dieses Verfahren SLA-Verletzungen und die Anzahl von Änderungen an Energiezus-tänden. Ein generisches Modell für das Netzwerk eines Datenzentrums um die verzö-gerte Kommunikation und ihre Auswirkung auf die VM Performance und auf die Netzwerkenergie zu simulieren. Außerdem wird ein generisches Modell für ein Memory-Bus des Servers vorgestellt. Dieses Modell beinhaltet auch Modelle für die Latenzzeit und den Energieverbrauch für verschiedene Memory Frequenzen. Dies erlaubt eine Simulation der Memory Verzögerung und ihre Auswirkung auf die VM-Performance und auf den Memory Energieverbrauch. Kommunikation bewusste und Energie effiziente Zusammenlegung für parallele Applikationen um die dynamische Entdeckung von Kommunikationsmustern und das Umplanen von VMs zu ermöglichen. Das Umplanen von VMs benutzt eine auf den entdeckten Kommunikationsmustern basierende Migration. Eine neue Technik zur Entdeckung von dynamischen Mustern ist implementiert. Sie basiert auf der Signal Verarbeitung des Netzwerks von VMs, anstatt die Informationen des virtuellen Umstellung der Hosts oder der Initiierung der VMs zu nutzen. Das Ergebnis zeigt, dass unsere Methode die durchschnittliche Anwendung des Netzwerks reduziert und aufgrund der Reduzierung der aktiven Umstellungen Energie gespart. Außerdem bietet sie eine bessere VM Performance im Vergleich zu der CPU-basierten Platzierung. Memory bewusste VM Zusammenlegung für unabhängige VMs. Sie nutzt die Vielfalt des VMs Memory Zuganges um die Anwendung vom Memory-Bus der Hosts zu balancieren. Die vorgestellte Technik, Memory-Bus Load Balancing (MLB), verteilt die VMs reaktiv neu im Bezug auf ihre Anwendung vom Memory-Bus. Sie nutzt die VM Migration um die Performance des gesamtem Systems zu verbessern. Außerdem sind die dynamische Spannung, die Frequenz Skalierung des Memory und die MLB Methode kombiniert um ein besseres Energiesparen zu leisten. N2 - Virtualized cloud data centers provide on-demand resources, enable agile resource provisioning, and host heterogeneous applications with different resource requirements. These data centers consume enormous amounts of energy, increasing operational expenses, inducing high thermal inside data centers, and raising carbon dioxide emissions. The increase in energy consumption can result from ineffective resource management that causes inefficient resource utilization. This dissertation presents detailed models and novel techniques and algorithms for virtual resource management in cloud data centers. The proposed techniques take into account Service Level Agreements (SLAs) and workload heterogeneity in terms of memory access demand and communication patterns of web applications and High Performance Computing (HPC) applications. To evaluate our proposed techniques, we use simulation and real workload traces of web applications and HPC applications and compare our techniques against the other recently proposed techniques using several performance metrics. The major contributions of this dissertation are the following: proactive resource provisioning technique based on robust optimization to increase the hosts' availability for hosting new VMs while minimizing the idle energy consumption. Additionally, this technique mitigates undesirable changes in the power state of the hosts by which the hosts' reliability can be enhanced in avoiding failure during a power state change. The proposed technique exploits the range-based prediction algorithm for implementing robust optimization, taking into consideration the uncertainty of demand. An adaptive range-based prediction for predicting workload with high fluctuations in the short-term. The range prediction is implemented in two ways: standard deviation and median absolute deviation. The range is changed based on an adaptive confidence window to cope with the workload fluctuations. A robust VM consolidation for efficient energy and performance management to achieve equilibrium between energy and performance trade-offs. Our technique reduces the number of VM migrations compared to recently proposed techniques. This also contributes to a reduction in energy consumption by the network infrastructure. Additionally, our technique reduces SLA violations and the number of power state changes. A generic model for the network of a data center to simulate the communication delay and its impact on VM performance, as well as network energy consumption. In addition, a generic model for a memory-bus of a server, including latency and energy consumption models for different memory frequencies. This allows simulating the memory delay and its influence on VM performance, as well as memory energy consumption. Communication-aware and energy-efficient consolidation for parallel applications to enable the dynamic discovery of communication patterns and reschedule VMs using migration based on the determined communication patterns. A novel dynamic pattern discovery technique is implemented, based on signal processing of network utilization of VMs instead of using the information from the hosts' virtual switches or initiation from VMs. The result shows that our proposed approach reduces the network's average utilization, achieves energy savings due to reducing the number of active switches, and provides better VM performance compared to CPU-based placement. Memory-aware VM consolidation for independent VMs, which exploits the diversity of VMs' memory access to balance memory-bus utilization of hosts. The proposed technique, Memory-bus Load Balancing (MLB), reactively redistributes VMs according to their utilization of a memory-bus using VM migration to improve the performance of the overall system. Furthermore, Dynamic Voltage and Frequency Scaling (DVFS) of the memory and the proposed MLB technique are combined to achieve better energy savings. KW - Energieeffizienz KW - Cloud Datenzentren KW - Ressourcenmanagement KW - dynamische Umsortierung KW - energy efficiency KW - cloud datacenter KW - resource management KW - dynamic consolidation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72399 ER - TY - THES A1 - Supaporn, Worakrit T1 - Categorical equivalence of clones Y1 - 2014 ER - TY - THES A1 - Stutz, Franziska T1 - Reading motivation, reading amount, and reading comprehension in the early elementary years Y1 - 2014 ER - TY - THES A1 - Strauß, Jens T1 - Organic carbon in ice-rich permafrost T1 - Organischer Kohlenstoff in eisreichen Permafrostablagerungen BT - characteristics, quantity, and availability BT - stoffliche Charakteristik, Bilanzierung und Verfügbarkeit N2 - Permafrost, defined as ground that is frozen for at least two consecutive years, is a distinct feature of the terrestrial unglaciated Arctic. It covers approximately one quarter of the land area of the Northern Hemisphere (23,000,000 km²). Arctic landscapes, especially those underlain by permafrost, are threatened by climate warming and may degrade in different ways, including active layer deepening, thermal erosion, and development of rapid thaw features. In Siberian and Alaskan late Pleistocene ice-rich Yedoma permafrost, rapid and deep thaw processes (called thermokarst) can mobilize deep organic carbon (below 3 m depth) by surface subsidence due to loss of ground ice. Increased permafrost thaw could cause a feedback loop of global significance if its stored frozen organic carbon is reintroduced into the active carbon cycle as greenhouse gases, which accelerate warming and inducing more permafrost thaw and carbon release. To assess this concern, the major objective of the thesis was to enhance the understanding of the origin of Yedoma as well as to assess the associated organic carbon pool size and carbon quality (concerning degradability). The key research questions were: - How did Yedoma deposits accumulate? - How much organic carbon is stored in the Yedoma region? - What is the susceptibility of the Yedoma region's carbon for future decomposition? To address these three research questions, an interdisciplinary approach, including detailed field studies and sampling in Siberia and Alaska as well as methods of sedimentology, organic biogeochemistry, remote sensing, statistical analyses, and computational modeling were applied. To provide a panarctic context, this thesis additionally includes results both from a newly compiled northern circumpolar carbon database and from a model assessment of carbon fluxes in a warming Arctic. The Yedoma samples show a homogeneous grain-size composition. All samples were poorly sorted with a multi-modal grain-size distribution, indicating various (re-) transport processes. This contradicts the popular pure loess deposition hypothesis for the origin of Yedoma permafrost. The absence of large-scale grinding processes via glaciers and ice sheets in northeast Siberian lowlands, processes which are necessary to create loess as material source, suggests the polygenetic origin of Yedoma deposits. Based on the largest available data set of the key parameters, including organic carbon content, bulk density, ground ice content, and deposit volume (thickness and coverage) from Siberian and Alaskan study sites, this thesis further shows that deep frozen organic carbon in the Yedoma region consists of two distinct major reservoirs, Yedoma deposits and thermokarst deposits (formed in thaw-lake basins). Yedoma deposits contain ~80 Gt and thermokarst deposits ~130 Gt organic carbon, or a total of ~210 Gt. Depending on the approach used for calculating uncertainty, the range for the total Yedoma region carbon store is ±75 % and ±20 % for conservative single and multiple bootstrapping calculations, respectively. Despite the fact that these findings reduce the Yedoma region carbon pool by nearly a factor of two compared to previous estimates, this frozen organic carbon is still capable of inducing a permafrost carbon feedback to climate warming. The complete northern circumpolar permafrost region contains between 1100 and 1500 Gt organic carbon, of which ~60 % is perennially frozen and decoupled from the short-term carbon cycle. When thawed and reintroduced into the active carbon cycle, the organic matter qualities become relevant. Furthermore, results from investigations into Yedoma and thermokarst organic matter quality studies showed that Yedoma and thermokarst organic matter exhibit no depth-dependent quality trend. This is evidence that after freezing, the ancient organic matter is preserved in a state of constant quality. The applied alkane and fatty-acid-based biomarker proxies including the carbon-preference and the higher-land-plant-fatty-acid indices show a broad range of organic matter quality and thus no significantly different qualities of the organic matter stored in thermokarst deposits compared to Yedoma deposits. This lack of quality differences shows that the organic matter biodegradability depends on different decomposition trajectories and the previous decomposition/incorporation history. Finally, the fate of the organic matter has been assessed by implementing deep carbon pools and thermokarst processes in a permafrost carbon model. Under various warming scenarios for the northern circumpolar permafrost region, model results show a carbon release from permafrost regions of up to ~140 Gt and ~310 Gt by the years 2100 and 2300, respectively. The additional warming caused by the carbon release from newly-thawed permafrost contributes 0.03 to 0.14°C by the year 2100. The model simulations predict that a further increase by the 23rd century will add 0.4°C to global mean surface air temperatures. In conclusion, Yedoma deposit formation during the late Pleistocene was dominated by water-related (alluvial/fluvial/lacustrine) as well as aeolian processes under periglacial conditions. The circumarctic permafrost region, including the Yedoma region, contains a substantial amount of currently frozen organic carbon. The carbon of the Yedoma region is well-preserved and therefore available for decomposition after thaw. A missing quality-depth trend shows that permafrost preserves the quality of ancient organic matter. When the organic matter is mobilized by deep degradation processes, the northern permafrost region may add up to 0.4°C to the global warming by the year 2300. N2 - Permafrost, definiert als mehr als zwei aufeinander folgende Jahre gefrorenes Bodenmaterial, ist eines der prägenden Merkmale der unvergletscherten arktischen Landgebiete. Verursacht durch extrem kalte Wintertemperaturen und geringe Schneebedeckung nimmt das Permafrost-Verbreitungsgebiet mit ~23.000.000 km² rund ein Viertel der Landfläche der Nordhemisphäre ein. Von Permafrost unterlagerte arktische Landschaften sind besonders anfällig hinsichtlich einer Erwärmung des Klimas. Verglichen mit der globalen Mitteltemperatur prognostizieren Klimamodelle für die Arktis einen doppelt so starken Anstieg der Temperatur. In einer sich erwärmenden Arktis bewirken Störungen des thermisch-hydrologischen Gleichgewichts eine Degradation von Permafrost und Veränderungen des Oberflächenreliefs. Diese Störungen können zum Beispiel zu einer Vertiefung der saisonalen Auftauschicht, zu thermisch bedingter Erosion sowie zu schneller Oberflächenabsenkung und Thermokarst führen. Im Verbreitungsgebiet der spätpleistozänen eisreichen Permafrost-Ablagerungen Sibiriens und Alaskas, bezeichnet als Yedoma, können Thermokarstprozesse auch mehr als 3 m tiefe organischen Kohlenstoffspeicher verfügbar machen, wenn durch schmelzendes Grundeis und Schmelzwasserdrainage die Oberfläche abgesenkt wird. So kann das Tauen von Permafrost eine globale Bedeutung entwickeln, indem vorher eingefrorener Kohlenstoff wieder dem aktiven Kohlenstoffkreislauf zugeführt wird. Dies kann durch Treibhausgasfreisetzung aus Permafrost zu einer sich selbst verstärkenden weiteren Erwärmung und somit zu fortschreitendem Tauen mit weiterer Kohlenstofffreisetzung führen. Diesen Prozess nennt man Permafrost-Kohlenstoff Rückkopplung. Um das Verständnis der Permafrostkohlenstoffdynamik grundlegend zu verbessern, wurde in dieser Doktorarbeit die Entstehung der Yedoma-Ablagerungen eingeschlossen des darin - Wie wurden die Yedoma-Sedimente abgelagert? - Wie viel Kohlenstoff ist in der Yedoma Region gespeichert? - Wie ist die Anfälligkeit dieses Kohlenstoffs für eine Degradation in der Zukunft? Um die oben genannten drei Forschungsfragen zu beantworten, wurde ein interdisziplinärer Forschungsansatz gewählt. In Sibirien und Alaska wurden detaillierte Felduntersuchungen durchgeführt und Methoden der Sedimentologie, der organischen Biogeochemie, der Fernerkundung sowie der statistischen Analyse und computergestützten Modellierung angewendet. Um diese Ergebnisse in den panarktische Kontext zu setzen, enthält diese Doktorarbeit ebenfalls Ergebnisse einer Studie, welche auf Grundlage einer neu zusammengestellten Datenbank den gesamten Kohlenstoff des arktischen Permafrosts abschätzt. Eine Modellierungsstudie ergänzt die Arbeit bezüglich einer Abschätzung der Kohlenstoffflüsse der Permafrostregion und deren Einfluss auf die globale Erwärmung. Die Ergebnisse zur Yedoma-Entstehung zeigen, dass die Korngrößenverteilungen dieser Ablagerungen, tiefenabhängig betrachtet, sehr homogen sind. Alle gemessenen Korngrößenverteilungen sind schlecht sortiert. Dies deutet auf eine Vielzahl von Transportprozessen hin und widerspricht der populären Hypothese einer reinen Löß-Ablagerung. Interpretiert im Kontext mit der Abwesenheit von Gletschern sowie Eisschilden, als Ausgangsgebiete von Löß-Ablagerungen, in den sibirischen Tiefländern des Spätpleistozäns, zeigt diese Arbeit, dass Yedoma-Ablagerungen polygenetischen Ursprungs sind. Basierend auf dem größten verfügbaren Datensatz der Schlüsselparameter Kohlenstoffgehalt, Lagerungsdichte, Grundeis und Volumen der Ablagerungen von über 20 Untersuchungsgebieten in Sibirien und Alaska zeigt diese Arbeit mit Yedoma- und Thermokarstablagerungen zwei wesentliche Kohlenstoffspeicher der Yedoma Region auf. Yedoma-Ablagerungen enthalten ~80 Gt und Thermokarstablagerungen ~130 Gt organischen Kohlenstoffs, was einer Gesamtmenge von ~210 Gt organischen Kohlenstoffs entspricht. Abhängig vom gewählten Ansatz der Fehlerberechnung liegt der Unsicherheitsbereich dieser Quantitätsabschätzung bei ±75 % (einfaches Bootstrapping) oder ±20 % (wiederholtes Bootstrapping). Obwohl diese Zahlen die bisherigen Berechnungen des Yedoma-Region-Kohlenstoffspeichers vorhergehender Studien halbieren, stellen 210 Gt organischen Kohlenstoffs noch immer einen großen Kohlenstoffspeicher dar, der eine positive Rückkopplung zur globalen Klimaerwärmung bewirken könnte. Die gesamte Permafrostregion beinhaltet zwischen 1100 und 1500 Gt Kohlenstoff, wovon ~60 % dauerhaft gefroren und somit dem derzeitigen Kohlenstoffkreislauf entzogen sind. Wenn dieser Kohlenstoff freigesetzt wird, ist ein weiterer Faktor, die Kohlenstoffqualität, relevant. Die Untersuchungen zur Kohlenstoffqualität zeigen keinen tiefenabhängigen Trend in Yedoma- und Thermokarstablagerungen. Dies belegt, dass nach dem Einfrieren die fossile organische Substanz konserviert wurde. Die genutzten Biomarkerdaten, z.B. der 'carbon preference' Index und der 'higher land plant fatty acid' Index zeigen sowohl für Yedoma- als auch für Thermokarstablagerungen keine signifikanten Unterschiede der Kohlenstoffqualität. Das bedeutet, dass der Kohlenstoffabbau nach dem Auftauen von unterschiedlichen Faktoren abhängig ist. Dazu gehören verschiedene Abbauwege oder schon vor dem Einfrieren geschehener Abbau. Um die Bedeutung des aufgetauten Kohlenstoffs abzuschätzen, wurden Thermokarstprozesse in ein Permafrost-Kohlenstoff-Modell einbezogen. Unter Berücksichtigung verschiedener Erwärmungsszenarien könnte die zirkumarktische Permafrostregion bis zum Jahr 2100 ~140 Gt Kohlenstoff und bis 2300 ~310 Gt in die Atmosphäre freisetzen. Dies entspricht einer Erwärmung der mittleren globalen Oberflächentemperatur von ~0,03 bis ~0,14°C bis 2100 und bis zu ~0,4°C bis 2300. Zusammenfassend stellt diese Dissertation heraus, dass die Yedoma-Ablagerungen während des Spätpleistozäns durch eine Kombination verschiedener aquatischer (alluviale, fluviale, lakustrine) sowie äolische Prozesse entstanden sind. Die zirkumarktische Region, inklusive der Yedoma Region, beinhaltet eine erhebliche Menge an derzeit eingefrorenem organischen Kohlenstoffs. Dieser Kohlenstoff ist gut erhalten und damit nach dem Auftauen für den mikrobiellen Abbau verfügbar. Eine fehlende Tiefenabhängigkeit der Kohlenstoffqualität zeigt, dass Permafrost die Qualität zum Einfrierzeitpunkt bewahrt. Wenn auch der tiefliegende organische Kohlenstoff durch Thermokarstprozesse verfügbar gemacht wird, kann die Permafrostregion bis zum Jahr 2300 bis zu 0,4°C zur mittleren globalen Oberflächentemperatur beitragen. KW - permafrost KW - Arctic KW - climate change KW - vulnerability KW - Dauerfrostboden KW - Arktis KW - Klimawandel KW - Vulnerabilität Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75236 ER - TY - THES A1 - Steyrleuthner, Robert T1 - Korrelation von Struktur, optischen Eigenschaften und Ladungstransport in einem konjugierten Naphthalindiimid-Bithiophen Copolymer mit herausragender Elektronenmobilität T1 - Correlation of structure, optical properties and charge transport in a conjugated naphtalendiimide-bithiophene copolymer with outstanding electron mobility N2 - Organische Halbleiter besitzen neue, bemerkenswerte Materialeigenschaften, die sie für die grundlegende Forschung wie auch aktuelle technologische Entwicklung (bsw. org. Leuchtdioden, org. Solarzellen) interessant werden lassen. Aufgrund der starken konformative Freiheit der konjugierten Polymerketten führt die Vielzahl der möglichen Anordnungen und die schwache intermolekulare Wechselwirkung für gewöhnlich zu geringer struktureller Ordnung im Festkörper. Die Morphologie hat gleichzeitig direkten Einfluss auf die elektronische Struktur der organischen Halbleiter, welches sich meistens in einer deutlichen Reduktion der Ladungsträgerbeweglichkeit gegenüber den anorganischen Verwandten zeigt. So stellt die Beweglichkeit der Ladungen im Halbleiter einen der limitierenden Faktoren für die Leistungsfähigkeit bzw. den Wirkungsgrad von funktionellen organischen Bauteilen dar. Im Jahr 2009 wurde ein neues auf Naphthalindiimid und Bithiophen basierendes Dornor/Akzeptor Copolymer vorgestellt [P(NDI2OD‑T2)], welches sich durch seine außergewöhnlich hohe Ladungsträgermobilität auszeichnet. In dieser Arbeit wird die Ladungsträgermobilität in P(NDI2OD‑T2) bestimmt, und der Transport durch eine geringe energetischer Unordnung charakterisiert. Obwohl dieses Material zunächst als amorph beschrieben wurde zeigt eine detaillierte Analyse der optischen Eigenschaften von P(NDI2OD‑T2), dass bereits in Lösung geordnete Vorstufen supramolekularer Strukturen (Aggregate) existieren. Quantenchemische Berechnungen belegen die beobachteten spektralen Änderungen. Mithilfe der NMR-Spektroskopie kann die Bildung der Aggregate unabhängig von optischer Spektroskopie bestätigt werden. Die Analytische Ultrazentrifugation an P(NDI2OD‑T2) Lösungen legt nahe, dass sich die Aggregation innerhalb der einzelnen Ketten unter Reduktion des hydrodynamischen Radius vollzieht. Die Ausbildung supramolekularen Strukturen nimmt auch eine signifikante Rolle bei der Filmbildung ein und verhindert gleichzeitig die Herstellung amorpher P(NDI2OD‑T2) Filme. Durch chemische Modifikation der P(NDI2OD‑T2)-Kette und verschiedener Prozessierungs-Methoden wurde eine Änderung des Kristallinitätsgrades und gleichzeitig der Orientierung der kristallinen Domänen erreicht und mittels Röntgenbeugung quantifiziert. In hochauflösenden Elektronenmikroskopie-Messungen werden die Netzebenen und deren Einbettung in die semikristallinen Strukturen direkt abgebildet. Aus der Kombination der verschiedenen Methoden erschließt sich ein Gesamtbild der Nah- und Fernordnung in P(NDI2OD‑T2). Über die Messung der Elektronenmobilität dieser Schichten wird die Anisotropie des Ladungstransports in den kristallographischen Raumrichtungen von P(NDI2OD‑T2) charakterisiert und die Bedeutung der intramolekularen Wechselwirkung für effizienten Ladungstransport herausgearbeitet. Gleichzeitig wird deutlich, wie die Verwendung von größeren und planaren funktionellen Gruppen zu höheren Ladungsträgermobilitäten führt, welche im Vergleich zu klassischen semikristallinen Polymeren weniger sensitiv auf die strukturelle Unordnung im Film sind. N2 - Organic semiconductors are in the focus of recent research and technological development (eg. for organic light-emitting diodes and solar cells) due to their specific and outstanding material properties. The strong conformational freedom of conjugated polymer chains usually leads to a large number of possible geometric arrangements while weak intermolecular interactions additionally lead to poor structural order in the solid state. At the same time the morphology of those systems has direct influence on the electronic structure of the organic semiconductor which is accompanied by a significant reduction of the charge carrier mobility in contrast to their inorganic counterparts. In that way the transport of charges within the semiconductor represents one of the main limiting factors regarding the performance and efficiency of functional organic devices. In 2009 Facchetti and coworkers presented a novel conjugated donor/acceptor copolymer based on naphthalene diimide and bithiophene [P(NDI2OD‑T2)] which was characterized by an outstanding charge carrier mobility. In this work the mobility of electrons and holes in the bulk of P(NDI2OD‑T2) is determined by single carrier devices and the time-of-flight technique. The results imply a low energetic disorder in these polymer layers. While the material was initially expected to be mainly amorphous, a detailed study of the photophysical properties of P(NDI2OD‑T2) shows that precursors of supramolecular assemblies (aggregates) are already formed in polymer solution. Quantum-chemical calculations support the occurring optical changes. NMR spectroscopy was applied to independently prove the formation of chain aggregates in commonly used organic solvents. The investigation of P(NDI2OD‑T2) solutions by analytical ultracentrifugation implies that aggregation mainly proceeds within single polymer chains by reduction of the hydrodynamic radius. To understand the influence of the chemical structure, pre-aggregation and crystal packing of conventional regioregular P(NDI2OD-T2) on the charge transport, the corresponding regioirregular polymer RI-P(NDI2OD-T2) was synthesized. By combining optical, X-ray, and transmission electron microscopy data, a quantitatively characterization of the aggregation, crystallization, and backbone orientation of all of the polymer films was possible, which was then correlated to the electron mobilities in electron-only diodes. The anisotropy of the charge transport along the different crystallographic directions is demonstrated and how the mobility depends on π-stacking but is insensitive to the degree or coherence of lamellar stacking. The comparison between the regioregular and regioirregular polymers also shows how the use of large planar functional groups leads to improved charge transport, with mobilities that are less affected by chemical and structural disorder with respect to classic semicrystalline polymers such as poly(3-hexylthiophene). KW - organische Halbleiter KW - Ladungstransport KW - Solarzellen KW - Polymere KW - Photophysik KW - organic semiconductor KW - charge transport KW - solar cells KW - polymers KW - photo physics Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71413 ER - TY - THES A1 - Steinhaus, Sebastian Peter T1 - Constructing quantum spacetime T1 - Konstruktion der Quantenraumzeit BT - relation to classical gravity BT - Relation zur klassischen Gravitation N2 - Despite remarkable progress made in the past century, which has revolutionized our understanding of the universe, there are numerous open questions left in theoretical physics. Particularly important is the fact that the theories describing the fundamental interactions of nature are incompatible. Einstein's theory of general relative describes gravity as a dynamical spacetime, which is curved by matter and whose curvature determines the motion of matter. On the other hand we have quantum field theory, in form of the standard model of particle physics, where particles interact via the remaining interactions - electromagnetic, weak and strong interaction - on a flat, static spacetime without gravity. A theory of quantum gravity is hoped to cure this incompatibility by heuristically replacing classical spacetime by quantum spacetime'. Several approaches exist attempting to define such a theory with differing underlying premises and ideas, where it is not clear which is to be preferred. Yet a minimal requirement is the compatibility with the classical theory, they attempt to generalize. Interestingly many of these models rely on discrete structures in their definition or postulate discreteness of spacetime to be fundamental. Besides the direct advantages discretisations provide, e.g. permitting numerical simulations, they come with serious caveats requiring thorough investigation: In general discretisations break fundamental diffeomorphism symmetry of gravity and are generically not unique. Both complicates establishing the connection to the classical continuum theory. The main focus of this thesis lies in the investigation of this relation for spin foam models. This is done on different levels of the discretisation / triangulation, ranging from few simplices up to the continuum limit. In the regime of very few simplices we confirm and deepen the connection of spin foam models to discrete gravity. Moreover, we discuss dynamical, e.g. diffeomorphism invariance in the discrete, to fix the ambiguities of the models. In order to satisfy these conditions, the discrete models have to be improved in a renormalisation procedure, which also allows us to study their continuum dynamics. Applied to simplified spin foam models, we uncover a rich, non--trivial fixed point structure, which we summarize in a phase diagram. Inspired by these methods, we propose a method to consistently construct the continuum theory, which comes with a unique vacuum state. N2 - Trotz bemerkenswerter Fortschritte im vergangenen Jahrhundert, die unser Verständnis des Universums revolutioniert haben, gibt es noch zahlreiche ungeklärte Fragen in der theoretischen Physik. Besondere Bedeutung kommt der Tatsache zu, dass die Theorien, welche die fundamentalen Wechselwirkungen der Natur beschreiben, inkompatibel sind. Nach Einsteins allgemeiner Relativitätstheorie wird die Gravitation durch eine dynamische Raumzeit dargestellt, die von Materie gekrümmt wird und ihrerseits durch die Krümmung die Bewegung der Materie bestimmt. Dem gegenüber steht die Quantenfeldtheorie, die die verbliebenen Wechselwirkungen - elektromagnetische, schwache und starke Wechselwirkung - im Standardmodell der Teilchenphysik beschreibt, in dem Teilchen auf einer statischen Raumzeit -- ohne Gravitation -- miteinander interagieren. Die Hoffnung ist, dass eine Theorie der Quantengravitation diese Inkompatibilität beheben kann, indem, heuristisch, die klassische Raumzeit durch eine 'Quantenraumzeit' ersetzt wird. Es gibt zahlreiche Ansätze eine solche Theorie zu definieren, die auf unterschiedlichen Prämissen und Ideen beruhen, wobei a priori nicht klar ist, welche zu bevorzugen sind. Eine Minimalanforderung an diese Theorien ist Kompatibilität mit der klassischen Theorie, die sie verallgemeinern sollen. Interessanterweise basieren zahlreiche Modelle in ihrer Definition auf Diskretisierungen oder postulieren eine fundamentale Diskretheit der Raumzeit. Neben den unmittelbaren Vorteilen, die Diskretisierungen bieten, z.B. das Ermöglichen numerischer Simulationen, gibt es auch gravierende Nachteile, die einer ausführlichen Untersuchung bedürfen: Im Allgemeinen brechen Diskretisierungen die fundamentale Diffeomorphismensymmetrie der Gravitation und sind in der Regel nicht eindeutig definiert. Beides erschwert die Wiederherstellung der Verbindung zur klassischen, kontinuierlichen Theorie. Das Hauptaugenmerk dieser Doktorarbeit liegt darin diese Verbindung insbesondere für Spin-Schaum-Modelle (spin foam models) zu untersuchen. Dies geschieht auf sehr verschiedenen Ebenen der Diskretisierung / Triangulierung, angefangen bei wenigen Simplizes bis hin zum Kontinuumslimes. Im Regime weniger Simplizes wird die bekannte Verbindung von Spin--Schaum--Modellen zu diskreter Gravitation bestätigt und vertieft. Außerdem diskutieren wir dynamische Prinzipien, z.B. Diffeomorphismeninvarianz im Diskreten, um die Ambiguitäten der Modelle zu fixieren. Um diese Bedingungen zu erfüllen, müssen die diskreten Modelle durch Renormierungsverfahren verbessert werden, wodurch wir auch ihre Kontinuumsdynamik untersuchen können. Angewandt auf vereinfachte Spin-Schaum-Modelle finden wir eine reichhaltige, nicht-triviale Fixpunkt-Struktur, die wir in einem Phasendiagramm zusammenfassen. Inspiriert von diesen Methoden schlagen wir zu guter Letzt eine konsistente Konstruktionsmethode für die Kontinuumstheorie vor, die einen eindeutigen Vakuumszustand definiert. KW - Quantengravitation KW - Spin-Schaum-Modelle KW - Regge Kalkül KW - Renormierung KW - Verfeinerungslimes KW - quantum gravity KW - spin foams KW - regge calculus KW - renormalization and refinement limit Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72558 ER - TY - THES A1 - Steinert, Bastian T1 - Built-in recovery support for explorative programming T1 - Eingebaute Unterstützung für Wiederherstellungsbedürfnisse für unstrukturierte ergebnisoffene Programmieraufgaben BT - preserving immediate access to static and dynamic information of intermediate development states BT - Erhaltung des unmittelbaren Zugriffs auf statische und dynamische Informationen von Entwicklungszwischenständen N2 - This work introduces concepts and corresponding tool support to enable a complementary approach in dealing with recovery. Programmers need to recover a development state, or a part thereof, when previously made changes reveal undesired implications. However, when the need arises suddenly and unexpectedly, recovery often involves expensive and tedious work. To avoid tedious work, literature recommends keeping away from unexpected recovery demands by following a structured and disciplined approach, which consists of the application of various best practices including working only on one thing at a time, performing small steps, as well as making proper use of versioning and testing tools. However, the attempt to avoid unexpected recovery is both time-consuming and error-prone. On the one hand, it requires disproportionate effort to minimize the risk of unexpected situations. On the other hand, applying recommended practices selectively, which saves time, can hardly avoid recovery. In addition, the constant need for foresight and self-control has unfavorable implications. It is exhaustive and impedes creative problem solving. This work proposes to make recovery fast and easy and introduces corresponding support called CoExist. Such dedicated support turns situations of unanticipated recovery from tedious experiences into pleasant ones. It makes recovery fast and easy to accomplish, even if explicit commits are unavailable or tests have been ignored for some time. When mistakes and unexpected insights are no longer associated with tedious corrective actions, programmers are encouraged to change source code as a means to reason about it, as opposed to making changes only after structuring and evaluating them mentally. This work further reports on an implementation of the proposed tool support in the Squeak/Smalltalk development environment. The development of the tools has been accompanied by regular performance and usability tests. In addition, this work investigates whether the proposed tools affect programmers’ performance. In a controlled lab study, 22 participants improved the design of two different applications. Using a repeated measurement setup, the study examined the effect of providing CoExist on programming performance. The result of analyzing 88 hours of programming suggests that built-in recovery support as provided with CoExist positively has a positive effect on programming performance in explorative programming tasks. N2 - Diese Arbeit präsentiert Konzepte und die zugehörige Werkzeugunterstützung um einen komplementären Umgang mit Wiederherstellungsbedürfnissen zu ermöglichen. Programmierer haben Bedarf zur Wiederherstellung eines früheren Entwicklungszustandes oder Teils davon, wenn ihre Änderungen ungewünschte Implikationen aufzeigen. Wenn dieser Bedarf plötzlich und unerwartet auftritt, dann ist die notwendige Wiederherstellungsarbeit häufig mühsam und aufwendig. Zur Vermeidung mühsamer Arbeit empfiehlt die Literatur die Vermeidung von unerwarteten Wiederherstellungsbedürfnissen durch einen strukturierten und disziplinierten Programmieransatz, welcher die Verwendung verschiedener bewährter Praktiken vorsieht. Diese Praktiken sind zum Beispiel: nur an einer Sache gleichzeitig zu arbeiten, immer nur kleine Schritte auszuführen, aber auch der sachgemäße Einsatz von Versionskontroll- und Testwerkzeugen. Jedoch ist der Versuch des Abwendens unerwarteter Wiederherstellungsbedürfnisse sowohl zeitintensiv als auch fehleranfällig. Einerseits erfordert es unverhältnismäßig hohen Aufwand, das Risiko des Eintretens unerwarteter Situationen auf ein Minimum zu reduzieren. Andererseits ist eine zeitsparende selektive Ausführung der empfohlenen Praktiken kaum hinreichend, um Wiederherstellungssituationen zu vermeiden. Zudem bringt die ständige Notwendigkeit an Voraussicht und Selbstkontrolle Nachteile mit sich. Dies ist ermüdend und erschwert das kreative Problemlösen. Diese Arbeit schlägt vor, Wiederherstellungsaufgaben zu vereinfachen und beschleunigen, und stellt entsprechende Werkzeugunterstützung namens CoExist vor. Solche zielgerichtete Werkzeugunterstützung macht aus unvorhergesehenen mühsamen Wiederherstellungssituationen eine konstruktive Erfahrung. Damit ist Wiederherstellung auch dann leicht und schnell durchzuführen, wenn explizit gespeicherte Zwischenstände fehlen oder die Tests für einige Zeit ignoriert wurden. Wenn Fehler und unerwartete Ein- sichten nicht länger mit mühsamen Schadensersatz verbunden sind, fühlen sich Programmierer eher dazu ermutig, Quelltext zu ändern, um dabei darüber zu reflektieren, und nehmen nicht erst dann Änderungen vor, wenn sie diese gedanklich strukturiert und evaluiert haben. Diese Arbeit berichtet weiterhin von einer Implementierung der vorgeschlagenen Werkzeugunterstützung in der Squeak/Smalltalk Entwicklungsumgebung. Regelmäßige Tests von Laufzeitverhalten und Benutzbarkeit begleiteten die Entwicklung. Zudem prüft die Arbeit, ob sich die Verwendung der vorgeschlagenen Werkzeuge auf die Leistung der Programmierer auswirkt. In einem kontrollierten Experiment, verbesserten 22 Teilnehmer den Aufbau von zwei verschiedenen Anwendungen. Unter der Verwendung einer Versuchsanordnung mit wiederholter Messung, ermittelte die Studie die Auswirkung von CoExist auf die Programmierleistung. Das Ergebnis der Analyse von 88 Programmierstunden deutet darauf hin, dass sich eingebaute Werkzeugunterstützung für Wiederherstellung, wie sie mit CoExist bereitgestellt wird, positiv bei der Bearbeitung von unstrukturierten ergebnisoffenen Programmieraufgaben auswirkt. KW - Softwaretechnik KW - Entwicklungswerkzeuge KW - Versionierung KW - Testen KW - software engineering KW - development tools KW - versioning KW - testing Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71305 ER - TY - THES A1 - Stech, Marlitt T1 - Investigations on the cell-free synthesis of single-chain antibody fragments using a cukaryotic translation system Y1 - 2014 ER - TY - THES A1 - Späthe, Michael T1 - Der Ausbau der informatorischen Polizeibefugnisse in Brandenburg : eine verfassungsrechtliche Untersuchung der erweiterten Polizeibefugnisse zur Gefahren- und Informationsvorsorge T2 - Schriften zum Staats-, Verwaltungs- und Europarecht Y1 - 2014 SN - 978-3-631-64198-0 SN - 2193-1143 VL - 1 PB - Lang CY - Frankfurt am Main ER - TY - THES A1 - Sprenger, Heike T1 - Characterization of drought tolerance in potato cultivars for identification of molecular markers Y1 - 2014 ER -