TY - THES A1 - Richly, Keven T1 - Memory-efficient data management for spatio-temporal applications BT - workload-driven fine-grained configuration optimization for storing spatio-temporal data in columnar In-memory databases N2 - The wide distribution of location-acquisition technologies means that large volumes of spatio-temporal data are continuously being accumulated. Positioning systems such as GPS enable the tracking of various moving objects' trajectories, which are usually represented by a chronologically ordered sequence of observed locations. The analysis of movement patterns based on detailed positional information creates opportunities for applications that can improve business decisions and processes in a broad spectrum of industries (e.g., transportation, traffic control, or medicine). Due to the large data volumes generated in these applications, the cost-efficient storage of spatio-temporal data is desirable, especially when in-memory database systems are used to achieve interactive performance requirements. To efficiently utilize the available DRAM capacities, modern database systems support various tuning possibilities to reduce the memory footprint (e.g., data compression) or increase performance (e.g., additional indexes structures). By considering horizontal data partitioning, we can independently apply different tuning options on a fine-grained level. However, the selection of cost and performance-balancing configurations is challenging, due to the vast number of possible setups consisting of mutually dependent individual decisions. In this thesis, we introduce multiple approaches to improve spatio-temporal data management by automatically optimizing diverse tuning options for the application-specific access patterns and data characteristics. Our contributions are as follows: (1) We introduce a novel approach to determine fine-grained table configurations for spatio-temporal workloads. Our linear programming (LP) approach jointly optimizes the (i) data compression, (ii) ordering, (iii) indexing, and (iv) tiering. We propose different models which address cost dependencies at different levels of accuracy to compute optimized tuning configurations for a given workload, memory budgets, and data characteristics. To yield maintainable and robust configurations, we further extend our LP-based approach to incorporate reconfiguration costs as well as optimizations for multiple potential workload scenarios. (2) To optimize the storage layout of timestamps in columnar databases, we present a heuristic approach for the workload-driven combined selection of a data layout and compression scheme. By considering attribute decomposition strategies, we are able to apply application-specific optimizations that reduce the memory footprint and improve performance. (3) We introduce an approach that leverages past trajectory data to improve the dispatch processes of transportation network companies. Based on location probabilities, we developed risk-averse dispatch strategies that reduce critical delays. (4) Finally, we used the use case of a transportation network company to evaluate our database optimizations on a real-world dataset. We demonstrate that workload-driven fine-grained optimizations allow us to reduce the memory footprint (up to 71% by equal performance) or increase the performance (up to 90% by equal memory size) compared to established rule-based heuristics. Individually, our contributions provide novel approaches to the current challenges in spatio-temporal data mining and database research. Combining them allows in-memory databases to store and process spatio-temporal data more cost-efficiently. N2 - Durch die starke Verbreitung von Systemen zur Positionsbestimmung werden fortlaufend große Mengen an Bewegungsdaten mit einem räumlichen und zeitlichen Bezug gesammelt. Ortungssysteme wie GPS ermöglichen, die Bewegungen verschiedener Objekte (z. B. Personen oder Fahrzeuge) nachzuverfolgen. Diese werden in der Regel durch eine chronologisch geordnete Abfolge beobachteter Aufenthaltsorte repräsentiert. Die Analyse von Bewegungsmustern auf der Grundlage detaillierter Positionsinformationen schafft in unterschiedlichsten Branchen (z. B. Transportwesen, Verkehrssteuerung oder Medizin) die Möglichkeit Geschäftsentscheidungen und -prozesse zu verbessern. Aufgrund der großen Datenmengen, die bei diesen Anwendungen auftreten, stellt die kosteneffiziente Speicherung von Bewegungsdaten eine Herausforderung dar. Dies ist insbesondere der Fall, wenn Hauptspeicherdatenbanken zur Speicherung eingesetzt werden, um die Anforderungen bezüglich interaktiver Antwortzeiten zu erfüllen. Um die verfügbaren Speicherkapazitäten effizient zu nutzen, unterstützen moderne Datenbanksysteme verschiedene Optimierungsmöglichkeiten, um den Speicherbedarf zu reduzieren (z. B. durch Datenkomprimierung) oder die Performance zu erhöhen (z. B. durch Indexstrukturen). Dabei ermöglicht eine horizontale Partitionierung der Daten, dass unabhängig voneinander verschiedene Optimierungen feingranular auf einzelnen Bereichen der Daten angewendet werden können. Die Auswahl von Konfigurationen, die sowohl die Kosten als auch Leistungsanforderungen berücksichtigen, ist jedoch aufgrund der großen Anzahl möglicher Kombinationen -- die aus voneinander abhängigen Einzelentscheidungen bestehen -- komplex. In dieser Dissertation präsentieren wir mehrere Ansätze zur Verbesserung der Datenverwaltung, indem wir die Auswahl verschiedener Datenbankoptimierungen automatisch für die anwendungsspezifischen Zugriffsmuster und Dateneigenschaften anpassen. Diesbezüglich leistet die vorliegende Dissertation die folgenden Beiträge: (1) Wir stellen einen neuen Ansatz vor, um feingranulare Tabellenkonfigurationen für räumlich-zeitliche Workloads zu bestimmen. In diesem Zusammenhang optimiert unser Linear Programming (LP) Ansatz gemeinsam (i) die Datenkompression, (ii) die Sortierung, (iii) die Indizierung und (iv) die Datenplatzierung. Hierzu schlagen wir verschiedene Modelle mit unterschiedlichen Kostenabhängigkeiten vor, um optimierte Konfigurationen für einen gegebenen Workload, ein Speicherbudget und die vorliegenden Dateneigenschaften zu berechnen. Durch die Erweiterung des LP-basierten Ansatzes zur Berücksichtigung von Modifikationskosten und verschiedener potentieller Workloads ist es möglich, die Wartbarkeit und Robustheit der bestimmten Tabellenkonfiguration zu erhöhen. (2) Um die Speicherung von Timestamps in spalten-orientierten Datenbanken zu optimieren, stellen wir einen heuristischen Ansatz für die kombinierte Auswahl eines Speicherlayouts und eines Kompressionsschemas vor. Zudem sind wir durch die Berücksichtigung von Strategien zur Aufteilung von Attributen in der Lage, anwendungsspezifische Optimierungen anzuwenden, die den Speicherbedarf reduzieren und die Performance verbessern. (3) Wir stellen einen Ansatz vor, der in der Vergangenheit beobachtete Bewegungsmuster nutzt, um die Zuweisungsprozesse von Vermittlungsdiensten zur Personenbeförderung zu verbessern. Auf der Grundlage von Standortwahrscheinlichkeiten haben wir verschiedene Strategien für die Vergabe von Fahraufträgen an Fahrer entwickelt, die kritische Verspätungen reduzieren. (4) Abschließend haben wir unsere Datenbankoptimierungen anhand eines realen Datensatzes eines Transportdienstleisters evaluiert. In diesem Zusammenhang zeigen wir, dass wir durch feingranulare workload-basierte Optimierungen den Speicherbedarf (um bis zu 71% bei vergleichbarer Performance) reduzieren oder die Performance (um bis zu 90% bei gleichem Speicherverbrauch) im Vergleich zu regelbasierten Heuristiken verbessern können. Die einzelnen Beiträge stellen neuartige Ansätze für aktuelle Herausforderungen im Bereich des Data Mining und der Datenbankforschung dar. In Kombination ermöglichen sie eine kosteneffizientere Speicherung und Verarbeitung von Bewegungsdaten in Hauptspeicherdatenbanken. KW - spatio-temporal data management KW - trajectory data KW - columnar databases KW - in-memory data management KW - database tuning KW - spaltenorientierte Datenbanken KW - Datenbankoptimierung KW - Hauptspeicher Datenmanagement KW - Datenverwaltung für Daten mit räumlich-zeitlichem Bezug KW - Trajektoriendaten Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-635473 ER - TY - THES A1 - Frank, Mario T1 - On synthesising Linux kernel module components from Coq formalisations T1 - Über die Synthese von Linux Kernel- Modul-Komponenten aus Coq-Formalisierungen N2 - This thesis presents an attempt to use source code synthesised from Coq formalisations of device drivers for existing (micro)kernel operating systems, with a particular focus on the Linux Kernel. In the first part, the technical background and related work are described. The focus is here on the possible approaches to synthesising certified software with Coq, namely the extraction to functional languages using the Coq extraction plugin and the extraction to Clight code using the CertiCoq plugin. It is noted that the implementation of CertiCoq is verified, whereas this is not the case for the Coq extraction plugin. Consequently, there is a correctness guarantee for the generated Clight code which does not hold for the code being generated by the Coq extraction plugin. Furthermore, the differences between user space and kernel space software are discussed in relation to Linux device drivers. It is elaborated that it is not possible to generate working Linux kernel module components using the Coq extraction plugin without significant modifications. In contrast, it is possible to produce working user space drivers both with the Coq extraction plugin and CertiCoq. The subsequent parts describe the main contributions of the thesis. In the second part, it is demonstrated how to extend the Coq extraction plugin to synthesise foreign function calls between the functional language OCaml and the imperative language C. This approach has the potential to improve the type-safety of user space drivers. Furthermore, it is shown that the code being synthesised by CertiCoq cannot be used in kernel space without modifications to the necessary runtime. Consequently, the necessary modifications to the runtimes of CertiCoq and VeriFFI are introduced, resulting in the runtimes becoming compatible components of a Linux kernel module. Furthermore, justifications for the transformations are provided and possible further extensions to both plugins and solutions to failing garbage collection calls in kernel space are discussed. The third part presents a proof of concept device driver for the Linux Kernel. To achieve this, the event handler of the original PC Speaker driver is partially formalised in Coq. Furthermore, some relevant formal properties of the formalised functionality are discussed. Subsequently, a kernel module is defined, utilising the modified variants of CertiCoq and VeriFFI to compile a working device driver. It is furthermore shown that it is possible to compile the synthesised code with CompCert, thereby extending the guarantee of correctness to the assembly layer. This is followed by a performance evaluation that compares a naive formalisation of the PC speaker functionality with the original PC Speaker driver pointing out the weaknesses in the formalisation and possible improvements. The part closes with a summary of the results, their implications and open questions being raised. The last part lists all used sources, separated into scientific literature, documentations or reference manuals and artifacts, i.e. source code. N2 - Die vorliegende Dissertation präsentiert einen Ansatz zur Nutzung von Quellcode, der aus der Coq-Formalisierung eines Gerätetreibers generiert wurde, für bestehende (Mikrokernel-)Betriebssysteme, im Speziellen den Linux-Kernel. Im ersten Teil erfolgt eine Beschreibung der relevanten technischen Aspekte sowie des aktuellen Forschungsstandes. Dabei liegt der Fokus auf der Synthese von funktionalem Code durch das Coq Extraction Plugin und von Clight Code durch das CertiCoq Plugin. Des Weiteren wird dargelegt, dass die Implementierung von CertiCoq im Gegensatz zu der des Coq Extraction Plugin verifiziert ist, wodurch sich eine Korrektheitsgarantie für den generierten Clight Code ableiten lässt. Darüber hinaus werden die Unterschiede zwischen User Space und Kernel Space Software in Bezug auf Linux-Treiber erörtert. Unter Berücksichtigung der technischen Einschränkungen wird dargelegt, dass der durch das Coq Extraction Plugin generierte Code ohne gravierende Anpassungen der Laufzeitumgebung nicht als Teil eines Kernel Space Treibers nutzbar ist. Die nachfolgenden Teile der Dissertation behandeln den Beitrag dieser Arbeit. Im zweiten Teil wird dargelegt, wie das Coq Extraction Plugin derart erweitert werden kann, dass typsichere Aufrufe zwischen den Sprachen OCaml und C generiert werden können. Dies verhindert spezifische Kompilationsfehler aufgrund von Typfehlern. Des Weiteren wird aufgezeigt, dass der durch CertiCoq generierte Code ebenfalls nicht im Kernel Space genutzt werden kann, da die Laufzeitumgebung technische Einschränkungen verletzt. Daher werden die notwendigen Anpassungen an der vergleichsweise kleinen Laufzeitumgebung sowie an VeriFFI vorgestellt und deren Korrektheit begründet. Anschließend werden mögliche Erweiterungen beider Plugins sowie die Möglichkeit der Behandlung von fehlschlagenden Aufrufen der Garbage Collection von CertiCoq im Kernel Space erörtert. Im dritten Teil wird als Machbarkeitsstudie im ersten Schritt der Event-Handler des Linux PC Speaker Treibers beschrieben und eine naive Coq-Formalisierung sowie wichtige formale Eigenschaften dargelegt. Dann wird beschrieben, wie ein Kernel-Modul und dessen Kompilation definiert werden muss, um einen lauffähigen Linux Kernel Treiber zu erhalten. Des Weiteren wird erläutert, wie die generierten Teile dieses Treibers mit dem verifizierten Kompiler CompCert übersetzt werden können, wodurch auch eine Korrektheit für den resultierenden Assembler-Code gilt. Im Anschluss erfolgt eine Evaluierung der Performance des aus der naiven Coq-Formalisierung generierten Codes im Vergleich zum originalen PC-Speaker Treiber. Dabei werden die Schwächen der Formalisierung sowie mögliche Verbesserungen diskutiert. Der Teil wird mit einer Zusammenfassung der Ergebnisse sowie der daraus resultierenden offenen Fragen abgeschlossen. Der letzte Teil gibt eine Übersicht über genutzte Quellen und Hilfsmittel, unterteilt in wissenschaftliche Literatur, Dokumentationen sowie Software-Artefakte. KW - Linux device drivers KW - Coq KW - CertiCoq KW - synthesis KW - compilation KW - Geräte-Treiber KW - Linux KW - Coq KW - CertiCoq KW - Synthese KW - Kompilation Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-642558 ER - TY - THES A1 - Hagemann, Justus T1 - On the molecular evolution of sengis (Macroscelidea) N2 - This thesis focuses on the molecular evolution of Macroscelidea, commonly referred to as sengis. Sengis are a mammalian order belonging to the Afrotherians, one of the four major clades of placental mammals. Sengis currently consist of twenty extant species, all of which are endemic to the African continent. They can be separated in two families, the soft-furred sengis (Macroscelididae) and the giant sengis (Rhynchocyonidae). While giant sengis can be exclusively found in forest habitats, the different soft-furred sengi species dwell in a broad range of habitats, from tropical rain-forests to rocky deserts. Our knowledge on the evolutionary history of sengis is largely incomplete. The high level of superficial morphological resemblance among different sengi species (especially the soft-furred sengis) has for example led to misinterpretations of phylogenetic relationships, based on morphological characters. With the rise of DNA based taxonomic inferences, multiple new genera were defined and new species described. Yet, no full taxon molecular phylogeny exists, hampering the answering of basic taxonomic questions. This lack of knowledge can be to some extent attributed to the limited availability of fresh-tissue samples for DNA extraction. The broad African distribution, partly in political unstable regions and low population densities complicate contemporary sampling approaches. Furthermore, the DNA information available usually covers only short stretches of the mitochondrial genome and thus a single genetic locus with limited informational content. Developments in DNA extraction and library protocols nowadays offer the opportunity to access DNA from museum specimens, collected over the past centuries and stored in natural history museums throughout the world. Thus, the difficulties in fresh-sample acquisition for molecular biological studies can be overcome by the application of museomics, the research field which emerged from those laboratory developments. This thesis uses fresh-tissue samples as well as a vast collection museum specimens to investigate multiple aspects about the macroscelidean evolutionary history. Chapter 4 of this thesis focuses on the phylogenetic relationships of all currently known sengi species. By accessing DNA information from museum specimens in combination of fresh tissue samples and publicly available genetic resources it produces the first full taxon molecular phylogeny of sengis. It confirms the monophyly of the genus Elephantulus and discovers multiple deeply divergent lineages within different species, highlighting the need for species specific approaches. The study furthermore focuses on the evolutionary time frame of sengis by evaluating the impact of commonly varied parameters on tree dating. The results of the study show, that the mitochondrial information used in previous studies to temporal calibrate the Macroscelidean phylogeny led to an overestimation of node ages within sengis. Especially soft-furred sengis are thus much younger than previously assumed. The refined knowledge of nodes ages within sengis offer the opportunity to link e.g. speciation events to environmental changes. Chapter 5 focuses on the genus Petrodromus with its single representative Petrodromus tetradactylus. It again exploits the opportunities of museomics and gathers a comprehensive, multi-locus genetic dataset of P. tetradactylus individuals, distributed across most the known range of this species. It reveals multiple deeply divergent lineages within Petrodromus, whereby some could possibly be associated to previously described sub-species, at least one was formerly unknown. It underscores the necessity for a revision of the genus Petrodromus through the integration of both molecular and morphological evidence. The study, furthermore identifies changing forest distributions through climatic oscillations as main factor shaping the genetic structure of Petrodromus. Chapter 6 uses fresh tissue samples to extent the genomic resources of sengis by thirteen new nuclear genomes, of which two were de-novo assembled. An extensive dataset of more than 8000 protein coding one-to-one orthologs allows to further refine and confirm the temporal time frame of sengi evolution found in Chapter 4. This study moreover investigates the role of gene-flow and incomplete lineage sorting (ILS) in sengi evolution. In addition it identifies clade specific genes of possible outstanding evolutionary importance and links them to potential phenotypic traits affected. A closer investigation of olfactory receptor proteins reveals clade specific differences. A comparison of the demographic past of sengis to other small African mammals does not reveal a sengi specific pattern. N2 - Diese Dissertation untersucht die molekulare Evolution von Macroscelidea, auch als Sengis oder Rüsselspringer bezeichnet. Sengis sind eine Ordnung der Afrotheria, einer der vier Hauptkladen der plazentalen Säugetiere. Aktuell gibt es zwanzig beschriebene Sengiarten, die alle ausschließlich auf dem afrikanischen Kontinent vorkommen. Sengis können in zwei Familien unterteilt werden: die Elephantenspitzmäuse zusammen mit den Rüsselratten bilden die Macroscelididae und die Rüsselhündchen die Rhynchocyonidae. Während Rhynchocyonidae ausschließlich in Waldhabitaten zu finden sind, bewohnen verschiedene Macroscelididaearten ein breites Spektrum von Lebensräumen, von tropischen Regenwäldern bis zu felsigen Wüsten. Unser Wissen über die evolutionäre Geschichte der Sengis ist äußerst unvollständig. Der hohe Grad an morphologischer Ähnlichkeit zwischen verschiedenen Sengiarten (insbesondere innerhalb der Macroscelididae) hat beispielsweise zu Fehlinterpretationen phylogenetischer Beziehungen auf der Grundlage morphologischer Merkmale geführt. Mit dem Aufkommen DNA-basierter taxonomischer Forschung wurden mehrere neue Gattungen definiert und neue Arten beschrieben. Dennoch existiert derzeit keine vollständige molekulare Phylogenie, was die Beantwortung grundlegender taxonomischer Fragen und tiefergehende evolutionsbiologische Analysen erschwert. Dieser Mangel an Wissen kann zum Teil auf die begrenzte Verfügbarkeit von frischen Gewebeproben für die DNA-Extraktion zurückgeführt werden. Die weite Verbreitung in Afrika, teilweise in politisch instabilen Regionen und geringe Populationssdichten von Sengis erschweren das Sammeln von frischem Probenmaterial, was für die Extraktion von DNA genutzt werden kann. Darüber hinaus deckt die bis jetzt verfügbare DNA-Information über Sengis häufig nur kurze Abschnitte des mitochondrialen Genoms ab und damit einen einzelnen genetischen Lokus mit begrenztem Informationsgehalt. Fortentwicklungen von DNA-Extraktions-Protokollen und Library-Protokollen bieten heutzutage die Möglichkeit, auf DNA von Museumsexemplaren zuzugreifen, die über die letzten Jahrhunderte gesammelt und in Naturkundemuseen weltweit aufbewahrt werden. Somit können die Schwierigkeiten bei der Beschaffung von Frischproben für molekularbiologische Studien überwunden werden. Diese Dissertation verwendet sowohl Frischgewebeproben als auch eine umfangreiche Sammlung von Museumssproben, um verschiedene Aspekte der evolutionären Geschichte der Sengis molekularbiologisch zu untersuchen. Kapitel 4 dieser Dissertation konzentriert sich auf die phylogenetischen Beziehungen aller derzeit bekannten Sengiarten. Durch das Generieren von DNA-Information aus Museumsexemplaren in Kombination mit Frischgewebeproben und öffentlich verfügbaren genetischen Ressourcen wird die erste vollständige molekulare Phylogenie aller Rüsselspringer erzeugt. Die Studie bestätigt die Monophylie der Gattung Elephantulus und entdeckt mehrere tief divergente Linien innerhalb verschiedener Arten, was die Notwendigkeit speziesbezogener Ansätze verdeutlicht. Die Studie konzentriert sich außerdem auf den Zeitrahmen der Sengi-Evolution, indem sie die Auswirkungen häufig variierter Parameter auf die Datierung von Stammbäumen untersucht. Die Ergebnisse zeigen, dass die mitochondriale Information, die in früheren Studien zur zeitlichen Kalibrierung der Macroscelidean-Phylogenie verwendet wurde, zu einer Überschätzung des Alters von Arttrennungen innerhalb der Rüsselspringer geführt hat. Insbesondere die Macroscelididae sind daher viel jünger als zuvor angenommen. Das präzisere Wissen über das evolutionäre Alter von Rüsselspringern bietet die Möglichkeit, beispielsweise Artaufspaltungen mit Umweltveränderungen zu verknüpfen. Kapitel 5 konzentriert sich auf die Gattung Petrodromus mit ihrem einzigen Vertreter Petrodromus tetradactylus. Es nutzt erneut die Museomics und sammelt einen umfassenden, genetischen Datensatz von P. tetradactylus-Individuen, die über den größten Teil des bekannten Verbreitungsgebiets dieser Art verteilt sind. Es zeigt mehrere tief divergente Linien innerhalb von Petrodromus auf, wobei einige mit zuvor beschriebenen Unterarten in Verbindung gebracht werden könnten, mindestens eine aber zuvor unbekannt war. Die Ergebnisse verdeutlichen die Notwendigkeit einer taxonomischen Überarbeitung der Gattung Petrodromus durch das Zusammenführen sowohl molekularer als auch morphologischer Indizien. Die Studie identifizier außerdem sich ändernde Waldverteilungen durch klimatische Schwankungen als Hauptfaktor, der die genetische Struktur von Petrodromus formt. Kapitel 6 verwendet Frischgewebeproben, um die genomischen Ressourcen der Rüsselspringer durch dreizehn neue nukleare Genome zu erweitern, von denen zwei de-novo assembliert wurden. Ein umfangreicher Datensatz von mehr als 8000 protein-kodierenden 1:1-Orthologen ermöglicht es, den zeitlichen Rahmen der Rüsselspringerevolution, der in Kapitel 4 gefunden wurde, weiter zu verfeinern und zu bestätigen. Diese Studie untersucht außerdem die Rolle von Genfluss auf die Evolution der Rüsselspringer. Darüber hinaus identifiziert sie für bestimmte Kladen spezifische Gene von möglicherweise herausragender evolutionärer Bedeutung und verknüpft diese mit potenziell betroffenen phänotypischen Merkmalen. Eine genauere Untersuchung von Geruchsrezeptorproteinen zeigt kladespezifische Unterschiede auf. KW - sengis KW - evolution KW - molecular dating KW - biogeography KW - comparative genomics KW - Biogeographie KW - vergleichende Genomik KW - Evolution KW - molekulare Datierung KW - Sengis Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-641975 ER - TY - THES A1 - Pfalz, Gregor T1 - Advancing knowledge of Arctic lake system dynamics: A data-driven perspective on spatiotemporal patterns T1 - Fortschritte im Verständnis der Dynamik arktischer Seesysteme: Eine datengetriebene Perspektive auf raumzeitliche Muster N2 - Ecosystems play a pivotal role in addressing climate change but are also highly susceptible to drastic environmental changes. Investigating their historical dynamics can enhance our understanding of how they might respond to unprecedented future environmental shifts. With Arctic lakes currently under substantial pressure from climate change, lessons from the past can guide our understanding of potential disruptions to these lakes. However, individual lake systems are multifaceted and complex. Traditional isolated lake studies often fail to provide a global perspective because localized nuances—like individual lake parameters, catchment areas, and lake histories—can overshadow broader conclusions. In light of these complexities, a more nuanced approach is essential to analyze lake systems in a global context. A key to addressing this challenge lies in the data-driven analysis of sedimentological records from various northern lake systems. This dissertation emphasizes lake systems in the northern Eurasian region, particularly in Russia (n=59). For this doctoral thesis, we collected sedimentological data from various sources, which required a standardized framework for further analysis. Therefore, we designed a conceptual model for integrating and standardizing heterogeneous multi-proxy data into a relational database management system (PostgreSQL). Creating a database from the collected data enabled comparative numerical analyses between spatially separated lakes as well as between different proxies. When analyzing numerous lakes, establishing a common frame of reference was crucial. We achieved this by converting proxy values from depth dependency to age dependency. This required consistent age calculations across all lakes and proxies using one age-depth modeling software. Recognizing the broader implications and potential pitfalls of this, we developed the LANDO approach ("Linked Age and Depth Modelling"). LANDO is an innovative integration of multiple age-depth modeling software into a singular, cohesive platform (Jupyter Notebook). Beyond its ability to aggregate data from five renowned age-depth modeling software, LANDO uniquely empowers users to filter out implausible model outcomes using robust geoscientific data. Our method is not only novel but also significantly enhances the accuracy and reliability of lake analyses. Considering the preceding steps, this doctoral thesis further examines the relationship between carbon in sediments and temperature over the last 21,000 years. Initially, we hypothesized a positive correlation between carbon accumulation in lakes and modelled paleotemperature. Our homogenized dataset from heterogeneous lakes confirmed this association, even if the highest temperatures throughout our observation period do not correlate with the highest carbon values. We assume that rapid warming events contribute more to high accumulation, while sustained warming leads to carbon outgassing. Considering the current high concentration of carbon in the atmosphere and rising temperatures, ongoing climate change could cause northern lake systems to contribute to a further increase in atmospheric carbon (positive feedback loop). While our findings underscore the reliability of both our standardized data and the LANDO method, expanding our dataset might offer even greater assurance in our conclusions. N2 - Ökosysteme spielen eine zentrale Rolle bei der Bewältigung des Klimawandels, gelten jedoch auch als äußerst anfällig für drastische Umweltveränderungen. Die Erforschung ihrer historischen Dynamiken kann unser Verständnis darüber verbessern, wie sich zukünftige Veränderungen angesichts beispielloser Umweltveränderungen auf sie auswirken können. Angesichts des enormen Stresses, dem arktische Seen durch den Klimawandel ausgesetzt sind, können konkrete Fälle aus der Vergangenheit helfen, mögliche Schwankungen im Ökosystem des Sees besser zu verstehen und zu deuten. Einzelne Seesysteme unterliegen jedoch einer inhärenten Komplexität und vielschichtigen Beschaffenheit. Klassische Einzelanalysen von Seen liefern oft keine globale Perspektive, da lokale Besonderheiten – wie individuelle Seeparameter, Einzugsgebiete und Seehistorien – allgemeinere Schlussfolgerungen überlagern können. Eine differenzierte Herangehensweise ist hierbei erforderlich, um Seesysteme im globalen Kontext angemessen zu analysieren. Ein Schlüssel zur Bewältigung dieser Herausforderung ist die datenwissenschaftliche Analyse von sedimentologischen Daten aus mehreren nördlichen Seesystemen. Diese Dissertation fokussiert sich dabei auf das Gebiet des nördlichen Eurasiens mit einem besonderen Fokus auf Seesystem in Russland (n=59). Die gesammelten sedimentologischen Daten für diese Doktorarbeit mussten hierfür zunächst standardisiert und homogenisiert werden. Hierfür wurde ein konzeptuelles Modell für die Integration und Standardisierung von heterogenen Multi-Proxy-Daten in ein relationales Datenbankverwaltungssystem (PostgreSQL) entworfen. Die Erstellung einer Datenbank aus der gesammelten Datenkollektion ermöglichte die numerische, vergleichende Analyse zwischen räumlich getrennten Seen als auch zwischen verschiedenen Proxys. Eine Analyse von mehreren Seen erforderte zudem eine gemeinsame Analyseebene, welche wir durch die Umwandlung von einer Tiefenabhängigkeit zu Altersabhängigkeit der Proxywerte erreichten. Diese bedurfte aber, dass die zugehörigen Alter von Proxywerte von allen Seen mit demselben Verfahren einer Alterstiefenmodellsoftware berechnet werden müssen. Angesichts der weitreichenden Implikationen und potenziellen Fallstricke entwickelten wir den LANDO-Ansatz („Linked Age and Depth Modelling“). LANDO stellt eine innovative Integration mehrerer Alters-Tiefen-Modellierungssoftware in eine einheitliche, kohärente Plattform (Jupyter Notebook) dar. Neben seiner Fähigkeit, Daten von fünf renommierten Alters-Tiefen-Modellierungssoftware zu aggregieren, ermöglicht LANDO es den Nutzern auf einzigartige Weise, unbegründete Modellergebnisse anhand robuster geowissenschaftlicher Daten herauszufiltern. Unsere Methode ist nicht nur neuartig, sondern steigert auch signifikant die Genauigkeit und Zuverlässigkeit von Seeanalysen. Schlussendlich unter Berücksichtigung der vorangegangenen Schritte betrachtet die Doktorarbeit den Zusammenhang zwischen Kohlenstoff in Sedimenten und Temperatur über die letzten 21 000 Jahre. Zunächst nehmen wir an, dass es eine positive Korrelation zwischen Kohlenstoffakkumulation in Seen und modellierter Paläo-Temperatur gibt. Diese kann dank des homogenisierten Datensatzes von heterogenen Seen bestätigt werden, wenn auch die höchsten Temperaturen über unseren Betrachtungszeitraum nicht korrelieren mit den höchsten Kohlenstoffwerten. Wir gehen davon aus, dass schnelle Erwärmungsereignisse eher zu einer hohen Akkumulation beitragen, während bestehende Erwärmung eher zu einer Ausgasung von Kohlenstoff führt. In Anbetracht der aktuellen hohen Konzentration von Kohlenstoff in der Atmosphäre und der steigenden Temperaturen, können bei einem weiterführenden Klimawandel nördliche Seesysteme zu einem weiteren Anstieg von atmosphärischem Kohlenstoff führen (positive Feedbackschleife). Obwohl die bemerkenswerten Ergebnisse zeigen, dass unser Ansatz aus standardisierten Daten und LANDO zuverlässig ist, könnte eine größere Datenmenge das Vertrauen in die Ergebnisse noch weiter stärken. KW - Arcitc KW - lake systems KW - paleotemperature KW - carbon KW - climate data science KW - Paläolimnologie KW - Eurasien KW - Paläoklimatologie KW - Seesedimente KW - Klimadatenwissenschaften KW - Kohlenstoff Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-636554 ER - TY - THES A1 - Damseaux, Adrien T1 - Improving permafrost dynamics in land surface models: insights from dual sensitivity experiments T1 - Verbesserung der Permafrostdynamik in Landoberflächenmodellen: Erkenntnisse aus doppelten Sensitivitätsexperimenten N2 - The thawing of permafrost and the subsequent release of greenhouse gases constitute one of the most significant and uncertain positive feedback loops in the context of climate change, making predictions regarding changes in permafrost coverage of paramount importance. To address these critical questions, climate scientists have developed Land Surface Models (LSMs) that encompass a multitude of physical soil processes. This thesis is committed to advancing our understanding and refining precise representations of permafrost dynamics within LSMs, with a specific focus on the accurate modeling of heat fluxes, an essential component for simulating permafrost physics. The first research question overviews fundamental model prerequisites for the representation of permafrost soils within land surface modeling. It includes a first-of-its-kind comparison between LSMs in CMIP6 to reveal their differences and shortcomings in key permafrost physics parameters. Overall, each of these LSMs represents a unique approach to simulating soil processes and their interactions with the climate system. Choosing the most appropriate model for a particular application depends on factors such as the spatial and temporal scale of the simulation, the specific research question, and available computational resources. The second research question evaluates the performance of the state-of-the-art Community Land Model (CLM5) in simulating Arctic permafrost regions. Our approach overcomes traditional evaluation limitations by individually addressing depth, seasonality, and regional variations, providing a comprehensive assessment of permafrost and soil temperature dynamics. I compare CLM5's results with three extensive datasets: (1) soil temperatures from 295 borehole stations, (2) active layer thickness (ALT) data from the Circumpolar Active Layer Monitoring Network (CALM), and (3) soil temperatures, ALT, and permafrost extent from the ESA Climate Change Initiative (ESA-CCI). The results show that CLM5 aligns well with ESA-CCI and CALM for permafrost extent and ALT but reveals a significant global cold temperature bias, notably over Siberia. These results echo a persistent challenge identified in numerous studies: the existence of a systematic 'cold bias' in soil temperature over permafrost regions. To address this challenge, the following research questions propose dual sensitivity experiments. The third research question represents the first study to apply a Plant Functional Type (PFT)-based approach to derive soil texture and soil organic matter (SOM), departing from the conventional use of coarse-resolution global data in LSMs. This novel method results in a more uniform distribution of soil organic matter density (OMD) across the domain, characterized by reduced OMD values in most regions. However, changes in soil texture exhibit a more intricate spatial pattern. Comparing the results to observations reveals a significant reduction in the cold bias observed in the control run. This method shows noticeable improvements in permafrost extent, but at the cost of an overestimation in ALT. These findings emphasize the model's high sensitivity to variations in soil texture and SOM content, highlighting the crucial role of soil composition in governing heat transfer processes and shaping the seasonal variation of soil temperatures in permafrost regions. Expanding upon a site experiment conducted in Trail Valley Creek by \citet{dutch_impact_2022}, the fourth research question extends the application of the snow scheme proposed by \citet{sturm_thermal_1997} to cover the entire Arctic domain. By employing a snow scheme better suited to the snow density profile observed over permafrost regions, this thesis seeks to assess its influence on simulated soil temperatures. Comparing this method to observational datasets reveals a significant reduction in the cold bias that was present in the control run. In most regions, the Sturm run exhibits a substantial decrease in the cold bias. However, there is a distinctive overshoot with a warm bias observed in mountainous areas. The Sturm experiment effectively addressed the overestimation of permafrost extent in the control run, albeit resulting in a substantial reduction in permafrost extent over mountainous areas. ALT results remain relatively consistent compared to the control run. These outcomes align with our initial hypothesis, which anticipated that the reduced snow insulation in the Sturm run would lead to higher winter soil temperatures and a more accurate representation of permafrost physics. In summary, this thesis demonstrates significant advancements in understanding permafrost dynamics and its integration into LSMs. It has meticulously unraveled the intricacies involved in the interplay between heat transfer, soil properties, and snow dynamics in permafrost regions. These insights offer novel perspectives on model representation and performance. N2 - Das Auftauen von Permafrost und die anschließende Freisetzung von Treibhausgasen stellen eine der bedeutendsten und unsichersten positiven Rückkopplungsschleifen im Kontext des Klimawandels dar, was Vorhersagen über Veränderungen der Permafrostverbreitung von größter Bedeutung macht. Um diese kritischen Fragen zu adressieren, haben Klimawissenschaftler Landoberflächenmodelle (LSMs) entwickelt, die eine Vielzahl physikalischer Bodenprozesse umfassen. Diese Dissertation widmet sich der Vertiefung unseres Verständnisses und der Verfeinerung präziser Darstellungen der Permafrostdynamik innerhalb von LSMs, mit einem besonderen Fokus auf die genaue Modellierung von Wärmeflüssen, einem wesentlichen Bestandteil der Simulation von Permafrostphysik. Die erste Forschungsfrage gibt einen Überblick über grundlegende Modellanforderungen für die Darstellung von Permafrostböden innerhalb der Landoberflächenmodellierung. Sie beinhaltet einen erstmaligen Vergleich zwischen LSMs im Rahmen von CMIP6, um deren Unterschiede und Schwächen in den Schlüsselparametern der Permafrostphysik aufzuzeigen. Insgesamt repräsentiert jedes dieser LSMs einen einzigartigen Ansatz zur Simulation von Bodenprozessen und deren Wechselwirkungen mit dem Klimasystem. Die Wahl des am besten geeigneten Modells für eine bestimmte Anwendung hängt von Faktoren wie dem räumlichen und zeitlichen Maßstab der Simulation, der spezifischen Forschungsfrage und den verfügbaren Rechenressourcen ab. Die zweite Forschungsfrage bewertet die Leistungsfähigkeit des hochmodernen Community Land Model (CLM5) bei der Simulation arktischer Permafrostregionen. Unser Ansatz überwindet traditionelle Evaluationsbeschränkungen, indem er Tiefe, Saisonalität und regionale Variationen einzeln berücksichtigt und eine umfassende Bewertung der Permafrost- und Bodentemperaturdynamik liefert. Ich vergleiche die Ergebnisse von CLM5 mit drei umfangreichen Datensätzen: (1) Bodentemperaturen von 295 Bohrlochstationen, (2) Daten zur aktiven Schichtdicke (ALT) aus dem Circumpolar Active Layer Monitoring Network (CALM) und (3) Bodentemperaturen, ALT und Permafrostausdehnung aus der ESA Climate Change Initiative (ESA-CCI). Die Ergebnisse zeigen, dass CLM5 gut mit ESA-CCI und CALM für Permafrostausdehnung und ALT übereinstimmt, jedoch eine signifikante globale kalte Temperaturabweichung aufweist, insbesondere über Sibirien. Diese Ergebnisse spiegeln eine anhaltende Herausforderung wider, die in zahlreichen Studien identifiziert wurde: das Vorhandensein einer systematischen "kalten Abweichung" bei Bodentemperaturen in Permafrostregionen. Um diese Herausforderung anzugehen, schlagen die folgenden Forschungsfragen duale Sensitivitätsexperimente vor. Die dritte Forschungsfrage stellt die erste Studie dar, die einen pflanzenfunktionstypbasierten Ansatz (PFT) zur Ableitung von Bodentextur und organischer Bodensubstanz (SOM) anwendet und sich von der herkömmlichen Verwendung grob aufgelöster globaler Daten in LSMs abwendet. Diese neuartige Methode führt zu einer gleichmäßigeren Verteilung der Dichte organischer Bodensubstanz (OMD) im gesamten Bereich, gekennzeichnet durch geringere OMD-Werte in den meisten Regionen. Veränderungen in der Bodentextur zeigen jedoch ein komplexeres räumliches Muster. Der Vergleich der Ergebnisse mit Beobachtungen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf beobachtet wurde. Diese Methode zeigt bemerkenswerte Verbesserungen in der Permafrostausdehnung, jedoch auf Kosten einer Überschätzung der ALT. Diese Ergebnisse unterstreichen die hohe Empfindlichkeit des Modells gegenüber Variationen in der Bodentextur und dem SOM-Gehalt und heben die entscheidende Rolle der Bodenbeschaffenheit bei der Steuerung der Wärmeübertragungsprozesse und der saisonalen Variation der Bodentemperaturen in Permafrostregionen hervor. Aufbauend auf einem Standortexperiment im Trail Valley Creek von Dutch et al. (2022) erweitert die vierte Forschungsfrage die Anwendung des von Sturm et al. (1997) vorgeschlagenen Schneeschemas auf das gesamte arktische Gebiet. Durch die Anwendung eines Schneeschemas, das besser zu dem in Permafrostregionen beobachteten Schneedichteprofil passt, versucht diese Dissertation, dessen Einfluss auf die simulierten Bodentemperaturen zu bewerten. Der Vergleich dieser Methode mit Beobachtungsdatensätzen zeigt eine signifikante Reduzierung der kalten Abweichung, die im Kontrolllauf vorhanden war. In den meisten Regionen weist der Sturm-Lauf eine erhebliche Verringerung der kalten Abweichung auf. Es gibt jedoch eine deutliche Überschreitung mit einer warmen Abweichung in Bergregionen. Das Sturm-Experiment hat die Überschätzung der Permafrostausdehnung im Kontrolllauf wirksam angegangen, was jedoch zu einer erheblichen Reduzierung der Permafrostausdehnung in Bergregionen führte. Die ALT-Ergebnisse bleiben im Vergleich zum Kontrolllauf relativ konsistent. Diese Ergebnisse entsprechen unserer ursprünglichen Hypothese, die erwartete, dass die reduzierte Schneedecke im Sturm-Lauf zu höheren Winterbodentemperaturen und einer genaueren Darstellung der Permafrostphysik führen würde. Zusammenfassend zeigt diese Dissertation bedeutende Fortschritte im Verständnis der Permafrostdynamik und deren Integration in LSMs. Sie hat die Komplexität der Wechselwirkungen zwischen Wärmeübertragung, Bodeneigenschaften und Schneedynamik in Permafrostregionen sorgfältig entschlüsselt. Diese Erkenntnisse bieten neue Perspektiven auf die Modellierung und Leistung von Modellen. KW - snow thermal conductivity KW - soil organic matter KW - model validation KW - Modellvalidierung KW - Wärmeleitfähigkeit von Schnee KW - organische Bodensubstanz Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639450 ER - TY - THES A1 - Koyan, Philipp T1 - 3D attribute analysis and classification to interpret ground-penetrating radar (GPR) data collected across sedimentary environments: Synthetic studies and field examples T1 - 3D Attributanalyse und -klassifizierung zur Interpretation von Georadar-Daten in sedimentären Umgebungen: Synthetische Studien und Feldbeispiele N2 - Die Untersuchung des oberflächennahen Untergrundes erfolgt heutzutage bei Frage- stellungen aus den Bereichen des Bauwesens, der Archäologie oder der Geologie und Hydrologie oft mittels zerstörungsfreier beziehungsweise zerstörungsarmer Methoden der angewandten Geophysik. Ein Bereich, der eine immer zentralere Rolle in Forschung und Ingenieurwesen einnimmt, ist die Untersuchung von sedimentären Umgebungen, zum Beispiel zur Charakterisierung oberflächennaher Grundwassersysteme. Ein in diesem Kontext häufig eingesetztes Verfahren ist das des Georadars (oftmals GPR - aus dem Englischen ground-penetrating radar). Dabei werden kurze elektromagnetische Impulse von einer Antenne in den Untergrund ausgesendet, welche dort wiederum an Kontrasten der elektromagnetischen Eigenschaften (wie zum Beispiel an der Grundwasseroberfläche) reflektiert, gebrochen oder gestreut werden. Eine Empfangsantenne zeichnet diese Signale in Form derer Amplituden und Laufzeiten auf. Eine Analyse dieser aufgezeichneten Signale ermöglicht Aussagen über den Untergrund, beispielsweise über die Tiefenlage der Grundwasseroberfläche oder die Lagerung und Charakteristika oberflächennaher Sedimentschichten. Dank des hohen Auflösungsvermögens der GPR-Methode sowie stetiger technologischer Entwicklungen erfolgt heutzutage die Aufzeichnung von GPR- Daten immer häufiger in 3D. Trotz des hohen zeitlichen und technischen Aufwandes für die Datenakquisition und -bearbeitung werden die resultierenden 3D-Datensätze, welche den Untergrund hochauflösend abbilden, typischerweise von Hand interpretiert. Dies ist in der Regel ein äußerst zeitaufwendiger Analyseschritt. Daher werden oft repräsentative 2D-Schnitte aus dem 3D-Datensatz gewählt, in denen markante Reflektionsstrukuren markiert werden. Aus diesen Strukturen werden dann sich ähnelnde Bereiche im Untergrund als so genannte Radar-Fazies zusammengefasst. Die anhand von 2D-Schnitten erlangten Resultate werden dann als repräsentativ für die gesamte untersuchte Fläche angesehen. In dieser Form durchgeführte Interpretationen sind folglich oft unvollständig sowie zudem in hohem Maße von der Expertise der Interpretierenden abhängig und daher in der Regel nicht reproduzierbar. Eine vielversprechende Alternative beziehungsweise Ergänzung zur manuellen In- terpretation ist die Verwendung von so genannten GPR-Attributen. Dabei werden nicht die aufgezeichneten Daten selbst, sondern daraus abgeleitete Größen, welche die markanten Reflexionsstrukturen in 3D charakterisieren, zur Interpretation herangezogen. In dieser Arbeit wird anhand verschiedener Feld- und Modelldatensätze untersucht, welche Attribute sich dafür insbesondere eignen. Zudem zeigt diese Arbeit, wie ausgewählte Attribute mittels spezieller Bearbeitungs- und Klassifizierungsmethoden zur Erstellung von 3D-Faziesmodellen genutzt werden können. Dank der Möglichkeit der Erstellung so genannter attributbasierter 3D-GPR-Faziesmodelle können zukünftige Interpretationen zu gewissen Teilen automatisiert und somit effizienter durchgeführt werden. Weiterhin beschreiben die so erhaltenen Resultate den untersuchten Untergrund in reproduzierbarer Art und Weise sowie umfänglicher als es bisher mittels manueller Interpretationsmethoden typischerweise möglich war. N2 - Today, near-surface investigations are frequently conducted using non-destructive or minimally invasive methods of applied geophysics, particularly in the fields of civil engineering, archaeology, geology, and hydrology. One field that plays an increasingly central role in research and engineering is the examination of sedimentary environments, for example, for characterizing near-surface groundwater systems. A commonly employed method in this context is ground-penetrating radar (GPR). In this technique, short electromagnetic pulses are emitted into the subsurface by an antenna, which are then reflected, refracted, or scattered at contrasts in electromagnetic properties (such as the water table). A receiving antenna records these signals in terms of their amplitudes and travel times. Analysis of the recorded signals allows for inferences about the subsurface, such as the depth of the groundwater table or the composition and characteristics of near-surface sediment layers. Due to the high resolution of the GPR method and continuous technological advancements, GPR data acquisition is increasingly performed in three-dimensional (3D) fashion today. Despite the considerable temporal and technical efforts involved in data acquisition and processing, the resulting 3D data sets (providing high-resolution images of the subsurface) are typically interpreted manually. This is generally an extremely time-consuming analysis step. Therefore, representative 2D sections highlighting distinctive reflection structures are often selected from the 3D data set. Regions showing similar structures are then grouped into so-called radar facies. The results obtained from 2D sections are considered representative of the entire investigated area. Interpretations conducted in this manner are often incomplete and highly dependent on the expertise of the interpreters, making them generally non-reproducible. A promising alternative or complement to manual interpretation is the use of GPR attributes. Instead of using the recorded data directly, derived quantities characterizing distinctive reflection structures in 3D are applied for interpretation. Using various field and synthetic data sets, this thesis investigates which attributes are particularly suitable for this purpose. Additionally, the study demonstrates how selected attributes can be utilized through specific processing and classification methods to create 3D facies models. The ability to generate attribute-based 3D GPR facies models allows for partially automated and more efficient interpretations in the future. Furthermore, the results obtained in this manner describe the subsurface in a reproducible and more comprehensive manner than what has typically been achievable through manual interpretation methods. KW - ground-penetrating radar KW - sedimentary environments KW - 3D KW - applied geophysics KW - near-surface geophysics KW - Georadar KW - sedimentäre Systeme KW - angewandte Geophysik KW - oberflächennahe Geophysik KW - Attribute KW - attributes KW - geophysics KW - Geophysik Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639488 ER - TY - THES A1 - Lorson, Annalena T1 - Understanding early stage evolution of digital innovation units in manufacturing companies T1 - Verständnis der frühphasigen Entwicklung digitaler Innovationseinheiten in Fertigungsunternehmen N2 - The dynamic landscape of digital transformation entails an impact on industrial-age manufacturing companies that goes beyond product offerings, changing operational paradigms, and requiring an organization-wide metamorphosis. An initiative to address the given challenges is the creation of Digital Innovation Units (DIUs) – departments or distinct legal entities that use new structures and practices to develop digital products, services, and business models and support or drive incumbents’ digital transformation. With more than 300 units in German-speaking countries alone and an increasing number of scientific publications, DIUs have become a widespread phenomenon in both research and practice. This dissertation examines the evolution process of DIUs in the manufacturing industry during their first three years of operation, through an extensive longitudinal single-case study and several cross-case syntheses of seven DIUs. Building on the lenses of organizational change and development, time, and socio-technical systems, this research provides insights into the fundamentals, temporal dynamics, socio-technical interactions, and relational dynamics of a DIU’s evolution process. Thus, the dissertation promotes a dynamic understanding of DIUs and adds a two-dimensional perspective to the often one-dimensional view of these units and their interactions with the main organization throughout the startup and growth phases of a DIU. Furthermore, the dissertation constructs a phase model that depicts the early stages of DIU evolution based on these findings and by incorporating literature from information systems research. As a result, it illustrates the progressive intensification of collaboration between the DIU and the main organization. After being implemented, the DIU sparks initial collaboration and instigates change within (parts of) the main organization. Over time, it adapts to the corporate environment to some extent, responding to changing circumstances in order to contribute to long-term transformation. Temporally, the DIU drives the early phases of cooperation and adaptation in particular, while the main organization triggers the first major evolutionary step and realignment of the DIU. Overall, the thesis identifies DIUs as malleable organizational structures that are crucial for digital transformation. Moreover, it provides guidance for practitioners on the process of building a new DIU from scratch or optimizing an existing one. N2 - Die digitale Transformation produzierender Unternehmen geht über die bloße Veränderung des Produktangebots hinaus; sie durchdringt operative Paradigmen und erfordert eine umfassende, unternehmensweite Metamorphose. Eine Initiative, den damit verbundenen Herausforderungen zu begegnen, ist der Aufbau einer Digital Innovation Unit (DIU) (zu deutsch: digitale Innovationseinheit) – eine Abteilung oder separate rechtliche Einheit, die neue organisationale Strukturen und Arbeitspraktiken nutzt, um digitale Produkte, Dienstleistungen und Geschäftsmodelle zu entwickeln und die digitale Transformation von etabliertenUnternehmen zu unterstützen oder voranzutreiben. Mit mehr als 300 Einheitenallein im deutschsprachigen Raum und einer wachsenden Zahl wissenschaftlicher Publikationen sind DIUs sowohl in der Forschung als auch in der Praxis ein weit verbreitetes Phänomen. Auf Basis einer umfassenden Längsschnittstudie und mehrerer Querschnittsanalysen von sieben Fertigungsunternehmen und ihren DIUs untersucht diese Dissertation den Entwicklungsprozess von DIUs in den ersten drei Betriebsjahren. Gestützt auf theoretische Perspektiven zu organisatorischem Wandel, Zeit und sozio-technischen Systemen bietet sie Einblicke in die Grundlagen, die zeitlichen Dynamiken, die sozio-technischen Interaktionen und die Beziehungsdynamiken des Entwicklungsprozesses von DIUs. Die Dissertation erweitert somit das dynamische Verständnis von DIUs und fügt der oft eindimensionalen Sichtweise auf diese Einheiten und ihre Interaktionen mit der Hauptorganisation eine zweidimensionale Perspektive entlang der Gründungs- und Wachstumsphasen einer DIU hinzu. Darüber hinaus konstruiert die Dissertation ein Phasenmodell, das die frühen Phasen der DIU-Entwicklung auf der Grundlage dieser Erkenntnisse und unter Einbeziehung von Literatur aus der Wirtschaftsinformatikforschung abbildet. Es veranschaulicht die schrittweise Intensivierung der Zusammenarbeit zwischen der DIU und der Hauptorganisation. Nach ihrer Implementierung initiiert die DIU die anfängliche Zusammenarbeit und stößt Veränderungen innerhalb (von Teilen) der Hauptorganisation an. Im Laufe der Zeit passt sich die DIU bis zu einem gewissen Grad dem Unternehmensumfeld an und reagiert auf sich verändernde Umstände, um zu einer langfristigen Veränderung beizutragen. Zeitlich gesehen treibt die DIU vor allem die frühen Phasen der Zusammenarbeit und Anpassung voran, während die Hauptorganisation den ersten großen Entwicklungsschritt und die Neuausrichtung der DIU auslöst. Insgesamt identifiziert die Dissertation DIUs als anpassungsfähige Organisationsstrukturen, die für die digitale Transformation entscheidend sind. Darüber hinaus bietet sie Praktikern einen Leitfaden für den Aufbau einer neuen oder die Optimierung einer bestehenden DIU. KW - digital transformation KW - digital innovation units KW - evolution of digital innovation units KW - manufacturing companies KW - digitale Transformation KW - digitale Innovationseinheit KW - Entwicklung digitaler Innovationseinheiten KW - Fertigungsunternehmen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-639141 ER - TY - THES A1 - Sharma, Shubham T1 - Integrated approaches to earthquake forecasting T1 - Integrierte Ansätze zur Vorhersage von Erdbeben BT - insights from Coulomb stress, seismotectonics, and aftershock sequences BT - Erkenntnisse aus Coulomb-Stress, Seismotektonik und Nachbebenfolgen N2 - A comprehensive study on seismic hazard and earthquake triggering is crucial for effective mitigation of earthquake risks. The destructive nature of earthquakes motivates researchers to work on forecasting despite the apparent randomness of the earthquake occurrences. Understanding their underlying mechanisms and patterns is vital, given their potential for widespread devastation and loss of life. This thesis combines methodologies, including Coulomb stress calculations and aftershock analysis, to shed light on earthquake complexities, ultimately enhancing seismic hazard assessment. The Coulomb failure stress (CFS) criterion is widely used to predict the spatial distributions of aftershocks following large earthquakes. However, uncertainties associated with CFS calculations arise from non-unique slip inversions and unknown fault networks, particularly due to the choice of the assumed aftershocks (receiver) mechanisms. Recent studies have proposed alternative stress quantities and deep neural network approaches as superior to CFS with predefined receiver mechanisms. To challenge these propositions, I utilized 289 slip inversions from the SRCMOD database to calculate more realistic CFS values for a layered-half space and variable receiver mechanisms. The analysis also investigates the impact of magnitude cutoff, grid size variation, and aftershock duration on the ranking of stress metrics using receiver operating characteristic (ROC) analysis. Results reveal the performance of stress metrics significantly improves after accounting for receiver variability and for larger aftershocks and shorter time periods, without altering the relative ranking of the different stress metrics. To corroborate Coulomb stress calculations with the findings of earthquake source studies in more detail, I studied the source properties of the 2005 Kashmir earthquake and its aftershocks, aiming to unravel the seismotectonics of the NW Himalayan syntaxis. I simultaneously relocated the mainshock and its largest aftershocks using phase data, followed by a comprehensive analysis of Coulomb stress changes on the aftershock planes. By computing the Coulomb failure stress changes on the aftershock faults, I found that all large aftershocks lie in regions of positive stress change, indicating triggering by either co-seismic or post-seismic slip on the mainshock fault. Finally, I investigated the relationship between mainshock-induced stress changes and associated seismicity parameters, in particular those of the frequency-magnitude (Gutenberg-Richter) distribution and the temporal aftershock decay (Omori-Utsu law). For that purpose, I used my global data set of 127 mainshock-aftershock sequences with the calculated Coulomb Stress (ΔCFS) and the alternative receiver-independent stress metrics in the vicinity of the mainshocks and analyzed the aftershocks properties depend on the stress values. Surprisingly, the results show a clear positive correlation between the Gutenberg-Richter b-value and induced stress, contrary to expectations from laboratory experiments. This observation highlights the significance of structural heterogeneity and strength variations in seismicity patterns. Furthermore, the study demonstrates that aftershock productivity increases nonlinearly with stress, while the Omori-Utsu parameters c and p systematically decrease with increasing stress changes. These partly unexpected findings have significant implications for future estimations of aftershock hazard. The findings in this thesis provides valuable insights into earthquake triggering mechanisms by examining the relationship between stress changes and aftershock occurrence. The results contribute to improved understanding of earthquake behavior and can aid in the development of more accurate probabilistic-seismic hazard forecasts and risk reduction strategies. N2 - Ein umfassendes Verständnis der seismischen Gefahr und Erdbebenauslösung ist wichtig für eine Minderung von Erdbebenrisiken. Die zerstörerische Natur von Erdbeben motiviert Forscher dazu, trotz der scheinbaren Zufälligkeit der Erdbebenereignisse an Vorhersagen zu arbeiten. Das Verständnis der den Beben zugrunde liegenden Mechanismen und Muster ist angesichts ihres Potenzials für weitreichende Verwüstung und den Verlust von Menschenleben von entscheidender Bedeutung. Diese Arbeit kombiniert Methoden, einschließlich der Berechnung der Coulombschen Spannung und der Analyse von Nachbeben, um die Komplexitäten von Erdbeben besser zu verstehen und letztendlich die Bewertung der seismischen Gefahr zu verbessern. Das Coulomb Spannungskriterium (CFS) wird oft verwendet, um die räumliche Verteilung von Nachbeben nach großen Erdbeben vorherzusagen. Jedoch ergeben sich Unsicherheiten bei der Berechnung von CFS aus nicht eindeutigen slip-inversion und der unbekannten Störungsnetzwerken, insbesondere aufgrund der Unsicherheit bezüglich der Nachbebenmechanismen (Empfänger). Neueste Studien deuten darauf hin dass alternative Spannungsgrößen und Deep-Learning-Ansätze gegenüber CFS mit vordefinierten Empfängermechanismen. Um diese Ergebnisse zu hinterfragen, habe ich 289 Slip-inversion uberlegensind aus der SRCMOD-Datenbank verwendet, um realistischere CFS-Werte für einen geschichteten Halbraum und variable Empfängermechanismen zu berechnen. Dabei habe ich auch den Einfluss von Magnitudenschwellenwerten, Gittergrößenvariationen und der Nachbeben-Dauer auf die vorhersagemöglichkeiten der Spannungsmetriken unter Verwendung der ROC-Analyse (Receiver Operating Characteristic) untersucht. Die Ergebnisse zeigen, dass die berudzsidtizung von variablen Empfangermechanism und größere Nachbeben und kürzere Zeiträume die vorhersagekraft steigern, wobei die relative Rangfolge der verschiedenen Spannungsmetriken nicht geändert wird. Um die Coulomb Spannungsberechnungen genauer mit den Ergebnissen von Erdbebenstudien abzugleichen, habe ich die Quelleneigenschaften des Erdbebens von Kaschmir aus dem Jahr 2005 und seiner Nachbeben mit dem ziel, die Seismotektonik des NW-Himalaya Syntaxis zu entschlüsseln, detailliert untersucht. Ich habe gleichzeitig das Hauptbeben und seine größten Nachbeben unter Verwendung von seismischen Phaseneinsetzen relokalisiert und anschließend eine umfassende Analyse der Coulomb Spannungsänderungen auf den Bruchflächen der Nachbeben durchgeführt. Durch die Berechnung der Coulomb Spannungsänderungen an den während der Nachbeben aktivierten Störungen konnte ich herausfinden, dass alle großen Nachbeben in Regionen mit positiven Spannungsänderungen liegen, was auf eine Auslösung durch entweder ko-seismische oder post-seismische Verschiebungen des Hauptbebens hinweist. Schließlich habe ich die Beziehung zwischen den durch Hauptbeben verursachten Spannungsänderungen und den damit verbundenen seismischen Parametern untersucht, insbesondere denen der Häufigkeits-Magnituden (Gutenberg-Richter) Verteilung und des zeitlichen Nachbebenabklingens (Omori-Utsu-Gesetz). Zu diesem Zweck habe ich meinen globalen Datensatz von 127 Hauptbeben-Nachbeben-Sequenzen mit den in der Umgebung der Hauptbeben berechneten Coulomb Spannungen ($\Delta$CFS) zusammen mit den alternativen, empfänger-unabhängigen Spannungsmetriken, verwendet und die Eigenschaften in Abhängigkeit der Spannungswerte analysiert. Überraschenderweise zeigen die Ergebnisse eine klar positive Korrelation zwischen dem $b$-Wert der Gutenberg-Richter-Verteilung und der induzierten Spannung, was im Kontrast zu den Erwartungen aus Laborexperimenten steht. Diese Beobachtung unterstreicht die Bedeutung struktureller Heterogenitäten und Festigkeitsvariationen in seismischen Mustern. Darüber hinaus zeigt die Studie, dass die Anzahl von Nachbeben nichtlinear mit der Spannung zunimmt, während die Omori-Utsu-Parameter $c$ und $p$ systematisch mit zunehmenden Spannungsänderungen abnehmen. Diese teilweise unerwarteten Ergebnisse haben bedeutende Auswirkungen auf zukünftige Abschätzungen der Nachbebengefahr. Die Ergebnisse dieser Arbeit liefern wertvolle Einblicke in die Mechanismen der Erdbebenauslösung, indem sie die Beziehung zwischen Spannungsänderungen und dem Auftreten von Nachbeben untersuchen. Die Ergebnisse tragen zu einem besseren Verständnis des Verhaltens von Erdbeben bei und können bei der Entwicklung genauerer probabilistischer, seismischer Gefahreneinschätzungen und Risikominderungsstrategien helfen. KW - earthquake KW - forecasting KW - hazards KW - seismology KW - Erdbeben KW - Vorhersage KW - Gefahren KW - Seismologie Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-636125 ER - TY - THES A1 - Mostafa, Amr T1 - DNA origami nanoforks: A platform for cytochrome c single molecule surface enhanced Raman spectroscopy N2 - This thesis presents a comprehensive exploration of the application of DNA origami nanofork antennas (DONAs) in the field of spectroscopy, with a particular focus on the structural analysis of Cytochrome C (CytC) at the single-molecule level. The research encapsulates the design, optimization, and application of DONAs in enhancing the sensitivity and specificity of Raman spectroscopy, thereby offering new insights into protein structures and interactions. The initial phase of the study involved the meticulous optimization of DNA origami structures. This process was pivotal in developing nanoscale tools that could significantly enhance the capabilities of Raman spectroscopy. The optimized DNA origami nanoforks, in both dimer and aggregate forms, demonstrated an enhanced ability to detect and analyze molecular vibrations, contributing to a more nuanced understanding of protein dynamics. A key aspect of this research was the comparative analysis between the dimer and aggregate forms of DONAs. This comparison revealed that while both configurations effectively identified oxidation and spin states of CytC, the aggregate form offered a broader range of detectable molecular states due to its prolonged signal emission and increased number of molecules. This extended duration of signal emission in the aggregates was attributed to the collective hotspot area, enhancing overall signal stability and sensitivity. Furthermore, the study delved into the analysis of the Amide III band using the DONA system. Observations included a transient shift in the Amide III band's frequency, suggesting dynamic alterations in the secondary structure of CytC. These shifts, indicative of transitions between different protein structures, were crucial in understanding the protein’s functional mechanisms and interactions. The research presented in this thesis not only contributes significantly to the field of spectroscopy but also illustrates the potential of interdisciplinary approaches in biosensing. The use of DNA origami-based systems in spectroscopy has opened new avenues for research, offering a detailed and comprehensive understanding of protein structures and interactions. The insights gained from this research are expected to have lasting implications in scientific fields ranging from drug development to the study of complex biochemical pathways. This thesis thus stands as a testament to the power of integrating nanotechnology, biochemistry, and spectroscopic techniques in addressing complex scientific questions. N2 - Diese Dissertation präsentiert eine umfassende Untersuchung der Anwendung von DNA-Origami-Nanogabelantennen (DONAs) im Bereich der Spektroskopie, mit einem besonderen Fokus auf der strukturellen Analyse von Cytochrom C (CytC) auf Einzelmolekülebene. Die Forschung umfasst das Design, die Optimierung und die Anwendung von DONAs zur Steigerung der Sensitivität und Spezifität der Raman-Spektroskopie und bietet somit neue Einblicke in Proteinstrukturen und -interaktionen. Die erste Phase der Studie beinhaltete die sorgfältige Optimierung von DNA-Origami-Strukturen. Dieser Prozess war entscheidend für die Entwicklung von Nanowerkzeugen, die die Fähigkeiten der Raman-Spektroskopie erheblich verbessern könnten. Die optimierten DNA-Origami-Nanogabeln, sowohl in Dimer- als auch in Aggregatform, zeigten eine verbesserte Fähigkeit, molekulare Schwingungen zu detektieren und zu analysieren, was zu einem nuancierteren Verständnis der Proteindynamik beitrug. Ein Schlüsselaspekt dieser Forschung war die vergleichende Analyse zwischen den Dimer- und Aggregatformen von DONAs. Dieser Vergleich zeigte, dass beide Konfigurationen effektiv Oxidations- und Spin-Zustände von CytC identifizieren konnten, wobei die Aggregatform aufgrund ihrer längeren Signalemission und der erhöhten Anzahl von Molekülen ein breiteres Spektrum an detektierbaren molekularen Zuständen bot. Die verlängerte Dauer der Signalemission in den Aggregaten wurde auf den kollektiven Hotspot-Bereich zurückgeführt, der die Gesamtsignalstabilität und -empfindlichkeit erhöhte. Darüber hinaus ging die Studie auf die Analyse der Amid-III-Bande unter Verwendung des DONA-Systems ein. Zu den Beobachtungen gehörte eine vorübergehende Verschiebung der Frequenz der Amid-III-Bande, was auf dynamische Veränderungen in der Sekundärstruktur von CytC hindeutete. Diese Verschiebungen, die auf Übergänge zwischen verschiedenen Proteinstrukturen hindeuteten, waren entscheidend für das Verständnis der funktionellen Mechanismen und Interaktionen des Proteins. Die in dieser Dissertation präsentierte Forschung leistet nicht nur einen bedeutenden Beitrag zum Gebiet der Spektroskopie, sondern veranschaulicht auch das Potenzial interdisziplinärer Ansätze in der Biosensorik. Der Einsatz von DNA-Origami-basierten Systemen in der Spektroskopie hat neue Wege für die Forschung eröffnet und bietet ein detailliertes und umfassendes Verständnis von Proteinstrukturen und -interaktionen. Die aus dieser Forschung gewonnenen Erkenntnisse werden voraussichtlich langfristige Auswirkungen auf wissenschaftliche Bereiche haben, die von der Arzneimittelentwicklung bis hin zur Untersuchung komplexer biochemischer Prozesse reichen. Diese Dissertation steht somit als Zeugnis für die Kraft der Integration von Nanotechnologie, Biochemie und spektroskopischen Techniken bei der Beantwortung komplexer wissenschaftlicher Fragen. KW - DNA origami KW - DNA origami nanoantennas (DONA) KW - SERS KW - Cytochrome C Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-635482 ER - TY - THES A1 - Huegle, Johannes T1 - Causal discovery in practice: Non-parametric conditional independence testing and tooling for causal discovery T1 - Kausale Entdeckung in der Praxis: Nichtparametrische bedingte Unabhängigkeitstests und Werkzeuge für die Kausalentdeckung N2 - Knowledge about causal structures is crucial for decision support in various domains. For example, in discrete manufacturing, identifying the root causes of failures and quality deviations that interrupt the highly automated production process requires causal structural knowledge. However, in practice, root cause analysis is usually built upon individual expert knowledge about associative relationships. But, "correlation does not imply causation", and misinterpreting associations often leads to incorrect conclusions. Recent developments in methods for causal discovery from observational data have opened the opportunity for a data-driven examination. Despite its potential for data-driven decision support, omnipresent challenges impede causal discovery in real-world scenarios. In this thesis, we make a threefold contribution to improving causal discovery in practice. (1) The growing interest in causal discovery has led to a broad spectrum of methods with specific assumptions on the data and various implementations. Hence, application in practice requires careful consideration of existing methods, which becomes laborious when dealing with various parameters, assumptions, and implementations in different programming languages. Additionally, evaluation is challenging due to the lack of ground truth in practice and limited benchmark data that reflect real-world data characteristics. To address these issues, we present a platform-independent modular pipeline for causal discovery and a ground truth framework for synthetic data generation that provides comprehensive evaluation opportunities, e.g., to examine the accuracy of causal discovery methods in case of inappropriate assumptions. (2) Applying constraint-based methods for causal discovery requires selecting a conditional independence (CI) test, which is particularly challenging in mixed discrete-continuous data omnipresent in many real-world scenarios. In this context, inappropriate assumptions on the data or the commonly applied discretization of continuous variables reduce the accuracy of CI decisions, leading to incorrect causal structures. Therefore, we contribute a non-parametric CI test leveraging k-nearest neighbors methods and prove its statistical validity and power in mixed discrete-continuous data, as well as the asymptotic consistency when used in constraint-based causal discovery. An extensive evaluation of synthetic and real-world data shows that the proposed CI test outperforms state-of-the-art approaches in the accuracy of CI testing and causal discovery, particularly in settings with low sample sizes. (3) To show the applicability and opportunities of causal discovery in practice, we examine our contributions in real-world discrete manufacturing use cases. For example, we showcase how causal structural knowledge helps to understand unforeseen production downtimes or adds decision support in case of failures and quality deviations in automotive body shop assembly lines. N2 - Kenntnisse über die Strukturen zugrundeliegender kausaler Mechanismen sind eine Voraussetzung für die Entscheidungsunterstützung in verschiedenen Bereichen. In der Fertigungsindustrie beispielsweise erfordert die Fehler-Ursachen-Analyse von Störungen und Qualitätsabweichungen, die den hochautomatisierten Produktionsprozess unterbrechen, kausales Strukturwissen. In Praxis stützt sich die Fehler-Ursachen-Analyse in der Regel jedoch auf individuellem Expertenwissen über assoziative Zusammenhänge. Aber "Korrelation impliziert nicht Kausalität", und die Fehlinterpretation assoziativer Zusammenhänge führt häufig zu falschen Schlussfolgerungen. Neueste Entwicklungen von Methoden des kausalen Strukturlernens haben die Möglichkeit einer datenbasierten Betrachtung eröffnet. Trotz seines Potenzials zur datenbasierten Entscheidungsunterstützung wird das kausale Strukturlernen in der Praxis jedoch durch allgegenwärtige Herausforderungen erschwert. In dieser Dissertation leisten wir einen dreifachen Beitrag zur Verbesserung des kausalen Strukturlernens in der Praxis. (1) Das wachsende Interesse an kausalem Strukturlernen hat zu einer Vielzahl von Methoden mit spezifischen statistischen Annahmen über die Daten und verschiedenen Implementierungen geführt. Daher erfordert die Anwendung in der Praxis eine sorgfältige Prüfung der vorhandenen Methoden, was eine Herausforderung darstellt, wenn verschiedene Parameter, Annahmen und Implementierungen in unterschiedlichen Programmiersprachen betrachtet werden. Hierbei wird die Evaluierung von Methoden des kausalen Strukturlernens zusätzlich durch das Fehlen von "Ground Truth" in der Praxis und begrenzten Benchmark-Daten, welche die Eigenschaften realer Datencharakteristiken widerspiegeln, erschwert. Um diese Probleme zu adressieren, stellen wir eine plattformunabhängige modulare Pipeline für kausales Strukturlernen und ein Tool zur Generierung synthetischer Daten vor, die umfassende Evaluierungsmöglichkeiten bieten, z.B. um Ungenauigkeiten von Methoden des Lernens kausaler Strukturen bei falschen Annahmen an die Daten aufzuzeigen. (2) Die Anwendung von constraint-basierten Methoden des kausalen Strukturlernens erfordert die Wahl eines bedingten Unabhängigkeitstests (CI-Test), was insbesondere bei gemischten diskreten und kontinuierlichen Daten, die in vielen realen Szenarien allgegenwärtig sind, die Anwendung erschwert. Beispielsweise führen falsche Annahmen der CI-Tests oder die Diskretisierung kontinuierlicher Variablen zu einer Verschlechterung der Korrektheit der Testentscheidungen, was in fehlerhaften kausalen Strukturen resultiert. Um diese Probleme zu adressieren, stellen wir einen nicht-parametrischen CI-Test vor, der auf Nächste-Nachbar-Methoden basiert, und beweisen dessen statistische Validität und Trennschärfe bei gemischten diskreten und kontinuierlichen Daten, sowie dessen asymptotische Konsistenz in constraint-basiertem kausalem Strukturlernen. Eine umfangreiche Evaluation auf synthetischen und realen Daten zeigt, dass der vorgeschlagene CI-Test bestehende Verfahren hinsichtlich der Korrektheit der Testentscheidung und gelernter kausaler Strukturen übertrifft, insbesondere bei geringen Stichprobengrößen. (3) Um die Anwendbarkeit und Möglichkeiten kausalen Strukturlernens in der Praxis aufzuzeigen, untersuchen wir unsere Beiträge in realen Anwendungsfällen aus der Fertigungsindustrie. Wir zeigen an mehreren Beispielen aus der automobilen Karosseriefertigungen wie kausales Strukturwissen helfen kann, unvorhergesehene Produktionsausfälle zu verstehen oder eine Entscheidungsunterstützung bei Störungen und Qualitätsabweichungen zu geben. KW - causal discovery KW - causal structure learning KW - causal AI KW - non-parametric conditional independence testing KW - manufacturing KW - causal reasoning KW - mixed data KW - kausale KI KW - kausale Entdeckung KW - kausale Schlussfolgerung KW - kausales Strukturlernen KW - Fertigung KW - gemischte Daten KW - nicht-parametrische bedingte Unabhängigkeitstests Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-635820 ER -