TY - THES A1 - Çakıl, Büşra T1 - Rehabilitierung des Ehrbegriffs N2 - Heutzutage ist es üblich, die Ehre als einen obsoleten Begriff zu betrachten, der nur einem archaischen Denkmodell zuzuordnen ist und keine handlungsprägende Größe in der Gegenwartsgesellschaft darstellt. Die Ehrenmorde, die heute noch in unterschiedlichen Teilen der Welt verübt werden, scheinen diese Behauptung zu bestätigen. In diesem Buch wird jedoch die These vertreten, dass nicht der Ehrbegriff, sondern seine Deutungen archaischer Natur und daher in Frage zu stellen sind. Die Ehre ist die Bezeichnung des sozialen Werts eines Menschen, den er infolge seiner achtenswerten Handlungen erlangt. Also kann sie kein Motiv für moralisch fragwürdige Praktiken bilden. Vor diesem Hintergrund werden die Formen und die Voraussetzungen der Ehre dargestellt, die sowohl in Bezug auf unsere Zeit anpassungsfähig als auch ethisch tragbar sind. Y1 - 2017 SN - 978-3-8288-4133-8 PB - Tectum CY - Baden-Baden ER - TY - THES A1 - Zühlke, Martin T1 - Elektrosprayionisation Ionenmobilitätsspektrometrie T1 - Electrospray ionization Ion mobility spectrometry BT - Entwicklung, Charakterisierung und Anwendung zur HPLC-Detektion und zum Reaktionsmonitoring BT - development, characterization and application for HPLC detection and reaction monitoring N2 - Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt. In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt. Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt. N2 - Electrospray ionization (ESI) is one of the most widespread ionization techniques for liquid samples in mass and ion mobility (IM) spectrometry. Due to its gentle ionization, ESI is often used for sensitive, complex molecules in biology and medicine. However, it is also applicable to a wide range of substance classes. IM spectrometry was originally developed for the detection of gaseous samples, which are mainly ionized by radioactive sources. It is the only analytical method in which isomers can be separated in real time and directly identified by their characteristic IM. ESI was introduced to IM spectrometry by the Hill Group in the 90s. So far, the combination was only used by a limited number of groups and therefore there is still a large development potential. A highly promising field of application is highperformance liquid chromatography (HPLC) for multidimensional separations. At present, HPLC is the standard method for the separation of complex samples in routine analysis. However, HPLC separations are often time-consuming and the use of different solvents, high flow rates, buffers, as well as solvent gradients impose high demands on the detectors. ESI IM spectrometry was already used as an HPLC detector in a number of studies. However, these studies were restricted to splitting or low flow rates of the mobile phase. In this cumulative thesis, an ESI IM spectrometer was developed as an HPLC detector for the flow rate range of 200-1500 μl/min for the first time. Based on five publications, (1) the suitability of the spectrometer as an HPLC detector was comprehensively characterized, (2) selected complex separations are presented, and (3) the application to the reaction monitoring as well as (4, 5) possible further developments are shown. With the in-house developed ESI IM spectrometer, typical HPLC conditions such as water contents in the mobile phase of up to 90%, buffer concentrations of up to 10 mM, as well as detection limits of up to 50 nM, were achieved successfully. Furthermore, on the basis of a complex separation (24 pesticides/18 amino acids), it could be demonstrated that HPLC and IM spectrometry possess a high degree of orthogonality. An effective peak capacity of 240 was thus realized. Substances coeulating on the HPLC column could be separated in the drift time and were identified by their IM. Thus, the overall separation times could be significantly reduced. The applicability of the ESI IM spectrometer for the monitoring of chemical syntheses was demonstrated for a three-stage reaction. The main starting materials, intermediates and products of all stages could be identified. A quantitative evaluation was possible both by means of a short HPLC pre-separation as well as by a newly developed calibration procedure, which takes charge competition during ESI into account, without HPLC. In the second part of the thesis, two further developments of the spectrometer are presented. One possibility is a reduction of the pressure to the intermediate range (300 - 1000 mbar) with the aim of reducing the required voltages. With the help of scattered light images and current-voltage curves, a reduced release of analyte ions from the droplets was determined at low pressures. However, these losses could be compensated for by higher electric field strengths. Therefore, the same detection limits were achieved at 500 mbar and at 1 bar. The second development is a novel ion gate with pulse switching, which allows a doubling of the resolution up to R > 100 with equal sensitivity. A possible application in the field of peptide analysis was demonstrated, achieving a considerable resolutions of R = 90 for the peptides. KW - HPLC KW - HPLC KW - Ionenmobilitätsspektrometrie KW - Elektrosprayionisation KW - ion mobility spectrometry KW - electrospray ionization (ESI) Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407452 ER - TY - THES A1 - Zuo, Zhe T1 - From unstructured to structured: Context-based named entity mining from text T1 - Von unstrukturiert zu strukturiert: Kontextbasierte Gewinnung benannter Entitäten von Text N2 - With recent advances in the area of information extraction, automatically extracting structured information from a vast amount of unstructured textual data becomes an important task, which is infeasible for humans to capture all information manually. Named entities (e.g., persons, organizations, and locations), which are crucial components in texts, are usually the subjects of structured information from textual documents. Therefore, the task of named entity mining receives much attention. It consists of three major subtasks, which are named entity recognition, named entity linking, and relation extraction. These three tasks build up an entire pipeline of a named entity mining system, where each of them has its challenges and can be employed for further applications. As a fundamental task in the natural language processing domain, studies on named entity recognition have a long history, and many existing approaches produce reliable results. The task is aiming to extract mentions of named entities in text and identify their types. Named entity linking recently received much attention with the development of knowledge bases that contain rich information about entities. The goal is to disambiguate mentions of named entities and to link them to the corresponding entries in a knowledge base. Relation extraction, as the final step of named entity mining, is a highly challenging task, which is to extract semantic relations between named entities, e.g., the ownership relation between two companies. In this thesis, we review the state-of-the-art of named entity mining domain in detail, including valuable features, techniques, evaluation methodologies, and so on. Furthermore, we present two of our approaches that focus on the named entity linking and relation extraction tasks separately. To solve the named entity linking task, we propose the entity linking technique, BEL, which operates on a textual range of relevant terms and aggregates decisions from an ensemble of simple classifiers. Each of the classifiers operates on a randomly sampled subset of the above range. In extensive experiments on hand-labeled and benchmark datasets, our approach outperformed state-of-the-art entity linking techniques, both in terms of quality and efficiency. For the task of relation extraction, we focus on extracting a specific group of difficult relation types, business relations between companies. These relations can be used to gain valuable insight into the interactions between companies and perform complex analytics, such as predicting risk or valuating companies. Our semi-supervised strategy can extract business relations between companies based on only a few user-provided seed company pairs. By doing so, we also provide a solution for the problem of determining the direction of asymmetric relations, such as the ownership_of relation. We improve the reliability of the extraction process by using a holistic pattern identification method, which classifies the generated extraction patterns. Our experiments show that we can accurately and reliably extract new entity pairs occurring in the target relation by using as few as five labeled seed pairs. N2 - Mit den jüngsten Fortschritten in den Gebieten der Informationsextraktion wird die automatisierte Extrahierung strukturierter Informationen aus einer unüberschaubaren Menge unstrukturierter Textdaten eine wichtige Aufgabe, deren manuelle Ausführung unzumutbar ist. Benannte Entitäten, (z.B. Personen, Organisationen oder Orte), essentielle Bestandteile in Texten, sind normalerweise der Gegenstand strukturierter Informationen aus Textdokumenten. Daher erhält die Aufgabe der Gewinnung benannter Entitäten viel Aufmerksamkeit. Sie besteht aus drei groen Unteraufgaben, nämlich Erkennung benannter Entitäten, Verbindung benannter Entitäten und Extraktion von Beziehungen. Diese drei Aufgaben zusammen sind der Grundprozess eines Systems zur Gewinnung benannter Entitäten, wobei jede ihre eigene Herausforderung hat und für weitere Anwendungen eingesetzt werden kann. Als ein fundamentaler Aspekt in der Verarbeitung natürlicher Sprache haben Studien zur Erkennung benannter Entitäten eine lange Geschichte, und viele bestehenden Ansätze erbringen verlässliche Ergebnisse. Die Aufgabe zielt darauf ab, Nennungen benannter Entitäten zu extrahieren und ihre Typen zu bestimmen. Verbindung benannter Entitäten hat in letzter Zeit durch die Entwicklung von Wissensdatenbanken, welche reiche Informationen über Entitäten enthalten, viel Aufmerksamkeit erhalten. Das Ziel ist es, Nennungen benannter Entitäten zu unterscheiden und diese mit dazugehörigen Einträgen in einer Wissensdatenbank zu verknüpfen. Der letzte Schritt der Gewinnung benannter Entitäten, die Extraktion von Beziehungen, ist eine stark anspruchsvolle Aufgabe, nämlich die Extraktion semantischer Beziehungen zwischen Entitäten, z.B. die Eigentümerschaft zwischen zwei Firmen. In dieser Doktorarbeit arbeiten wir den aktuellen Stand der Wissenschaft in den Domäne der Gewinnung benannter Entitäten auf, unter anderem wertvolle Eigenschaften und Evaluationsmethoden. Darüberhinaus präsentieren wir zwei Ansätze von uns, die jeweils ihren Fokus auf die Verbindung benannter Entitäten sowie der Aufgaben der Extraktion von Beziehungen legen. Um die Aufgabe der Verbindung benannter Entitäten zu lösen schlagen wir hier die Verbindungstechnik BEL vor, welche auf einer textuellen Bandbreite relevanter Begriffe agiert und Entscheidungen einer Kombination von einfacher Klassifizierer aggregiert. Jeder dieser Klassifizierer arbeitet auf einer zufällig ausgewählten Teilmenge der obigen Bandbreite. In umfangreichen Experimenten mit handannotierten sowie Vergleichsdatensätzen hat unser Ansatz andere Lösungen zur Verbindung benannter Entitäten, die auf dem Stand der aktuellen Technik beruhen, sowie in Bezug auf Qualität als auch Effizienz geschlagen. Für die Aufgabe der Extraktion von Beziehungen fokussieren wir uns auf eine bestimmte Gruppe schwieriger Beziehungstypen, nämlich die Geschäftsbeziehungen zwischen Firmen. Diese Beziehungen können benutzt werden, um wertvolle Erkenntnisse in das Zusammenspiel von Firmen zu gelangen und komplexe Analysen ausführen, beispielsweise die Risikovorhersage oder Bewertung von Firmen. Unsere teilbeaufsichtigte Strategie kann Geschäftsbeziehungen zwischen Firmen anhand nur weniger nutzergegebener Startwerte von Firmenpaaren extrahieren. Dadurch bieten wir auch eine Lösung für das Problem der Richtungserkennung asymmetrischer Beziehungen, beispielsweise der Eigentumsbeziehung. Wir verbessern die Verlässlichkeit des Extraktionsprozesses, indem wir holistische Musteridentifikationsmethoden verwenden, welche die erstellten Extraktionsmuster klassifizieren. Unsere Experimente zeigen, dass wir neue Entitätenpaare akkurat und verlässlich in der Zielbeziehung mit bereits fünf bezeichneten Startpaaren extrahieren können. KW - named entity mining KW - information extraction KW - natural language processing KW - Gewinnung benannter Entitäten KW - Informationsextraktion KW - maschinelle Verarbeitung natürlicher Sprache Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412576 ER - TY - THES A1 - Zitelmann, Rainer T1 - Persönlichkeit und Verhaltensmuster der Vermögenselite in Deutschland Y1 - 2017 ER - TY - THES A1 - Zimmermann, Heike Hildegard T1 - Vegetation changes and treeline dynamics in northern Siberia since the last interglacial revealed by sedimentary ancient DNA metabarcoding and organelle genome assembly of modern larches Y1 - 2017 ER - TY - THES A1 - Ziegler, Moritz O. T1 - The 3D in-situ stress field and its changes in geothermal reservoirs T1 - Das 3D in-situ Spannungsfeld und seine Änderungen in Geothermiereservoiren N2 - Information on the contemporary in-situ stress state of the earth’s crust is essential for geotechnical applications and physics-based seismic hazard assessment. Yet, stress data records for a data point are incomplete and their availability is usually not dense enough to allow conclusive statements. This demands a thorough examination of the in-situ stress field which is achieved by 3D geomechanicalnumerical models. However, the models spatial resolution is limited and the resulting local stress state is subject to large uncertainties that confine the significance of the findings. In addition, temporal variations of the in-situ stress field are naturally or anthropogenically induced. In my thesis I address these challenges in three manuscripts that investigate (1) the current crustal stress field orientation, (2) the 3D geomechanical-numerical modelling of the in-situ stress state, and (3) the phenomenon of injection induced temporal stress tensor rotations. In the first manuscript I present the first comprehensive stress data compilation of Iceland with 495 data records. Therefore, I analysed image logs from 57 boreholes in Iceland for indicators of the orientation of the maximum horizontal stress component. The study is the first stress survey from different kinds of stress indicators in a geologically very young and tectonically active area of an onshore spreading ridge. It reveals a distinct stress field with a depth independent stress orientation even very close to the spreading centre. In the second manuscript I present a calibrated 3D geomechanical-numerical modelling approach of the in-situ stress state of the Bavarian Molasse Basin that investigates the regional (70x70x10km³) and local (10x10x10km³) stress state. To link these two models I develop a multi-stage modelling approach that provides a reliable and efficient method to derive from the larger scale model initial and boundary conditions for the smaller scale model. Furthermore, I quantify the uncertainties in the models results which are inherent to geomechanical-numerical modelling in general and the multi-stage approach in particular. I show that the significance of the models results is mainly reduced due to the uncertainties in the material properties and the low number of available stress magnitude data records for calibration. In the third manuscript I investigate the phenomenon of injection induced temporal stress tensor rotation and its controlling factors. I conduct a sensitivity study with a 3D generic thermo-hydro-mechanical model. I show that the key control factors for the stress tensor rotation are the permeability as the decisive factor, the injection rate, and the initial differential stress. In particular for enhanced geothermal systems with a low permeability large rotations of the stress tensor are indicated. According to these findings the estimation of the initial differential stress in a reservoir is possible provided the permeability is known and the angle of stress rotation is observed. I propose that the stress tensor rotations can be a key factor in terms of the potential for induced seismicity on pre-existing faults due to the reorientation of the stress field that changes the optimal orientation of faults. N2 - Kenntnis des derzeitigen in-situ Spannungszustandes der Erdkruste ist essenziell für geotechnische Anwendungen und seismische Gefährdungsabschätzungen, welche auf physikalischen Beobachtungen basieren. Jedoch sind die Spannungsinformationen jedes Datenpunktes unvollständig und die Menge an vorhandenen Datenpunkten ist normalerweise nicht groß genug, um schlüssige Ergebnisse zu erzielen. Daher ist eine eingehende Untersuchung des in-situ Spannungsfeldes, welche durch 3D geomechanisch-numerische Modellierung geleistet wird, erforderlich. Jedoch ist die räumliche Auflösung der Modelle begrenzt und der resultierende Spannungszustand ist großen Unsicherheiten unterworfen, welche die Aussagekraft der Ergebnisse beschränken. Zusätzlich gibt es zeitliche Änderungen des Spannungsfeldes, welche durch natürliche Prozesse bedingt oder menschengemacht sind. In meiner Dissertation behandle ich diese Herausforderungen in drei Manuskripten, welche (1) die Orientierung des derzeitigen Spannungszustandes, (2) die 3D geomechanisch-numerische Modellierung des in-situ Spannungszustandes und (3) das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors zum Thema haben. In dem ersten Manuskript präsentiere ich die erste umfassende Spannungsdatensammlung von Island mit insgesamt 495 Einträgen. Dafür habe ich Bilddatenlogs aus 57 Bohrlöchern in Island auf Indikatoren der maximalen horizontalen Spannungsorientierung hin untersucht. Diese Studie ist die erste ganzheitliche Spannungsuntersuchung, welche sich auf verschiedene Indikatoren der Spannungsorientierung stützt und in einem geologisch sehr jungen und tektonisch aktiven Gebiet auf einem Mittelozeanischen Rücken an Land liegt. Es zeigt sich, dass selbst sehr nahe an der Plattengrenze eine tiefenunabhängige, eindeutige Spannungsorientierung existiert. In dem zweiten Manuskript präsentiere ich einen kalibrierten 3D geomechanisch-numerischen Modellierungsansatz des in-situ Spannungszustandes des bayrischen Molassebeckens welches den regionalen (70x70x10km³) und den lokalen (10x10x10km³) Spannungszustand untersucht. Um diese zwei Modelle zu verbinden, habe ich ein mehrstufigen Modellansatz entworfen, welcher eine zuverlässige und effiziente Methode darstellt um Randbedingungen und Initialbedingungen für das kleinere Modell aus dem größeren Modell abzuleiten. Des Weiteren quantifiziere ich die Unsicherheiten in den Modellergebnissen, welche im Allgemeinen durch geomechanisch-numerische Modellierung und im Speziellen durch den Mehrstufenansatz entstehen. Ich zeige, dass die Signifikanz der Modellergebnisse hauptsächlich durch die Unsicherheiten in den Materialeigenschaften sowie der geringen Anzahl vorhandener Spannungsmagnitudendaten zur Kalibrierung reduziert wird. In dem dritten Manuskript untersuche ich das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors und deren kontrollierende Parameter. Ich führe eine Sensitivitätsanalyse mit einem generischen 3D thermo-hydro-mechanischen Modell durch. Darin zeige ich, dass die Schlüsselparameter, welche die Rotationen des Spannungstensors kontrollieren, die Permeabilität des Reservoirgesteins als der entscheidende Faktor, die Injektionsrate und die initiale Differenzspannung sind. Insbesondere für geothermische Systeme nach dem Hot-Dry-Rock-Verfahren mit einer geringen Permeabilität weisen die Ergebnisse auf große Rotationen des Spannungstensors hin. Gemäß diesen Ergebnissen kann die initiale Differenzspannung in einem Reservoir abgeschätzt werden, sollte die Permeabilität bekannt sein und der Winkel der Spannungsrotation beobachtet werden. Ich schlage vor, dass Spannungsrotationen ein Schlüsselfaktor in Bezug auf das Potenzial für induzierte Seismizität sind, welche auf prä-existierenden Störungen entsteht, die durch die Reorientierung des Spannungsfeldes optimal orientiert werden. KW - stress KW - stress changes KW - induced seismicity KW - geothermal KW - geomechanical modelling KW - Spannung KW - Spannungsänderungen KW - induzierte Seismizität KW - Geothermie KW - geomechanische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403838 ER - TY - THES A1 - Zieger, Tobias T1 - Self-adaptive data quality BT - automating duplicate detection N2 - Carrying out business processes successfully is closely linked to the quality of the data inventory in an organization. Lacks in data quality lead to problems: Incorrect address data prevents (timely) shipments to customers. Erroneous orders lead to returns and thus to unnecessary effort. Wrong pricing forces companies to miss out on revenues or to impair customer satisfaction. If orders or customer records cannot be retrieved, complaint management takes longer. Due to erroneous inventories, too few or too much supplies might be reordered. A special problem with data quality and the reason for many of the issues mentioned above are duplicates in databases. Duplicates are different representations of same real-world objects in a dataset. However, these representations differ from each other and are for that reason hard to match by a computer. Moreover, the number of required comparisons to find those duplicates grows with the square of the dataset size. To cleanse the data, these duplicates must be detected and removed. Duplicate detection is a very laborious process. To achieve satisfactory results, appropriate software must be created and configured (similarity measures, partitioning keys, thresholds, etc.). Both requires much manual effort and experience. This thesis addresses automation of parameter selection for duplicate detection and presents several novel approaches that eliminate the need for human experience in parts of the duplicate detection process. A pre-processing step is introduced that analyzes the datasets in question and classifies their attributes semantically. Not only do these annotations help understanding the respective datasets, but they also facilitate subsequent steps, for example, by selecting appropriate similarity measures or normalizing the data upfront. This approach works without schema information. Following that, we show a partitioning technique that strongly reduces the number of pair comparisons for the duplicate detection process. The approach automatically finds particularly suitable partitioning keys that simultaneously allow for effective and efficient duplicate retrieval. By means of a user study, we demonstrate that this technique finds partitioning keys that outperform expert suggestions and additionally does not need manual configuration. Furthermore, this approach can be applied independently of the attribute types. To measure the success of a duplicate detection process and to execute the described partitioning approach, a gold standard is required that provides information about the actual duplicates in a training dataset. This thesis presents a technique that uses existing duplicate detection results and crowdsourcing to create a near gold standard that can be used for the purposes above. Another part of the thesis describes and evaluates strategies how to reduce these crowdsourcing costs and to achieve a consensus with less effort. N2 - Die erfolgreiche Ausführung von Geschäftsprozessen ist eng an die Datenqualität der Datenbestände in einer Organisation geknüpft. Bestehen Mängel in der Datenqualität, kann es zu Problemen kommen: Unkorrekte Adressdaten verhindern, dass Kunden (rechtzeitig) beliefert werden. Fehlerhafte Bestellungen führen zu Reklamationen und somit zu unnötigem Aufwand. Falsche Preisauszeichnungen zwingen Unternehmen, auf Einnahmen zu verzichten oder gefährden die Kundenzufriedenheit. Können Bestellungen oder Kundendaten nicht gefunden werden, verlängert sich die Abarbeitung von Beschwerden. Durch fehlerhafte Inventarisierung wird zu wenig oder zu viel Nachschub bestellt. Ein spezielles Datenqualitätsproblem und der Grund für viele der genannten Datenqualitätsprobleme sind Duplikate in Datenbanken. Duplikate sind verschiedene Repräsentationen derselben Realweltobjekte im Datenbestand. Allerdings unterscheiden sich diese Repräsentationen voneinander und sind so für den Computer nur schwer als zusammengehörig zu erkennen. Außerdem wächst die Anzahl der zur Aufdeckung der Duplikate benötigten Vergleiche quadratisch mit der Datensatzgröße. Zum Zwecke der Datenreinigung müssen diese Duplikate erkannt und beseitigt werden. Diese Duplikaterkennung ist ein sehr aufwändiger Prozess. Um gute Ergebnisse zu erzielen, ist die Erstellung von entsprechender Software und das Konfigurieren vieler Parameter (Ähnlichkeitsmaße, Partitionierungsschlüssel, Schwellwerte usw.) nötig. Beides erfordert viel manuellen Aufwand und Erfahrung. Diese Dissertation befasst sich mit dem Automatisieren der Parameterwahl für die Duplikaterkennung und stellt verschiedene neuartige Verfahren vor, durch die Teile des Duplikaterkennungsprozesses ohne menschliche Erfahrung gestaltet werden können. Es wird ein Vorverarbeitungsschritt vorgestellt, der die betreffenden Datensätze analysiert und deren Attribute automatisch semantisch klassifiziert. Durch diese Annotationen wird nicht nur das Verständnis des Datensatzes verbessert, sondern es werden darüber hinaus die folgenden Schritte erleichtert, zum Beispiel können so geeignete Ähnlichkeitsmaße ausgewählt oder die Daten normalisiert werden. Dabei kommt der Ansatz ohne Schemainformationen aus. Anschließend wird ein Partitionierungsverfahren gezeigt, das die Anzahl der für die Duplikaterkennung benötigten Vergleiche stark reduziert. Das Verfahren findet automatisch besonders geeignete Partitionierungsschlüssel, die eine gleichzeitig effektive und effiziente Duplikatsuche ermöglichen. Anhand einer Nutzerstudie wird gezeigt, dass die so gefundenen Partitionierungsschlüssel Expertenvorschlägen überlegen sind und zudem keine menschliche Konfiguration benötigen. Außerdem lässt sich das Verfahren unabhängig von den Attributtypen anwenden. Zum Messen des Erfolges eines Duplikaterkennungsverfahrens und für das zuvor beschriebene Partitionierungsverfahren ist ein Goldstandard nötig, der Auskunft über die zu findenden Duplikate gibt. Die Dissertation stellt ein Verfahren vor, das anhand mehrerer vorhandener Duplikaterkennungsergebnisse und dem Einsatz von Crowdsourcing einen Nahezu-Goldstandard erzeugt, der für die beschriebenen Zwecke eingesetzt werden kann. Ein weiterer Teil der Arbeit beschreibt und evaluiert Strategien, wie die Kosten dieses Crowdsourcingeinsatzes reduziert werden können und mit geringerem Aufwand ein Konsens erreicht wird. KW - data quality KW - Datenqualität KW - Duplikaterkennung KW - duplicate detection KW - Machine Learning KW - Information Retrieval KW - Automatisierung KW - automation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410573 ER - TY - THES A1 - Zhou, Bin T1 - On the assessment of surface urban heat island T1 - Bewertung des urbanen Hitzeinseleffekts BT - size, urban form, and seasonality BT - Stadtgröße, Stadtform, und Seasonalität N2 - Inwiefern Städte unter den Megatrends der Urbanisierung und des Klimawandels nachhaltig gestaltet werden können, bleibt umstritten. Dies ist zum Teil auf unzureichende Kenntnisse der Mensch-Umwelt-Interaktionen zurückzuführen. Als die am vollständigsten dokumentierte anthropogene Klimamodifikation ruft der Urbane Hitzeinsel (UHI) Effekt weltweit Sorgen hinsichtlich der Gesundheit der Bevölkerung hervor. Dazu kommt noch ein immer häufigeres und intensiveres Auftreten von Hitzewellen, wodurch das Wohlbefinden der Stadtbewohner weiter beeinträchtigt wird. Trotz eines deutlichen Anstiegs der Zahl der UHI-bezogenen Veröffentlichungen in den letzten Jahrzehnten haben die unterschiedlichen Definitionen von städtischen und ländlichen Gebieten in bisherigen Studien die allgemeine Vergleichbarkeit der Resultate stark erschwert. Darüber hinaus haben nur wenige Studien den UHI-Effekt und seine Einflussfaktoren anhand einer Kombination der Landnutzungsdaten und der thermischen Fernerkundung systematisch untersucht. Diese Arbeit stellt einen allgemeinen Rahmen zur Quantifizierung von UHI-Intensitäten mittels eines automatisierten Algorithmus vor, wobei Städte als Agglomerationen maximal räumlicher Kontinuität basierend auf Landnutzungsdaten identifiziert, sowie deren ländliche Umfelder analog definiert werden. Durch Verknüpfung der Landnutzungsdaten mit Landoberflächentemperaturen von Satelliten kann die UHI-Intensität robust und konsistent berechnet werden. Anhand dieser Innovation wurde nicht nur der Zusammenhang zwischen Stadtgröße und UHI-Intensität erneut untersucht, sondern auch die Auswirkungen der Stadtform auf die UHI-Intensität quantifiziert. Diese Arbeit leistet vielfältige Beiträge zum tieferen Verständnis des UHI-Phänomens. Erstens wurde eine log-lineare Beziehung zwischen UHI-Intensität und Stadtgröße unter Berücksichtigung der 5,000 europäischen Städte bestätigt. Werden kleinere Städte auch berücksichtigt, ergibt sich eine log-logistische Beziehung. Zweitens besteht ein komplexes Zusammenspiel zwischen der Stadtform und der UHI-Intensität: die Stadtgröße stellt den stärksten Einfluss auf die UHI-Intensität dar, gefolgt von der fraktalen Dimension und der Anisometrie. Allerdings zeigen ihre relativen Beiträge zur UHI-Intensität eine regionale Heterogenität, welche die Bedeutung räumlicher Muster während der Umsetzung von UHI-Anpassungsmaßnahmen hervorhebt. Des Weiteren ergibt sich eine neue Saisonalität der UHI-Intensität für individuelle Städte in Form von Hysteresekurven, die eine Phasenverschiebung zwischen den Zeitreihen der UHI-Intensität und der Hintergrundtemperatur andeutet. Diese Saisonalität wurde anhand von Luft- und Landoberflächentemperaturen untersucht, indem die Satellitenbeobachtung und die Modellierung der urbanen Grenzschicht mittels des UrbClim-Modells kombiniert wurden. Am Beispiel von London ist die Diskrepanz der Saisonalitäten zwischen den beiden Temperaturen vor allem auf die mit der einfallenden Sonnenstrahlung verbundene Besonderheit der Landoberflächentemperatur zurückzuführen. Darüber hinaus spielt das regionale Klima eine wichtige Rolle bei der Entwicklung der UHI. Diese Arbeit ist eine der ersten Studien dieser Art, die eine systematische und statistische Untersuchung des UHI-Effektes ermöglicht. Die Ergebnisse sind von besonderer Bedeutung für die allgemeine räumliche Planung und Regulierung auf Meso- und Makroebenen, damit sich Vorteile der rapiden Urbanisierung nutzbar machen und zeitgleich die folgende Hitzebelastung proaktiv vermindern lassen. N2 - To what extent cities can be made sustainable under the mega-trends of urbanization and climate change remains a matter of unresolved scientific debate. Our inability in answering this question lies partly in the deficient knowledge regarding pivotal humanenvironment interactions. Regarded as the most well documented anthropogenic climate modification, the urban heat island (UHI) effect – the warmth of urban areas relative to the rural hinterland – has raised great public health concerns globally. Worse still, heat waves are being observed and are projected to increase in both frequency and intensity, which further impairs the well-being of urban dwellers. Albeit with a substantial increase in the number of publications on UHI in the recent decades, the diverse urban-rural definitions applied in previous studies have remarkably hampered the general comparability of results achieved. In addition, few studies have attempted to synergize the land use data and thermal remote sensing to systematically assess UHI and its contributing factors. Given these research gaps, this work presents a general framework to systematically quantify the UHI effect based on an automated algorithm, whereby cities are defined as clusters of maximum spatial continuity on the basis of land use data, with their rural hinterland being defined analogously. By combining land use data with spatially explicit surface skin temperatures from satellites, the surface UHI intensity can be calculated in a consistent and robust manner. This facilitates monitoring, benchmarking, and categorizing UHI intensities for cities across scales. In light of this innovation, the relationship between city size and UHI intensity has been investigated, as well as the contributions of urban form indicators to the UHI intensity. This work delivers manifold contributions to the understanding of the UHI, which have complemented and advanced a number of previous studies. Firstly, a log-linear relationship between surface UHI intensity and city size has been confirmed among the 5,000 European cities. The relationship can be extended to a log-logistic one, when taking a wider range of small-sized cities into account. Secondly, this work reveals a complex interplay between UHI intensity and urban form. City size is found to have the strongest influence on the UHI intensity, followed by the fractality and the anisometry. However, their relative contributions to the surface UHI intensity depict a pronounced regional heterogeneity, indicating the importance of considering spatial patterns of UHI while implementing UHI adaptation measures. Lastly, this work presents a novel seasonality of the UHI intensity for individual clusters in the form of hysteresis-like curves, implying a phase shift between the time series of UHI intensity and background temperatures. Combining satellite observation and urban boundary layer simulation, the seasonal variations of UHI are assessed from both screen and skin levels. Taking London as an example, this work ascribes the discrepancies between the seasonality observed at different levels mainly to the peculiarities of surface skin temperatures associated with the incoming solar radiation. In addition, the efforts in classifying cities according to their UHI characteristics highlight the important role of regional climates in determining the UHI. This work serves as one of the first studies conducted to systematically and statistically scrutinize the UHI. The outcomes of this work are of particular relevance for the overall spatial planning and regulation at meso- and macro levels in order to harness the benefits of rapid urbanization, while proactively minimizing its ensuing thermal stress. KW - urban heat island effect KW - surface urban heat island effect KW - UHI KW - urban form KW - der Urbane Hitzeinsel Effekt KW - der Städtische Wärmeinseleffekt KW - der Urbane Hitzeinsel Effekt basierend auf Landoberflächentemperatur KW - UHI KW - die Stadtform Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404383 ER - TY - THES A1 - Zhang, Weiyi T1 - Functional Poly(ionic liquid) Materials based on Poly(1,2,4-triazolium)s Y1 - 2017 ER - TY - THES A1 - Zeng, Ting T1 - Nanoparticles promoted biocatalysis BT - Electrochemical investigation of human sulfite oxidase on nanoparticles modified electrodes Y1 - 2017 ER - TY - THES A1 - Zantke, Michael T1 - Bewaffnete Intellektuelle BT - Die Bedeutung Machiavellis für den Nationalsozialismus und die Konservative Revolution T2 - dis(s)kurs ; 2 N2 - Auf der Suche nach der geheimen Herrschaftslehre der Nazis begibt sich Michael Zantke in eine tiefe und umfassende Auseinandersetzung mit den geistigen Wurzeln des Nationalsozialismus. Er beleuchtet die Diskussionen in Deutschland um Machiavelli und überprüft die Texte auf ihren Bezug zur Gegenwart des Nationalsozialismus. Dabei gelingt es ihm, die politische Rolle der Intellektuellen im „Dritten Reich“ und die Unterschiede zwischen Nationalsozialismus, Faschismus und Konservativer Revolution herauszuarbeiten. Diese Nuancen sind nicht nur historisch bedeutungsvoll, sie sind auch für die heutige Diskussion über Rechtsnationalismus, Rechtsradikalismus und die Neue Rechte von Nutzen. KW - Politik Y1 - 2017 SN - 978-3-945878-47-7 PB - WeltTrends CY - Potsdam ER - TY - THES A1 - Zamirirad, Azadeh T1 - Intraelitäre Präferenzformationen in der iranischen Atompolitik BT - eine subsystemische Analyse der Nukleardiplomatie in der Islamischen Republik Iran (2003-2015) Y1 - 2017 ER - TY - THES A1 - You, Zewang T1 - Conformational transition of peptide-functionalized cryogels enabling shape-memory capability Y1 - 2017 ER - TY - THES A1 - Yang, Lei T1 - Verification of systemic mRNAs mobility and mobile functions Y1 - 2017 ER - TY - THES A1 - Wu, Si T1 - Exploring the Arabidopsis metabolic landscape by genetic mapping integrated with network analysis Y1 - 2017 ER - TY - THES A1 - Wolf, Julia T1 - Schadenserkennung in Beton durch Überwachung mit eingebetteten Ultraschallprüfköpfen T1 - Monitoring with embedded ultrasound sensors to detect damage in concrete N2 - Die zerstörungsfreien Prüfungen von Bauwerken mit Hilfe von Ultraschallmessverfahren haben in den letzten Jahren an Bedeutung gewonnen. Durch Ultraschallmessungen können die Geometrien von Bauteilen bestimmt sowie von außen nicht sichtbare Fehler wie Delaminationen und Kiesnester erkannt werden. Mit neuartigen, in das Betonbauteil eingebetteten Ultraschallprüfköpfen sollen nun Bauwerke dauerhaft auf Veränderungen überprüft werden. Dazu werden Ultraschallsignale direkt im Inneren eines Bauteils erzeugt, was die Möglichkeiten der herkömmlichen Methoden der Bauwerksüberwachung wesentlich erweitert. Ein Ultraschallverfahren könnte mit eingebetteten Prüfköpfen ein Betonbauteil kontinuierlich integral überwachen und damit auch stetig fortschreitende Gefügeänderungen, wie beispielsweise Mikrorisse, registrieren. Sicherheitsrelevante Bauteile, die nach dem Einbau für Messungen unzugänglich oder mittels Ultraschall, beispielsweise durch zusätzliche Beschichtungen der Oberfläche, nicht prüfbar sind, lassen sich mit eingebetteten Prüfköpfen überwachen. An bereits vorhandenen Bauwerken können die Ultraschallprüfköpfe mithilfe von Bohrlöchern und speziellem Verpressmörtel auch nachträglich in das Bauteil integriert werden. Für Fertigbauteile bieten sich eingebettete Prüfköpfe zur Herstellungskontrolle sowie zur Überwachung der Baudurchführung als Werkzeug der Qualitätssicherung an. Auch die schnelle Schadensanalyse eines Bauwerks nach Naturkatastrophen, wie beispielsweise einem Erdbeben oder einer Flut, ist denkbar. Durch die gute Ankopplung ermöglichen diese neuartigen Prüfköpfe den Einsatz von empfindlichen Auswertungsmethoden, wie die Kreuzkorrelation, die Coda-Wellen-Interferometrie oder die Amplitudenauswertung, für die Signalanalyse. Bei regelmäßigen Messungen können somit sich anbahnende Schäden eines Bauwerks frühzeitig erkannt werden. Da die Schädigung eines Bauwerks keine direkt messbare Größe darstellt, erfordert eine eindeutige Schadenserkennung in der Regel die Messung mehrerer physikalischer Größen die geeignet verknüpft werden. Physikalische Größen können sein: Ultraschalllaufzeit, Amplitude des Ultraschallsignals und Umgebungstemperatur. Dazu müssen Korrelationen zwischen dem Zustand des Bauwerks, den Umgebungsbedingungen und den Parametern des gemessenen Ultraschallsignals untersucht werden. In dieser Arbeit werden die neuartigen Prüfköpfe vorgestellt. Es wird beschrieben, dass sie sich, sowohl in bereits errichtete Betonbauwerke als auch in der Konstruktion befindliche, einbauen lassen. Experimentell wird gezeigt, dass die Prüfköpfe in mehreren Ebenen eingebettet sein können da ihre Abstrahlcharakteristik im Beton nahezu ungerichtet ist. Die Mittenfrequenz von rund 62 kHz ermöglicht Abstände, je nach Betonart und SRV, von mindestens 3 m zwischen Prüfköpfen die als Sender und Empfänger arbeiten. Die Empfindlichkeit der eingebetteten Prüfköpfe gegenüber Veränderungen im Beton wird an Hand von zwei Laborexperimenten gezeigt, einem Drei-Punkt-Biegeversuch und einem Versuch zur Erzeugung von Frost-Tau-Wechsel Schäden. Die Ergebnisse werden mit anderen zerstörungsfreien Prüfverfahren verglichen. Es zeigt sich, dass die Prüfköpfe durch die Anwendung empfindlicher Auswertemethoden, auftretende Risse im Beton detektieren, bevor diese eine Gefahr für das Bauwerk darstellen. Abschließend werden Beispiele von Installation der neuartigen Ultraschallprüfköpfe in realen Bauteilen, zwei Brücken und einem Fundament, gezeigt und basierend auf dort gewonnenen ersten Erfahrungen ein Konzept für die Umsetzung einer Langzeitüberwachung aufgestellt. N2 - The non-destructive testing of concrete structures with the ultrasound method has become increasingly important in recent years. With the ultrasound technique the geometry of concrete elements can be determined and defects can be detected which are not visible on the surface, such as delaminations and honeycombs. New ultrasound sensors were developed to monitor changes in concrete structures continuously and permanently. Those ultrasound sensors will be embedded into the concrete to transmit and receive ultrasound waves within the structure. This allows a new interpretation of the condition of a structure. The use of the embedded sensors expands the options of the traditional monitoring methods. The ultrasonic technique could monitor a voluminous part of a concrete structure continuously and integral with just a few strategically placed embedded ultrasound sensors and thus register small changes in the concretes texture. Vital parts of concrete structures which are inaccessible for the ultrasonic method after construction can be monitored with embedded sensors. Inaccessibility could be caused by a surface layered with a medium reflecting or absorbing the ultrasonic wave or by to much steel obstruct"-ing the waves path. The sensors can be embedded into existing structures using boreholes and grouting mortar or installed during construction and can thus serve as a tool for quality control. The quick damage evaluation of a construction after a natural disaster such as an earthquake or a flood, is conceivable as well. As the contact between the embedded sensors and the surrounding concrete is assumed as constant over a long time, highly sensitive signal evaluation tools, such as the cross correlation between signals, the Coda Wave Interferometry and the amplitude evaluation, can be used. Therefore, with regular measurements, damage in a construction can be detected at an early stage. But, the damage of a structure can not be measured directly. A distinct damage detection needs a quantity of measured parameters, such as time of flight and amplitude of the ultrasonic wave as well as temperature, which need to be linked to each other. To achieve this, correlations between the state of the concrete construction and those parameters of the measured ultrasonic signal must be investigated. In this work the newly developed ultrasound sensors are introduced. Their installation into a concrete structure is described. The sensors sensitivity to small changes in the concrete is investigated and compared to other Non Destructive Testing (NDT) methods. The highly sensitive signal evaluation tools proof to be particularly advantageous when using embedded sensors. Installations of embedded ultrasound sensors for long time monitoring of real constructions are presented. Based on the gained experience with those installations a concept is presented for the set up of a long time monitoring system. KW - Ultraschall KW - Beton KW - Überwachung KW - Prüfköpfe KW - Temperatur KW - Frost-Tau-Wechsel KW - Schaden KW - Riss KW - ultrasound KW - concrete KW - monitoring KW - sensors KW - temperature KW - Freeze-Thaw-Cycles KW - damage KW - crack Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397363 ER - TY - THES A1 - Woditschka, Andy T1 - Das Weisungsrecht der Bundesregierung im Verteidigungsfall nach Artikel 115f Abs. 1 Nr. 2 Grundgesetz T2 - Verfassungsrecht in Forschung und Praxis ; 128 N2 - Durch Art. 20 Abs. 1 des Grundgesetzes wird die Bundesrepublik Deutschland als demokratischer und sozialer Bundesstaat insbesondere dem Föderalismus verpflichtet. Er ist neben der Demokratie eine der Säulen unseres Staatswesens. Im Bewusstsein dieser Grundentscheidung unserer Verfassung fällt mit Art. 115f Abs. 1 Nr. 2 GG eine Vorschrift auf, die hiervon im Verteidigungsfall eine weitreichende Ausnahme zu ermöglichen scheint. Die Bundesregierung soll dann unter bestimmten Voraussetzungen außer der Bundesverwaltung auch den Landesregierungen und Landesbehörden Weisungen erteilen können. Es stellt sich in Anbetracht eines solchen Ausnahmerechts die Frage, wie sich dieses Weisungsrecht der Bundesregierung in unser Rechtssystem einfügt. Der Autor nähert sich dieser Frage zunächst über die geschichtlichen Hintergründe, die zur Einfügung der Vorschrift geführt haben. Er geht detailliert auf die Voraussetzungen dieses Weisungsrechts der Bundesregierung ein und stellt es in seinen systematischen Zusammenhang. Neben einer Darstellung des Weisungsbegriffs als Möglichkeit der Einflussnahme auf die Bundesverwaltung und die Länder, werden auch die damit umschriebenen Weisungsadressaten näher untersucht. Auch den Fragen, welchen Gegenstand Weisungen nach dieser Vorschrift haben können, wie sie zu erlassen sind und welche Wirkungen sich aus ihnen ergeben, wird in der Untersuchung detailreich nachgegangen. Daneben behandelt der Autor die sich daraus ergebenden Anschlussfragen, welcher Rechtsschutz gegen derartige Weisungen besteht, wer damit verbundene Aufgaben zu finanzieren hat und wer für eventuelle Schäden zu haften hat. Das Werk schließt mit einer Erörterung, ob es sich bei dieser Vorschrift um eine verfassungswidrige Verfassungsnorm handelt, und einem Blick auf internationale Vorschriften, die Einfluss auf das Weisungsrecht nehmen könnten. Y1 - 2017 SN - 978-3-8300-9406-7 PB - Kovac CY - Hamburg ER - TY - THES A1 - Witzke, Juliane T1 - Paratext – Literaturkritik – Markt BT - Inszenierungspraktiken der Gegenwart am Beispiel Judith Hermanns N2 - Bei der Autorin Judith Hermann handelt es sich um eine sehr resonanzträchtige Autorin, der in der Vergangenheit eine phänomenale Aufmerksamkeit zuteil wurde und die es schaffte, sich erfolgreich auf dem Marktplatz Literatur zu positionieren und zur Bestsellerautorin zu avancieren. Die vorliegende Studie verfolgt das Ziel, der Marke Judith Hermann auf die Spur zu kommen und die höchst unterschiedlichen Facetten der Erfolgsgeschichte zu rekonstruieren. Juliane Witzke analysiert dazu detailliert die peri- und epitextuellen Praktiken der Jahre 1998 bis 2014 und bezieht sich dabei auf die Paratexte der ersten vier Werke der Autorin. Ergänzt werden diese Begleittexte durch eine Analyse der Bild- und Tondokumente sowie der Buchpreisverleihungen. Die grundlegende Frage lautet: Wie ist der Wandel der Inszenierungspraktiken gestaltet? Des Weiteren gibt die Arbeit – anhand von 100 Büchern der Gegenwart – Aufschluss über Strategien der Lektürelenkung der letzten 16 Jahre. Y1 - 2017 SN - 978-3-8260-5981-0 ER - TY - THES A1 - Wittenbecher, Clemens T1 - Linking whole-grain bread, coffee, and red meat to the risk of type 2 diabetes T1 - Der Einfluss von Vollkornbrot, Kaffee, und rotem Fleisch auf das Typ 2 Diabetesrisiko BT - using metabolomics networks to infer potential biological mechanisms BT - Verwendung von Metabolomics-Netzwerken, um auf biologische Mechanismen zu schließen N2 - Background: Consumption of whole-grain, coffee, and red meat were consistently related to the risk of developing type 2 diabetes in prospective cohort studies, but potentially underlying biological mechanisms are not well understood. Metabolomics profiles were shown to be sensitive to these dietary exposures, and at the same time to be informative with respect to the risk of type 2 diabetes. Moreover, graphical network-models were demonstrated to reflect the biological processes underlying high-dimensional metabolomics profiles. Aim: The aim of this study was to infer hypotheses on the biological mechanisms that link consumption of whole-grain bread, coffee, and red meat, respectively, to the risk of developing type 2 diabetes. More specifically, it was aimed to consider network models of amino acid and lipid profiles as potential mediators of these risk-relations. Study population: Analyses were conducted in the prospective EPIC-Potsdam cohort (n = 27,548), applying a nested case-cohort design (n = 2731, including 692 incident diabetes cases). Habitual diet was assessed with validated semiquantitative food-frequency questionnaires. Concentrations of 126 metabolites (acylcarnitines, phosphatidylcholines, sphingomyelins, amino acids) were determined in baseline-serum samples. Incident type 2 diabetes cases were assed and validated in an active follow-up procedure. The median follow-up time was 6.6 years. Analytical design: The methodological approach was conceptually based on counterfactual causal inference theory. Observations on the network-encoded conditional independence structure restricted the space of possible causal explanations of observed metabolomics-data patterns. Given basic directionality assumptions (diet affects metabolism; metabolism affects future diabetes incidence), adjustment for a subset of direct neighbours was sufficient to consistently estimate network-independent direct effects. Further model-specification, however, was limited due to missing directionality information on the links between metabolites. Therefore, a multi-model approach was applied to infer the bounds of possible direct effects. All metabolite-exposure links and metabolite-outcome links, respectively, were classified into one of three categories: direct effect, ambiguous (some models indicated an effect others not), and no-effect. Cross-sectional and longitudinal relations were evaluated in multivariable-adjusted linear regression and Cox proportional hazard regression models, respectively. Models were comprehensively adjusted for age, sex, body mass index, prevalence of hypertension, dietary and lifestyle factors, and medication. Results: Consumption of whole-grain bread was related to lower levels of several lipid metabolites with saturated and monounsaturated fatty acids. Coffee was related to lower aromatic and branched-chain amino acids, and had potential effects on the fatty acid profile within lipid classes. Red meat was linked to lower glycine levels and was related to higher circulating concentrations of branched-chain amino acids. In addition, potential marked effects of red meat consumption on the fatty acid composition within the investigated lipid classes were identified. Moreover, potential beneficial and adverse direct effects of metabolites on type 2 diabetes risk were detected. Aromatic amino acids and lipid metabolites with even-chain saturated (C14-C18) and with specific polyunsaturated fatty acids had adverse effects on type 2 diabetes risk. Glycine, glutamine, and lipid metabolites with monounsaturated fatty acids and with other species of polyunsaturated fatty acids were classified as having direct beneficial effects on type 2 diabetes risk. Potential mediators of the diet-diabetes links were identified by graphically overlaying this information in network models. Mediation analyses revealed that effects on lipid metabolites could potentially explain about one fourth of the whole-grain bread effect on type 2 diabetes risk; and that effects of coffee and red meat consumption on amino acid and lipid profiles could potentially explain about two thirds of the altered type 2 diabetes risk linked to these dietary exposures. Conclusion: An algorithm was developed that is capable to integrate single external variables (continuous exposures, survival time) and high-dimensional metabolomics-data in a joint graphical model. Application to the EPIC-Potsdam cohort study revealed that the observed conditional independence patterns were consistent with the a priori mediation hypothesis: Early effects on lipid and amino acid metabolism had the potential to explain large parts of the link between three of the most widely discussed diabetes-related dietary exposures and the risk of developing type 2 diabetes. N2 - Hintergrund: Evidenz aus prospektiven Kohortenstudien belegt, dass der gewohnheitsmäßige Verzehr von Vollkorn, Kaffee und rotem Fleisch mit dem Risiko an Typ 2 Diabetes zu erkranken assoziiert ist. Dieser Risikobeziehung eventuell zugrunde liegende Mechanismen sind allerdings noch weitgehend unklar. Des Weiteren wurde gezeigt, dass Metabolitenprofile im Blut durch die oben genannten Ernährungs-expositionen beeinflusst werden und außerdem in Zusammenhang mit dem Typ 2 Diabetesrisiko stehen. Zusätzlich wurde beschrieben, dass grafische Netzwerkmodelle von Metabolitenprofilen die zugrunde liegenden Stoffwechselprozesse gut abbilden. Zielstellung: Das Ziel dieser Arbeit war es, Hypothesen bezüglich biologischer Mechanismen zu generieren, die die Assoziationen des Vollkornverzehrs, des Kaffeekonsums und des Fleischverzehrs mit dem Typ 2 Diabetesrisiko erklären könnten. Im speziellen sollten Aminosäure- und Lipidprofile als mögliche Mediatoren des Risikozusammenhangs untersucht werden. Studienpopulation: Analysen wurden auf Grundlage von Daten aus der prospektiven EPIC-Potsdam Kohortenstudie (n=27,548) durchgeführt, wobei ein Fall-Kohorten-Design verwendet wurde (n=2317, darunter 692 inzidente Typ 2 Diabetesfälle). Ernährungsgewohnheiten wurden mit einem validierten, semiquantitativen Verzehrshäufigkeitsfragebogen erfasst. Die Konzentrationen von 126 Metaboliten (Aminosäuren, Acylcarnitine, Sphingomyeline und Phosphatidylcholine) wurden zur Basiserhebung genommen Blutproben gemessen. Inzidente Typ 2 Diabetesfälle wurden im Rahmen einer aktiven Folgeerhebung detektiert und verifiziert. Die mediane Dauer des berücksichtigten prospektiven Erhebungszeitraums lag für diese Studie bei 6,6 Jahren. Aufbau der Analysen: Die theoretische Grundlage für den methodischen Ansatz dieser Arbeit bildete die kontrafaktische Theorie der Kausalinferenz. Die in Netzwerken kodierte konditionale Unabhängigkeitsstruktur wurde genutzt, um den Raum möglicher Modelle zu begrenzen, die die beobachteten Zusammenhänge zwischen den Metaboliten erklären könnten. Unter Annahme weniger grundlegender Effektrichtungen (von der Ernährung auf die Netzwerke gerichtete Effekte; von den Netzwerken auf das Diabetesrisiko gerichtete Effekte) genügt die Adjustierung für eine Teilmenge der direkten Nachbarn im Netzwerk, um netzwerkunabhängige direkte Effekte konsistent zu schätzen. Eine weitere Spezifizierung der Modelle war allerdings aufgrund fehlender Richtungsinformationen zu den Metaboliten-abhängigkeiten nicht möglich. Deshalb wurde ein Multi-Modellierungsansatz gewählt, um die Grenzen möglicher Effekte zu schlussfolgern. Alle möglichen Ernährungs-Metaboliten-Beziehungen und Metaboliten-Typ 2 Diabetesrisiko-Beziehungen wurden dadurch in eine der folgenden drei Kategorien klassifiziert: Direkter Effekt, Unklar, Kein Effekt. Querschnittsbeziehungen wurden in multivariabel adjustierten linearen Regressionsmodellen untersucht. Longitudinale Zusammenhänge wurden mit Cox-Regressionsmodellen geschätzt. Alle Modelle wurden für Alter, Geschlecht, Body-Mass-Index, prävalente Hypertonie, Ernährungs- und Lebensstilfaktoren und die Einnahme von Medikamenten adjustiert. Ergebnisse: Der Verzehr von Vollkornbrot stand im Zusammenhang mit niedrigeren Konzentrationen gesättigter und einfach ungesättigter Fettsäuren. Kaffee stand in Beziehung zu niedrigeren Konzentrationen verzweigtkettiger und aromatischer Aminosäuren und hatte potentielle Effekte auf das Fettsäureprofil in den Lipidmetaboliten. Rotes Fleisch zeigte einen Zusammenhang mit niedrigeren Glyzinspiegeln und mit höheren Konzentrationen verzweigtkettiger Aminosäuren. Außerdem stand das Fettsäureprofil in den verschieden Gruppen von Lipidmetaboliten in Zusammenhang mit dem Fleischverzehr. Des Weiteren wurden potentielle Effekte der Metabolite auf das Typ 2 Diabetesrisiko gefunden. Aromatische Aminosäuren und Lipidmetabolite mit geradzahligen, gesättigten (C14-C16) und mit spezifischen mehrfach ungesättigten Fettsäureseitenketten standen mit einem erhöhten Typ 2 Diabetesrisiko in Beziehung. Glyzin, Glutamin und Lipidmetabolite mit einfach ungesättigten und anderen mehrfach ungesättigten Fettsäureseitenketten zeigten einen günstigen Zusammenhang mit dem Diabetesrisiko. Mögliche Mediatoren der Beziehung der Ernährungsexpositionen wurden identifiziert, indem diese Informationen in gemeinsamen grafischen Modellen integriert wurden. Mediationsanalysen zeigten, dass die möglichen Effekte von Vollkornverzehr auf die Lipidmetabolite ungefähr ein Viertel des günstigen Einflusses von Vollkornverzehr auf das Diabetesrisikos erklären könnten. Die möglichen Effekte von Kaffeekonsum und von Fleischverzehr auf Aminosäuren und Lipidmetabolite könnten jeweils ungefähr zwei Drittel der Zusammenhänge mit dem Diabetesrisiko erklären. Schlussfolgerung: Grundlage für die Ergebnisse dieser Arbeit war die Entwicklung eines Algorithmus, der externe Faktoren (kontinuierlich Expositionsvariablen, Ereigniszeit-Daten) und hochdimensionale Metabolitenprofile in einem gemeinsamen grafischen Modell integriert. Die Anwendung dieses Algorithmus auf Daten aus der EPIC-Potsdam Kohortenstudie hat gezeigt, dass die beobachteten konditionalen Unabhängigkeitsstrukturen mit der a priori Mediationshypothese konsistent waren. Der frühe Einfluss auf den Aminosäure- und Lipidstoffwechsel könnte die beobachteten Zusammenhänge zwischen drei wichtigen Ernährungsfaktoren und dem Risiko an Typ 2 Diabetes zu erkranken zu großen Teilen erklären. KW - type 2 diabetes KW - nutrition KW - lipid metabolism KW - metabolomics KW - epidemiology KW - networks KW - graphical models KW - mediation analysis KW - red meat KW - whole-grain KW - Diabetes mellitus Typ 2 KW - Ernährung KW - Fettstoffwechsel KW - Metabolomics KW - Epidemiologie KW - Netzwerke KW - grafische Modelle KW - Mediationsanalyse KW - rotes Fleisch KW - Vollkorn KW - Kaffee KW - coffee Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404592 ER - TY - THES A1 - Witt, Barbara T1 - Toxicological characterization of lipid-soluble arsenic species in human brain cells Y1 - 2017 ER -