TY - THES A1 - Sotiropoulou, Stavroula T1 - Pleiotropy of phonetic indices in the expression of syllabic organization N2 - This dissertation is concerned with the relation between qualitative phonological organization in the form of syllabic structure and continuous phonetics, that is, the spatial and temporal dimensions of vocal tract action that express syllabic structure. The main claim of the dissertation is twofold. First, we argue that syllabic organization exerts multiple effects on the spatio-temporal properties of the segments that partake in that organization. That is, there is no unique or privileged exponent of syllabic organization. Rather, syllabic organization is expressed in a pleiotropy of phonetic indices. Second, we claim that a better understanding of the relation between qualitative phonological organization and continuous phonetics is reached when one considers how the string of segments (over which the nature of the phonological organization is assessed) responds to perturbations (scaling of phonetic variables) of localized properties (such as durations) within that string. Specifically, variation in phonetic variables and more specifically prosodic variation is a crucial key to understanding the nature of the link between (phonological) syllabic organization and the phonetic spatio-temporal manifestation of that organization. The effects of prosodic variation on segmental properties and on the overlap between the segments, we argue, offer the right pathway to discover patterns related to syllabic organization. In our approach, to uncover evidence for global organization, the sequence of segments partaking in that organization as well as properties of these segments or their relations with one another must be somehow locally varied. The consequences of such variation on the rest of the sequence can then be used to unveil the span of organization. When local perturbations to segments or relations between adjacent segments have effects that ripple through the rest of the sequence, this is evidence that organization is global. If instead local perturbations stay local with no consequences for the rest of the whole, this indicates that organization is local. N2 - Die vorliegende Dissertation befasst sich mit dem Verhältnis zwischen qualitativer Phonologie im Sinne silbischer Struktur und kontinuierlicher Phonetik im Sinne raum- und zeitbezogener Eigenschaften artikulatorischer Bewegungen, welche ebendiese Struktur ausdrücken. Die Dissertation stellt zwei Hauptthesen auf: Erstens behaupten wir, dass silbische Struktur verschiedene Auswirkungen auf die räumlichen und zeitlichen Eigenschaften der beteiligten Segmente hat. Das heißt, dass es keinen einzelnen ausgezeichneten Indikator für die silbische Struktur gibt, vielmehr muss diese durch mehrere verschiedene phonetischen Indexe beschrieben werden. Zweitens behaupten wir, dass man ein besseres Verständnis über den Zusammenhang von qualitativer phonologischer Struktur und kontinuierlicher Phonetik erhält, wenn man berücksichtigt, wie Abfolgen von Segmenten, welche die phonologische Struktur bestimmen, auf Perturbationen von lokalen phonetischen Eigenschaften reagieren. Die Variabilität phonetischer und insbesondere prosodischer Parameter spielt hierbei eine wesentliche Rolle. Wir behaupten, dass die Effekte prosodischer Variation der Eigenschaften einzelner Segmente und deren Überlappung einen geeigneten Weg zur Aufklärung silbisch-struktureller Muster aufzeigen. Wenn man Hinweise auf eine globale silbische Struktur herausarbeiten möchte, müssen folglich sowohl die Abfolge als auch die lokalen Eigenschaften der beteiligten Segmente variiert werden. Auswirkungen der Variationen können dann Auskunft über der Art und Gestalt der silbischen Struktur geben. Wenn lokale Perturbationen von Segmenten oder von Relationen zwischen benachbarten Segmenten die restliche Sequenz beeinflussen, ist dies als Hinweis auf eine globale Organisation zu bewerten. Wenn lokale Perturbationen hingegen lokal verbleiben ohne die restliche Sequenz zu beeinflussen, ist dies als Hinweis auf eine lokale Organisation zu bewerten. KW - Syllabic organization KW - inter-segmental coordination KW - obstruent-liquid clusters KW - prosodic modulation KW - compensatory effects KW - silbische Struktur KW - kompensatorischer Effekt KW - Koordination zwischen Segmenten KW - Obstruent-Liquide Konsonantencluster KW - prosodische Variation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546399 ER - TY - THES A1 - Ruschel, Matthias T1 - Das Preußische Erbrecht in der Judikatur des Berliner Obertribunals in den Jahren 1836 bis 1865 T1 - The Prussian inheritance law in the Jurisprudence of the Prussian Supreme Court in Berlin during the years from 1836 to 1865 N2 - Die Dissertation befasst sich mit dem Allgemeinen Preußischen Landrecht von 1794 und der hierzu ergangenen Rechtsprechung des Berliner Obertribunals. Im Fokus der Untersuchung stehen die erbrechtlichen Regelungen des Landrechts und deren Anwendung sowie Auslegung in der Judikatur des höchsten preußischen Gerichts. Der Forschungsgegenstand ergibt sich aus dem im Landrecht kodifizierten speziellen Gesetzesverständnisses. Nach diesem sollte die Gesetzesauslegung durch die Rechtsprechung auf ein Minimum, nämlich die Auslegung allein anhand des Wortlauts der Regelung reduziert werden, um dem absolutistischen Regierungsanspruch der preußischen Monarchen, namentlich Friedrich des Großen, hinreichend Rechnung zu tragen. In diesem Kontext wird der Frage nachgegangen, inwieweit das preußische Obertribunal das im Landrecht statuierte „Auslegungsverbot“ beachtet hat und in welchen Fällen sich das Gericht von der Vorgabe emanzipierte und weitere Auslegungsmethoden anwendete und sich so eine unabhängige Rechtsprechung entwickeln konnte. Die Arbeit gliedert sich in drei Hauptabschnitte. Im Anschluss an die Einleitung, in der zunächst die rechtshistorische Bedeutung des Landrechts und des Erbrechts sowie der Untersuchungsgegenstand umrissen werden, folgt die Darstellung der Entstehungsgeschichte des Landrechts und des Berliner Obertribunals. Hieran schließt sich in einem dritten Abschnitt eine Analyse der erbrechtlichen Vorschriften des Landrechts an. In dieser wird auf die Entstehungsgeschichte der verschiedenen erbrechtlichen Institute wie beispielsweise der gesetzlichen und gewillkürten Erbfolge, dem Pflichtteilsrecht etc., unter Berücksichtigung des zeitgenössischen wissenschaftlichen Diskurses eingegangen. Im vierten Abschnitt geht es um die Judikate des Berliner Obertribunals aus den Jahren 1836-1865 in denen die zuvor dargestellten erbrechtlichen Regelungen entscheidungserheblich waren. Dabei wird der Forschungsfrage, inwieweit das Obertribunal das im Landrecht statuierte Auslegungsverbot beachtet hat und in welchen Fällen es von diesem abwich bzw. weitere Auslegungsmethoden anwendete, konkret nachgegangen wird. Insgesamt werden 26 Entscheidungen des Obertribunals unter dem Aspekt der Auslegungspraxis, der Kontinuität und der Beschleunigung der Rechtsprechung analysiert und ausgewertet. N2 - The thesis deals with the General Prussian Codex of 1794 and the related jurisprudence of the Prussian Supreme Court in Berlin. The spotlight of the investigation are the inheritance regulations of the prussian law and their application and interpretation in the judicature of the Prussian Supreme Court in Berlin. The subject of research results from the special understanding of the rule of law in the General Prussian Codex of 1794. According to this, the interpretation of the law by the jurisprudence should be reduced to a minimum, namely the interpretation solely on the basis of the wording of the regulation, in order to take sufficient account of the absolutist claim to government of the Prussian monarchs, namely Frederick the Great. In this context, the question of the extent to which the Prussian Supreme Court in Berlin observed the "prohibition of interpretation" stipulated in the General Prussian Codex of 1794 and in which cases the court emancipated itself from the requirement and applied further methods of interpretation and thus an independent judiciary was able to develop. The thesis is divided into three main sections. Following the introduction, in which the legal historical significance of the General Prussian Codex of 1794 and inheritance law as well as the subject of investigation are outlined, the history of the development of land law and the the Prussian Supreme Court in Berlin follows. This is followed by a third section with includes an analysis of the inheritance law provisions and rules in the General Prussian Codex of 1794. In this, the history of the origins of the various institutes of inheritance law, such as the legal and voluntary succession, the last will, the compulsory portion, etc., taking into account the contemporary scientific discourse, is dealt with. The fourth chapter deals with the judgments of the Prussian Supreme Court in Berlin from the years of 1836-1865 in which the previously described inheritance regulations were relevant to the decision. The research question of the extent to which the Prussian Supreme Court in Berlin has observed the “prohibition of interpretation stipulated in the General Prussian Codex of 1794 and in which cases it deviated from this or used other methods of interpretation of the law is specifically investigated. A total of 26 decisions of the higher tribunal are analyzed and evaluated under the aspect of interpretation practice, continuity and the acceleration of case law. KW - Erbrecht KW - Preußisches Erbrecht KW - Berliner Obertribunal KW - Allgemeine Landrecht für die Preußischen Staaten von 1794 KW - Inheritance law KW - Jurisprudence KW - Prussian Suprime Court KW - European Codex KW - last will KW - Prussian Codex of 1794 KW - Prussian Law Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-527798 ER - TY - THES A1 - Döring, Matthias T1 - The public encounter T1 - Dynamiken von Bürger-Staat-Interaktionen BT - dynamics of citizen-state interactions N2 - This thesis puts the citizen-state interaction at its center. Building on a comprehensive model incorporating various perspectives on this interaction, I derive selected research gaps. The three articles, comprising this thesis, tackle these gaps. A focal role plays the citizens’ administrative literacy, the relevant competences and knowledge necessary to successfully interact with public organizations. The first article elaborates on the different dimensions of administrative literacy and develops a survey instrument to assess these. The second study shows that public employees change their behavior according to the competences that citizens display during public encounters. They treat citizens preferentially that are well prepared and able to persuade them of their application’s potential. Thereby, they signal a higher success potential for bureaucratic success criteria which leads to the employees’ cream-skimming behavior. The third article examines the dynamics of employees’ communication strategies when recovering from a service failure. The study finds that different explanation strategies yield different effects on the client’s frustration. While accepting the responsibility and explaining the reasons for a failure alleviates the frustration and anger, refusing the responsibility leads to no or even reinforcing effects on the client’s frustration. The results emphasize the different dynamics that characterize the nature of citizen-state interactions and how they establish their short- and long-term outcomes. N2 - Die vorliegende Arbeit setzt sich mit der direkten Interaktion zwischen BürgerInnen und Verwaltungen auseinander. Auf Basis eines umfassenden Modells, das verschiedene Perspektiven auf die Dynamiken dieser “public encounter” beschreibt, werden ausgewählte Forschungslücken hervorgehoben. Die drei Artikel, die diese Dissertation konstituieren, fokussieren diese Lücken. Dabei spielt die Frage nach den notwendigen Kompetenzen von BürgerInnen, die es ermöglichen, erfolgreich und auf Augenhöhe mit Verwaltungen interagieren zu können, eine wichtige Rolle. Die Relevanz verschiedener Dimensionen wird herausgearbeitet und mit Hilfe eines Survey-Instruments validiert. In einer weiteren Studie zeigt sich, dass VerwaltungsmitarbeiterInnen BürgerInnen bevorzugen, die dank dieser Kompetenzen besser auf Interaktionen vorbereitet sind. Aufgrund der besseren Vorbereitung sowie der Fähigkeit, ihr Gegenüber vom Nutzen des Antrags zu überzeugen, gelingt es BürgerInnen mit einer hohen Kompetenz, eine höhere Erfolgswahrscheinlichkeit im Sinne der organisationalen Ziele zu signalisieren. Der dritte Artikel beleuchtet die Dynamik der Kommunikationsstrategien von MitarbeiterInnen im Falle von Fehlern bei der Erbringung von Dienstleistungen. Die Studie stellt heraus, dass verschiedene Kommunikationsstrategien zur Wiedergutmachung von Fehlern unterschiedliche Effekte auf das Frustrationsniveau der KlientInnen haben. Hierbei zeigt sich, dass die bewusste Übernahme von Verantwortung sowie die Erläuterung der Ursachen des Fehlers die Frustration senken, während das Abwälzen der Verantwortung keinen bzw. sogar einen verstärkenden Effekt auf die Frustration hat. Die Ergebnisse verdeutlichen die Dynamiken, die bei der Interaktion zwischen BürgerInnen und Verwaltungen entstehen und für das kurz- und langfristige Ergebnis dieser Interaktionen maßgeblich sein können. KW - administrative literacy KW - behavioral public administration KW - citizen-state interactions KW - Verwaltungskompetenz KW - Behavioralistische Verwaltungswissenschaft KW - Bürger-Staat-Interaktionen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-502276 ER - TY - THES A1 - Gong, Chen Chris T1 - Synchronization of coupled phase oscillators BT - theory and modelling BT - Theorie und Modellierung N2 - Oscillatory systems under weak coupling can be described by the Kuramoto model of phase oscillators. Kuramoto phase oscillators have diverse applications ranging from phenomena such as communication between neurons and collective influences of political opinions, to engineered systems such as Josephson Junctions and synchronized electric power grids. This thesis includes the author's contribution to the theoretical framework of coupled Kuramoto oscillators and to the understanding of non-trivial N-body dynamical systems via their reduced mean-field dynamics. The main content of this thesis is composed of four parts. First, a partially integrable theory of globally coupled identical Kuramoto oscillators is extended to include pure higher-mode coupling. The extended theory is then applied to a non-trivial higher-mode coupled model, which has been found to exhibit asymmetric clustering. Using the developed theory, we could predict a number of features of the asymmetric clustering with only information of the initial state provided. The second part consists of an iterated discrete-map approach to simulate phase dynamics. The proposed map --- a Moebius map --- not only provides fast computation of phase synchronization, it also precisely reflects the underlying group structure of the dynamics. We then compare the iterated-map dynamics and various analogous continuous-time dynamics. We are able to replicate known phenomena such as the synchronization transition of the Kuramoto-Sakaguchi model of oscillators with distributed natural frequencies, and chimera states for identical oscillators under non-local coupling. The third part entails a particular model of repulsively coupled identical Kuramoto-Sakaguchi oscillators under common random forcing, which can be shown to be partially integrable. Via both numerical simulations and theoretical analysis, we determine that such a model cannot exhibit stationary multi-cluster states, contrary to the numerical findings in previous literature. Through further investigation, we find that the multi-clustering states reported previously occur due to the accumulation of discretization errors inherent in the integration algorithms, which introduce higher-mode couplings into the model. As a result, the partial integrability condition is violated. Lastly, we derive the microscopic cross-correlation of globally coupled non-identical Kuramoto oscillators under common fluctuating forcing. The effect of correlation arises naturally in finite populations, due to the non-trivial fluctuations of the meanfield. In an idealized model, we approximate the finite-sized fluctuation by a Gaussian white noise. The analytical approximation qualitatively matches the measurements in numerical experiments, however, due to other periodic components inherent in the fluctuations of the mean-field there still exist significant inconsistencies. N2 - Oszillatorische Systeme unter schwacher Kopplung können durch das Kuramoto-Modell beschrieben werden. Kuramoto-Phasenoszillatoren besitzen eine Vielzahl von Modellanwendungsfällen von der Kommunikation zwischen Nervenzellen bis zu kollektiven Einflüssen auf die politische Meinungsbildung sowie ingenieurwissenschaftlichen Anwendungen wie Josephson-Kontakten und synchronisierten elektrischen Übertragungsnetzen. In dieser Dissertation werden die Beiträge der Autorin zur Theorie der Kuramoto-Oszillatorensysteme und zum Verständnis nichttrivialer dynamischer NKörpersysteme durch die Analyse ihrer reduzierten Mittelfelddynamik zusammengefasst. Der Hauptinhalt dieser Dissertation umfasst vier Teile: Zuerst wird eine teilweise integrable Theorie global gekoppelter, identischer Kuramoto-Oszillatoren so erweitert, dass sie auch den Fall reiner Phasenkopplung höherer Ordnung umfasst. Die erweiterte Theorie wird anschließend auf ein nichttriviales Modell mit harmonischer Kopplung höherer Ordnung angewendet, welches asymmetrisches Clustering aufweist. Die Theorie sagt rein auf Basis der Anfangssystembedingungen einige Eigenschaften des asymmetrischen Clustering erfolgreich voraus. Im zweiten Teil wird die Phasendynamik von Kuramoto-Oszillatoren mithilfe einer iterierten diskreten Abbildung simuliert. Diese Abbildung – eine Möbius-Abbildung – erlaubt nicht nur eine schnelle Berechnung der Phasensynchronisation sondern spiegelt die zugrundeliegende Gruppenstruktur der Phasendynamik auch exakt wieder. Die Dynamik der iterierten Abbildung wird mit verschiedenen analogen Dynamiken mit kontinuierlicher Zeitachse verglichen. Hierbei werden bekannte Phänomene, wie etwa der Phasenübergang im Kuramoto-Sakaguchi-Oszillatormodell mit einer Verteilung der natürlichen Frequenzen und “Chimärenzustände” (chimera states) bei identischen Oszillatoren nichtlokalen Kopplungstypen, repliziert. Im dritten Teil wird ein Modell von repulsiv gekoppelten, identischen, gemeinsam stochastisch getriebenen Kuramoto-Sakaguchi-Oszillatoren beschrieben, dass teilweise integrabel ist. Sowohl durch numerische Simulationen als auch theoretische Analyse wird gezeigt, dass dieses Modell keine stationären Multi-Cluster-Zustände einnehmen kann, was den Ergebnissen anderer numerischer Studien in der Literatur widerspricht. Durch eine weitergehende Analyse wird gezeigt, dass das scheinbare Auftreten von Multi-Cluster-Zuständen der Akkumulation von inhärenten Diskretisierungsfehlern der verwendeten Integrationsalgorithmen zuzuschreiben ist, welche dem Modell Phasenkopplungen höher Ordnung hinzufügen. Als Resultat dieser Effekte wird die Bedingung der teilweisen Integrabilität verletzt. Zuletzt wird die mikroskopische Kreuzkorrelation zwischen global gekoppelten, nicht identischen gemeinsam fluktuierend getriebenen Kuramoto-Oszillatoren hergeleitet. Der Korrelationseffekt entsteht auf natürliche Art und Weise in endlichen Populationen aufgrund der nichttrivialen Fluktuation des Mittelfelds. Die endliche Fluktuation wird in einem idealisierten Modell mittels gaußschem weißem Rauschen approximiert. Die analytische Annährung stimmt mit den Ergebnissen numerischer Simulationen gut überein, die inhärenten periodischen Komponenten der Fluktuation des Mittelfels verursachen allerdings trotzdem signifikante Inkonsistenzen. T2 - Synchronisation der gekoppelten Oszillatoren KW - Synchronization KW - Nonlinear Dynamics KW - Nichtlineare Dynamik KW - Synchronisation KW - Kuramoto Oscillators KW - Kuramoto-Oszillatore KW - Complex Network KW - Komplexes Netzwerk Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-487522 ER - TY - THES A1 - Kerutt, Josephine Victoria T1 - The high-redshift voyage of Lyman alpha and Lyman continuum emission as told by MUSE T1 - Die Reise der Lyman alpha- und Lyman Kontinuumsemission bei hoher Rotverschiebung erzählt von MUSE N2 - Most of the matter in the universe consists of hydrogen. The hydrogen in the intergalactic medium (IGM), the matter between the galaxies, underwent a change of its ionisation state at the epoch of reionisation, at a redshift roughly between 6>z>10, or ~10^8 years after the Big Bang. At this time, the mostly neutral hydrogen in the IGM was ionised but the source of the responsible hydrogen ionising emission remains unclear. In this thesis I discuss the most likely candidates for the emission of this ionising radiation, which are a type of galaxy called Lyman alpha emitters (LAEs). As implied by their name, they emit Lyman alpha radiation, produced after a hydrogen atom has been ionised and recombines with a free electron. The ionising radiation itself (also called Lyman continuum emission) which is needed for this process inside the LAEs could also be responsible for ionising the IGM around those galaxies at the epoch of reionisation, given that enough Lyman continuum escapes. Through this mechanism, Lyman alpha and Lyman continuum radiation are closely linked and are both studied to better understand the properties of high redshift galaxies and the reionisation state of the universe. Before I can analyse their Lyman alpha emission lines and the escape of Lyman continuum emission from them, the first step is the detection and correct classification of LAEs in integral field spectroscopic data, specifically taken with the Multi-Unit Spectroscopic Explorer (MUSE). After detecting emission line objects in the MUSE data, the task of classifying them and determining their redshift is performed with the graphical user interface QtClassify, which I developed during the work on this thesis. It uses the strength of the combination of spectroscopic and photometric information that integral field spectroscopy offers to enable the user to quickly identify the nature of the detected emission lines. The reliable classification of LAEs and determination of their redshifts is a crucial first step towards an analysis of their properties. Through radiative transfer processes, the properties of the neutral hydrogen clouds in and around LAEs are imprinted on the shape of the Lyman alpha line. Thus after identifying the LAEs in the MUSE data, I analyse the properties of the Lyman alpha emission line, such as the equivalent width (EW) distribution, the asymmetry and width of the line as well as the double peak fraction. I challenge the common method of displaying EW distributions as histograms without taking the limits of the survey into account and construct a more independent EW distribution function that better reflects the properties of the underlying population of galaxies. I illustrate this by comparing the fraction of high EW objects between the two surveys MUSE-Wide and MUSE-Deep, both consisting of MUSE pointings (each with the size of one square arcminute) of different depths. In the 60 MUSE-Wide fields of one hour exposure time I find a fraction of objects with extreme EWs above EW_0>240A of ~20%, while in the MUSE-Deep fields (9 fields with an exposure time of 10 hours and one with an exposure time of 31 hours) I find a fraction of only ~1%, which is due to the differences in the limiting line flux of the surveys. The highest EW I measure is EW_0 = 600.63 +- 110A, which hints at an unusual underlying stellar population, possibly with a very low metallicity. With the knowledge of the redshifts and positions of the LAEs detected in the MUSE-Wide survey, I also look for Lyman continuum emission coming from these galaxies and analyse the connection between Lyman continuum emission and Lyman alpha emission. I use ancillary Hubble Space Telescope (HST) broadband photometry in the bands that contain the Lyman continuum and find six Lyman continuum leaker candidates. To test whether the Lyman continuum emission of LAEs is coming only from those individual objects or the whole population, I select LAEs that are most promising for the detection of Lyman continuum emission, based on their rest-frame UV continuum and Lyman alpha line shape properties. After this selection, I stack the broadband data of the resulting sample and detect a signal in Lyman continuum with a significance of S/N = 5.5, pointing towards a Lyman continuum escape fraction of ~80%. If the signal is reliable, it strongly favours LAEs as the providers of the hydrogen ionising emission at the epoch of reionisation and beyond. N2 - Die Materie zwischen den Galaxien im Universum, das sogenannte intergalaktische Medium, besteht zum größten Teil aus Wasserstoff, welcher sich zusammensetzt aus einem Proton und einem Elektron. Etwa ~10^8 Jahre nach dem Urknall änderte sich der Ionisationszustand des Wasserstoffs im intergalaktischen Medium. Durch Strahlung wurden Proton und Elektronen getrennt, der Wasserstoff wurde ionisiert. Die Strahlung mit der nötigen Energie um Wasserstoff zu ionisieren nennt man Lyman Kontinuum Strahlung. Woher diese stammt ist bis heute eine offene Frage. In der vorliegenden Arbeit diskutiere ich die wahrscheinlichsten Kandidaten für die Emission dieser ionisierenden Strahlung: die Lyman alpha Emitter (LAE), eine Gruppe von Galaxien die man im frühen Universum antrifft. Hat nämlich ein Lyman Kontinuum Photon ein Wasserstoffatom ionisiert, kommt es häufig vor, dass sich Proton und Elektron wieder zu einem neutralen Wasserstoffatom verbinden. Bei diesem Prozess wird dann ein Lyman alpha Photon freigesetzt, was den LAE ihren Namen gibt. Da wir in den Spektren dieser Galaxien die Lyman alpha Photonen beobachten können, deren Voraussetzung die Existenz von Lyman Kontinuum Emission in der Galaxie ist, liegt es nahe anzunehmen, dass die Lyman Kontinuum Emission auch in das intergalaktische Medium vordringen kann um den Wasserstoff dort ebenfalls zu ionisieren. Durch diesen Mechanismus sind Lyman alpha und Lyman-Kontinuumsstrahlung eng miteinander verbunden und werden in dieser Arbeit beide untersucht, um die Eigenschaften von Galaxien im frühen Universum und den Zustand des Wasserstoffs im intergalaktischen Medium besser zu verstehen. Der erste Schritt ist jedoch die Detektion und korrekte Klassifizierung von LAE. Dafür benutze ich Daten des Multi-Unit Spectroscopic Explorer (MUSE), ein Instrument mit dem Beobachtungen möglich sind, die zwei räumliche Dimensionen mit einer spektralen Dimension verbinden. Somit ist in jedem Pixel der Daten ein Spektrum zur Verfügung, in dem nach Emissionslinien gesucht werden kann. Nach der Detektion von Emissionslinien in den MUSE-Daten wird die Aufgabe der Klassifizierung von der grafischen Benutzeroberfläche QtClassify unterstützt, die ich in dieser Arbeit entwickelt habe. Sie bietet dem Benutzer eine schnelle und übersichtliche Identifizierung der gefundenen Emissionslinien, was einen entscheidenden ersten Schritt zur Analyse der Eigenschaften der LAE darstellt. Da Lyman alpha Photonen in neutralem Wasserstoff, der im Inneren von Galaxien in Gaswolken vorkommt, gestreut wird, verändert sich die Form der Lyman alpha Emissionslinie im Spektrum. Nachdem also die LAE mit Hilfe von QtClassify identifiziert werden konnten, analysiere ich die Lyman alpha Linie hinsichtlich ihrer Breite, ihrer Symmetrie und ihrer Stärke und suche nach Doppellinien, die Hinweise auf die Kinematik der Wasserstoff Gaswolken geben. Besonders wichtig dabei ist die Stärke der Linie im Vergleich zum restlichen Spektrum, die sogenannte Äquivalentbreite. Dabei zeige ich, dass die übliche Methode die Verteilung der Äquivalentbreiten als Histogramme darzustellen ohne die Detektionsgrenzen der Beobachtungen miteinzubeziehen keine Aussage über die Eigenschaften der LAE, sondern lediglich über die Grenzen der Beobachtungen treffen. Daher konstruiere ich eine unabhängigere Verteilungsfunktion, die diese Grenzen mit einbezieht. Ich verdeutliche dies durch einen Vergleich des Anteils von Objekten mit hoher Äquivalentbreite in zwei verschiedenen Datensätzen, die auf Beobachtungen mit unterschiedlicher Belichtungszeit beruhen. Dabei finde ich in dem Datensatz mit der kürzeren Belichtungszeit einen Anteil von ~20% an Objekten mit hohen Äquivalentbreiten (über >240A) und nur ~1% im Datensatz mit der zehnfach längeren Belichtungszeit obwohl die Eigenschaften der LAE gleich sind. Zudem finde ich eine Galaxie mit einer Äquivalentbreite der Lyman alpha Linie von 600 +- 110A, was auf eine ungewöhnliche Sternpopulation hindeutet. Als letzten Schritt suche ich in den klassifizierten LAE nach Lyman Kontinuum, was für die Ionisierung des Wasserstoffs im intergalaktischen Medium verantwortlich ist, und untersuche den Zusammenhang zwischen der Lyman alpha und der Lyman Kontinuumsstrahlung. Um das Lyman Kontinuum detektieren zu können benutze ich Daten des Hubble-Weltraumteleskops (HST) und finde sechs Lyman Kontinuum Kandidaten unter den LAE. Um zu testen ob die Lyman Kontinuumsstrahlung lediglich von diesen Objekten ausgeht oder auch im der Gesamtheit der LAE zu finden ist, addiere ich die Daten des HST und finde ein Signal, was darauf hindeutet, dass ~80% der Lyman Kontinuumsstrahlung aus den Galaxien entkommen und in das intergalaktische Medium vordringen kann. Wenn das gefundene Signal zuverlässig ist deutet es darauf hin, dass in der Tat LAE für die Ionisierung des Wasserstoffs im Universum verantwortlich sein könnten. KW - astronomy KW - LAEs KW - reionization KW - Lyman alpha KW - Lyman continuum KW - VLT/MUSE KW - emission line classification KW - QtClassify KW - LAEs KW - Lyman alpha KW - Lyman Kontinuum KW - QtClassify KW - VLT/MUSE KW - Astronomie KW - Emissionslinienklassifikation KW - Reionisierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-478816 ER - TY - THES A1 - Kuberski, Stephan R. T1 - Fundamental motor laws and dynamics of speech N2 - The present work is a compilation of three original research articles submitted (or already published) in international peer-reviewed venues of the field of speech science. These three articles address the topics of fundamental motor laws in speech and dynamics of corresponding speech movements: 1. Kuberski, Stephan R. and Adamantios I. Gafos (2019). "The speed-curvature power law in tongue movements of repetitive speech". PLOS ONE 14(3). Public Library of Science. doi: 10.1371/journal.pone.0213851. 2. Kuberski, Stephan R. and Adamantios I. Gafos (In press). "Fitts' law in tongue movements of repetitive speech". Phonetica: International Journal of Phonetic Science. Karger Publishers. doi: 10.1159/000501644 3. Kuberski, Stephan R. and Adamantios I. Gafos (submitted). "Distinct phase space topologies of identical phonemic sequences". Language. Linguistic Society of America. The present work introduces a metronome-driven speech elicitation paradigm in which participants were asked to utter repetitive sequences of elementary consonant-vowel syllables. This paradigm, explicitly designed to cover speech rates from a substantially wider range than has been explored so far in previous work, is demonstrated to satisfy the important prerequisites for assessing so far difficult to access aspects of speech. Specifically, the paradigm's extensive speech rate manipulation enabled elicitation of a great range of movement speeds as well as movement durations and excursions of the relevant effectors. The presence of such variation is a prerequisite to assessing whether invariant relations between these and other parameters exist and thus provides the foundation for a rigorous evaluation of the two laws examined in the first two contributions of this work. In the data resulting from this paradigm, it is shown that speech movements obey the same fundamental laws as movements from other domains of motor control do. In particular, it is demonstrated that speech strongly adheres to the power law relation between speed and curvature of movement with a clear speech rate dependency of the power law's exponent. The often-sought or reported exponent of one third in the statement of the law is unique to a subclass of movements which corresponds to the range of faster rates under which a particular utterance is produced. For slower rates, significantly larger values than one third are observed. Furthermore, for the first time in speech this work uncovers evidence for the presence of Fitts' law. It is shown that, beyond a speaker-specific speech rate, speech movements of the tongue clearly obey Fitts' law by emergence of its characteristic linear relation between movement time and index of difficulty. For slower speech rates (when temporal pressure is small), no such relation is observed. The methods and datasets obtained in the two assessment above provide a rigorous foundation both for addressing implications for theories and models of speech as well as for better understanding the status of speech movements in the context of human movements in general. All modern theories of language rely on a fundamental segmental hypothesis according to which the phonological message of an utterance is represented by a sequence of segments or phonemes. It is commonly assumed that each of these phonemes can be mapped to some unit of speech motor action, a so-called speech gesture. For the first time here, it is demonstrated that the relation between the phonological description of simple utterances and the corresponding speech motor action is non-unique. Specifically, by the extensive speech rate manipulation in the herein used experimental paradigm it is demonstrated that speech exhibits clearly distinct dynamical organizations underlying the production of simple utterances. At slower speech rates, the dynamical organization underlying the repetitive production of elementary /CV/ syllables can be described by successive concatenations of closing and opening gestures, each with its own equilibrium point. As speech rate increases, the equilibria of opening and closing gestures are not equally stable yielding qualitatively different modes of organization with either a single equilibrium point of a combined opening-closing gesture or a periodic attractor unleashed by the disappearance of both equilibria. This observation, the non-uniqueness of the dynamical organization underlying what on the surface appear to be identical phonemic sequences, is an entirely new result in the domain of speech. Beyond that, the demonstration of periodic attractors in speech reveals that dynamical equilibrium point models do not account for all possible modes of speech motor behavior. N2 - In der vorliegende Arbeit belegen wir die Gültigkeit zweier bedeutender Motorikgesetze in Sprechdaten repetitiver Silben des Deutsch und Englischs: das fittsche Gesetz und das speed-curvature power law. Durch Anwendung eines größeren Sprechratenbereichs als in bisherigen Untersuchungen und anspruchsvollen numerischen Methoden zeigen wir das Auftreten dieser beiden Gesetze in klarerer Gestalt als in anderen Arbeit zuvor. Des Weiteren eröffnen wir den Versuch die Struktur repetitiver Sprechbewegungen dynamisch zu beschreiben, mit ersten Indizien für die Existenz mehrerer, qualitativ verschiedener,dynamischer Moden in ein und derselben phonologischen Sequenz. T2 - Allgemeine motorische Gesetzmäßigkeiten und dynamische Strukturen des Sprechens KW - speech motor control KW - speed-curvature power law KW - Fitts' law KW - repetitive speech KW - tongue movements KW - Sprechmotorik KW - Speed-Curvature Power Law KW - Fitts' Gesetz KW - Sprechwiederholungen KW - Zungenbewegungen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437714 ER - TY - THES A1 - He, Hai T1 - Exploring and engineering formaldehyde assimilation N2 - Increasing concerns regarding the environmental impact of our chemical production have shifted attention towards possibilities for sustainable biotechnology. One-carbon (C1) compounds, including methane, methanol, formate and CO, are promising feedstocks for future bioindustry. CO2 is another interesting feedstock, as it can also be transformed using renewable energy to other C1 feedstocks for use. While formaldehyde is not suitable as a feedstock due to its high toxicity, it is a central intermediate in the process of C1 assimilation. This thesis explores formaldehyde metabolism and aims to engineer formaldehyde assimilation in the model organism Escherichia coli for the future C1-based bioindustry. The first chapter of the thesis aims to establish growth of E. coli on formaldehyde via the most efficient naturally occurring route, the ribulose monophosphate pathway. Linear variants of the pathway were constructed in multiple-gene knockouts strains, coupling E. coli growth to the activities of the key enzymes of the pathway. Formaldehyde-dependent growth was achieved in rationally designed strains. In the final strain, the synthetic pathway provides the cell with almost all biomass and energy requirements. In the second chapter, taking advantage of the unique feature of its reactivity, formaldehyde assimilation via condensation with glycine and pyruvate by two promiscuous aldolases was explored. Facilitated by these two reactions, the newly designed homoserine cycle is expected to support higher yields of a wide array of products than its counterparts. By dividing the pathway into segments and coupling them to the growth of dedicated strains, all pathway reactions were demonstrated to be sufficiently active. The work paves a way for future implementation of a highly efficient route for C1 feedstocks into commodity chemicals. In the third chapter, the in vivo rate of the spontaneous formaldehyde tetrahydrofolate condensation to methylene-tetrahydrofolate was assessed in order to evaluate its applicability as a biotechnological process. Tested within an E. coli strain deleted in essential genes for native methylene-tetrahydrofolate biosynthesis, the reaction was shown to support the production of this essential intermediate. However, only low growth rates were observed and only at high formaldehyde concentrations. Computational analysis dependent on in vivo evidence from this strain deduced the slow rate of this spontaneous reaction, thus ruling out its substantial contribution to growth on C1 feedstocks. The reactivity of formaldehyde makes it highly toxic. In the last chapter, the formation of thioproline, the condensation product of cysteine and formaldehyde, was confirmed to contribute this toxicity effect. Xaa-Pro aminopeptidase (PepP), which genetically links with folate metabolism, was shown to hydrolyze thioproline-containing peptides. Deleting pepP increased strain sensitivity to formaldehyde, pointing towards the toxicity of thioproline-containing peptides and the importance of their removal. The characterization in this study could be useful in handling this toxic intermediate. Overall, this thesis identified challenges related to formaldehyde metabolism and provided novel solutions towards a future bioindustry based on sustainable C1 feedstocks in which formaldehyde serves as a key intermediate. N2 - Die zunehmende Besorgnis über die Auswirkungen der chemischen Produktion auf die Umwelt hat den Fokus auf die Vorzüge der nachhaltigen Biotechnologie gelenkt. Ein-Kohlenstoff-Verbindungen (C1), wie Methan, Methanol, Formiat und CO, sind vielversprechende Ausgangsstoffe für eine künftige biobasierte Industrie. Darüber hinaus ist CO2 ein weiterer interessanter Rohstoff, da es ebenfalls mit erneuerbarer Energie in andere C1-Verbindungen umgewandelt werden kann. Formaldehyd ist zwar aufgrund seiner Toxizität und Reaktivität nicht als Kohlestoffquelle geeignet, stellt aber ein zentrales Intermediat der C1-Assimilation dar. In dieser Arbeit wurde der Formaldehyd-Stoffwechsel untersucht, um Formaldehyd-Assimilations-Wege im Modellorganismus Escherichia coli für die zukünftige C1-basierte Bioindustrie zu entwickeln. Das erste Kapitel dieser Arbeit zielt darauf ab, das Wachstum von E. coli auf Formaldehyd über den energetisch effizientesten natürlich vorkommenden Weg, den Ribulose-Monophosphat-Weg (RuMP-Weg), zu etablieren. Durch Gendeletionen wurden lineare Varianten des RuMPWeges in E. coli Stämmen konstruiert, um das Wachstum mit der Aktivität der Schlüsselenzyme der Formaldehyd-Assimiliation zu verbinden. So konnte auf Formaldehydabhängiges Wachstum in diesen Stämmen getestet werden. Im finalen Stamm wurde nahezu die gesamte Biomasse und der Energiebedarf der E. coli Zellen über den RuMP-Weg bereitgestellt. Im zweiten Kapitel wurde unter Ausnutzung der einzigartigen Reaktivität des Formaldehyds die Aktivitäten zweier promiskuitiver Aldolasen für die Kondensation von Formaldehyd mit Glycin oder Pyruvat in vivo untersucht. Diese beiden Reaktionen dienen als Schlüsselreaktionen des neu gestalteten Homoserin-Zyklus, der verglichen mit anderen bekannten Assimilierungswegen höhere Ausbeuten einer breiten Palette von Produkten ermöglichen kann. Durch die Unterteilung des Stoffwechselweges in Segmente und deren Selektion in auxotrophen E. coli Stämmen wurde gezeigt, dass alle Reaktionen des Pfades ausreichend aktiv sind. Diese Arbeit ebnet den Weg für die zukünftige Nutzung des Homoserin-Zyklus als hocheffiziente Route für die Umwandlung von C1-Rohstoffen in grundlegende Chemikalien. Im dritten Kapitel wurde die in vivo-Rate der spontanen Kondensation von Formaldehyd mit Tetrahydrofolat zu Methylen-Tetrahydrofolat untersucht, um ihr Potential als Formaldehyd Assimilierungs-Reaktion in einem biotechnologischen Prozess zu bewerten. Die Reaktion wurde in einem E. coli-Stamm getestet, in welchem essentielle Gene für die native Methylen-Tetrahydrofolat-Biosynthese entfernt wurden. Es konnte gezeigt werden, dass die spontane Reaktion die Produktion dieses wesentlichen Zwischenprodukts ermöglicht. Die erreichten Wachstumsraten waren jedoch gering und nur bei hohen Formaldehydkonzentrationen zu beobachten. Eine Computer-gestützte Analyse basierend auf in vivo-Erkenntnissen über diesen Stamm ergab eine langsame Reaktionsgeschwindigkeit dieser spontanen Reaktion und schloss somit ihren wesentlichen Beitrag zum Wachstum auf C1-Einsatzmaterial aus. Seine Reaktivität macht Formaldehyd hochtoxisch. Im letzten Kapitel wurde bestätigt, dass die Bildung von Thioprolin, dem Kondensationsprodukt von Cystein und Formaldehyd, zu dieser Toxizitätswirkung beiträgt. Es wurde gezeigt, dass die Xaa-Pro-Aminopeptidase (PepP), die genetisch mit dem Folat-Stoffwechsel verbunden ist, thioprolinhaltige Peptide hydrolysiert. Die Deletion von PepP erhöhte die Empfindlichkeit des Stammes gegenüber Formaldehyd, was auf die Toxizität der Thioprolin-haltigen Peptide und die Bedeutung ihrer Entfernung hinweist. Diese Studie kann für den Umgang mit der Toxizität von Formaldehyd nützlich sein. Insgesamt identifizierte diese Arbeit Herausforderungen im Zusammenhang mit dem Formaldehyd-Stoffwechsel und lieferte neue Lösungen für eine C1-basierte Bioindustrie, in der Formaldehyd als wichtiges Zwischenprodukt dient. T2 - Erforschung und Entwicklung der Formaldehyd-Assimilierung KW - formaldehyde assimilation KW - ribulose monophosphate pathway KW - metabolic engineering KW - serine cycle KW - auxotrophy KW - methylotrophy KW - Auxotrophie KW - Serin-Zyklus KW - Ribulose-Monophosphat-Weg KW - Methylotrophie KW - metabolisches Engineering KW - Formaldehyd-Assimilierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-473867 ER - TY - THES A1 - Melani, Giacomo T1 - From structural fluctuations to vibrational spectroscopy of adsorbates on surfaces T1 - Von Strukturfluktuationen bis zur Schwingungsspektroskopie von Adsorbaten auf Oberflächen BT - a theoretical study of H2O on α-Al2O3(0001) BT - eine theoretische Untersuchung von H2O auf α-Al2O3 (0001) N2 - Aluminum oxide is an Earth-abundant geological material, and its interaction with water is of crucial importance for geochemical and environmental processes. Some aluminum oxide surfaces are also known to be useful in heterogeneous catalysis, while the surface chemistry of aqueous oxide interfaces determines the corrosion, growth and dissolution of such materials. In this doctoral work, we looked mainly at the (0001) surface of α-Al 2 O 3 and its reactivity towards water. In particular, a great focus of this work is dedicated to simulate and address the vibrational spectra of water adsorbed on the α-alumina(0001) surface in various conditions and at different coverages. In fact, the main source of comparison and inspiration for this work comes from the collaboration with the “Interfacial Molecular Spectroscopy” group led by Dr. R. Kramer Campen at the Fritz-Haber Institute of the MPG in Berlin. The expertise of our project partners in surface-sensitive Vibrational Sum Frequency (VSF) generation spectroscopy was crucial to develop and adapt specific simulation schemes used in this work. Methodologically, the main approach employed in this thesis is Ab Initio Molecular Dynamics (AIMD) based on periodic Density Functional Theory (DFT) using the PBE functional with D2 dispersion correction. The analysis of vibrational frequencies from both a static and a dynamic, finite-temperature perspective offers the ability to investigate the water / aluminum oxide interface in close connection to experiment. The first project presented in this work considers the characterization of dissociatively adsorbed deuterated water on the Al-terminated (0001) surface. This particular structure is known from both experiment and theory to be the thermodynamically most stable surface termination of α-alumina in Ultra-High Vacuum (UHV) conditions. Based on experiments performed by our colleagues at FHI, different adsorption sites and products have been proposed and identified for D 2 O. While previous theoretical investigations only looked at vibrational frequencies of dissociated OD groups by staticNormal Modes Analysis (NMA), we rather employed a more sophisticated approach to directly assess vibrational spectra (like IR and VSF) at finite temperature from AIMD. In this work, we have employed a recent implementation which makes use of velocity-velocity autocorrelation functions to simulate such spectral responses of O-H(D) bonds. This approach allows for an efficient and qualitatively accurate estimation of Vibrational Densities of States (VDOS) as well as IR and VSF spectra, which are then tested against experimental spectra from our collaborators. In order to extend previous work on unimolecularly dissociated water on α-Al 2 O 3 , we then considered a different system, namely, a fully hydroxylated (0001) surface, which results from the reconstruction of the UHV-stable Al-terminated surface at high water contents. This model is then further extended by considering a hydroxylated surface with additional water molecules, forming a two-dimensional layer which serves as a potential template to simulate an aqueous interface in environmental conditions. Again, employing finite-temperature AIMD trajectories at the PBE+D2 level, we investigated the behaviour of both hydroxylated surface (HS) and the water-covered structure derived from it (known as HS+2ML). A full range of spectra, from VDOS to IR and VSF, is then calculated using the same methodology, as described above. This is the main focus of the second project, reported in Chapter 5. In this case, comparison between theoretical spectra and experimental data is definitely good. In particular, we underline the nature of high-frequency resonances observed above 3700 cm −1 in VSF experiments to be associated with surface OH-groups, known as “aluminols” which are a key fingerprint of the fully hydroxylated surface. In the third and last project, which is presented in Chapter 6, the extension of VSF spectroscopy experiments to the time-resolved regime offered us the opportunity to investigate vibrational energy relaxation at the α-alumina / water interface. Specifically, using again DFT-based AIMD simulations, we simulated vibrational lifetimes for surface aluminols as experimentally detected via pump-probe VSF. We considered the water-covered HS model as a potential candidate to address this problem. The vibrational (IR) excitation and subsequent relaxation is performed by means of a non-equilibrium molecular dynamics scheme. In such a scheme, we specifically looked at the O-H stretching mode of surface aluminols. Afterwards, the analysis of non-equilibrium trajectories allows for an estimation of relaxation times in the order of 2-4 ps which are in overall agreement with measured ones. The aim of this work has been to provide, within a consistent theoretical framework, a better understanding of vibrational spectroscopy and dynamics for water on the α-alumina(0001) surface,ranging from very low water coverage (similar to the UHV case) up to medium-high coverages, resembling the hydroxylated oxide in environmental moist conditions. N2 - Das Hauptziel dieser Doktorarbeit war die Untersuchung der Wechselwirkung zwischen Aluminiumoxid (α-Al2O3) und Wasser, wobei die (0001)-Oberfläche von α-Al2O3 im Fokus der Betrachtungen stand. Infolge der Entwicklung moderner oberflächensensitiver spektroskopischer Methoden, insbesondere in der Schwingungsspektroskopie, ist es inzwischen experimentell möglich, die Oberflächenchemie dieser Oxidmaterialien zu untersuchen und atomistische Informationen über ihre wässrigen Grenzflächen zu erhalten. Unsere Gruppe hat mit der Interfacial Molecular Spectroscopy Gruppe des Fritz-Haber-Instituts der MPG in Berlin zusammengearbeitet, deren Expertise in der oberflächensensitiven Vibrational Sum Frequency (VSF) Generation liegt. Diese Technik gestattet den spezifischen Nachweis von Adsorbatvibrationen, beispielsweise des Produkts der Wasserdissoziation und -adsorption. Zur theoretischen Untersuchung dieses Systems wurden verschiedene Berechnungsmethoden genutzt, wobei bevorzugt die Ab-initio-Molekulardynamik (AIMD) zum Einsatz kam. Darüber hinaus konzentrierten wir uns auf die Simulation von Schwingungsfrequenzen und -spektren für verschiedene Systeme unter Verwendung eines neuen, effizienten Algorithmus, der auf Grundlage klassischer Zeitkorrelationsfunktionen entwickelt wurde. Das erste Projekt untersuchte die einfachsten Adsorptionsprodukte von Wasserreaktionen auf der Al-terminierten α-Al2O3(0001)-Oberfläche, die unter Ultrahochvakuumbedingungen (UHV) als stabilste Struktur bekannt ist. Mit AIMD-basierten Methoden haben wir verschiedene Spezies simuliert, die aus unimolekular adsorbiertem Wasser stammen, und ihre Schwingungsfrequenzen im Vergleich zum Experiment bestimmt. In einem zweiten Projekt widmeten wir uns einer Situation, in der eine vollständig hydroxylierte α-Aluminiumoxid-Oberfläche mit einer ebenfalls vollständig hydroxylierten, aber um eine zusätzliche Wasserschicht erweiterten α-Aluminiumoxid-Oberfläche wechselwirkt. Diese beiden Strukturen dienen als Grundlage zur weitergehenden Untersuchung von Aluminiumoxid-Oberflächen mit größeren Wasser-Bedeckungsgraden unter Umgebungsbedingungen. Wiederum simulierten wir vollständige Schwingunsspektren (einschließlich IR und VSF). Hierzu wurden etablierte Methoden genutzt, die auf der Verwendung von Zeitkorrelationsfunktionen basieren, jedoch von uns im Rahmen dieser Doktorarbeit weiterentwickelt wurden. Schließlich haben wir in einem dritten Projekt in Zusammenarbeit mit Experimentatoren die Schwingungsrelaxation an der Wasser / α-Al2O3-Grenzfläche beschrieben. Motiviert durch Pump-Probe-VSF-Experimente zur Bestimmung der Schwingungslebensdauer adsorbierter OH-Spezies entwickelten und verwendeten wir einen AIMD-Ansatz zur Simulation der Anregungs- und Relaxationsprozesse. Auf Grundlage von Nichtgleichgewichtstrajektorien konnten wir auch eine Relaxationszeitskala für OH-Gruppen ermitteln, die zwischen 2 und 4 Pikosekunden beträgt und gut mit experimentellen Werten übereinstimmt. KW - theoretical chemistry KW - molecular dynamics KW - DFT KW - vibrational spectroscopy KW - theoretische Chemie KW - Molekulardynamik KW - DFT KW - Schwingungsspektroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441826 ER - TY - THES A1 - Wozny, Florian T1 - Three empirical essays in health economics T1 - Drei empirische Essays in Gesundheitsökonomik N2 - Modern health care systems are characterized by pronounced prevention and cost-optimized treatments. This dissertation offers novel empirical evidence on how useful such measures can be. The first chapter analyzes how radiation, a main pollutant in health care, can negatively affect cognitive health. The second chapter focuses on the effect of Low Emission Zones on public heath, as air quality is the major external source of health problems. Both chapters point out potentials for preventive measures. Finally, chapter three studies how changes in treatment prices affect the reallocation of hospital resources. In the following, I briefly summarize each chapter and discuss implications for health care systems as well as other policy areas. Based on the National Educational Panel Study that is linked to data on radiation, chapter one shows that radiation can have negative long-term effects on cognitive skills, even at subclinical doses. Exploiting arguably exogenous variation in soil contamination in Germany due to the Chernobyl disaster in 1986, the findings show that people exposed to higher radiation perform significantly worse in cognitive tests 25 years later. Identification is ensured by abnormal rainfall within a critical period of ten days. The results show that the effect is stronger among older cohorts than younger cohorts, which is consistent with radiation accelerating cognitive decline as people get older. On average, a one-standarddeviation increase in the initial level of CS137 (around 30 chest x-rays) is associated with a decrease in the cognitive skills by 4.1 percent of a standard deviation (around 0.05 school years). Chapter one shows that sub-clinical levels of radiation can have negative consequences even after early childhood. This is of particular importance because most of the literature focuses on exposure very early in life, often during pregnancy. However, population exposed after birth is over 100 times larger. These results point to substantial external human capital costs of radiation which can be reduced by choices of medical procedures. There is a large potential for reductions because about one-third of all CT scans are assumed to be not medically justified (Brenner and Hall, 2007). If people receive unnecessary CT scans because of economic incentives, this chapter points to additional external costs of health care policies. Furthermore, the results can inform the cost-benefit trade-off for medically indicated procedures. Chapter two provides evidence about the effectiveness of Low Emission Zones. Low Emission Zones are typically justified by improvements in population health. However, there is little evidence about the potential health benefits from policy interventions aiming at improving air quality in inner-cities. The chapter ask how the coverage of Low Emission Zones air pollution and hospitalization, by exploiting variation in the roll out of Low Emission Zones in Germany. It combines information on the geographic coverage of Low Emission Zones with rich panel data on the universe of German hospitals over the period from 2006 to 2016 with precise information on hospital locations and the annual frequency of detailed diagnoses. In order to establish that our estimates of Low Emission Zones’ health impacts can indeed be attributed to improvements in local air quality, we use data from Germany’s official air pollution monitoring system and assign monitor locations to Low Emission Zones and test whether measures of air pollution are affected by the coverage of a Low Emission Zone. Results in chapter two confirm former results showing that the introduction of Low Emission Zones improved air quality significantly by reducing NO2 and PM10 concentrations. Furthermore, the chapter shows that hospitals which catchment areas are covered by a Low Emission Zone, diagnose significantly less air pollution related diseases, in particular by reducing the incidents of chronic diseases of the circulatory and the respiratory system. The effect is stronger before 2012, which is consistent with a general improvement in the vehicle fleet’s emission standards. Depending on the disease, a one-standard-deviation increase in the coverage of a hospitals catchment area covered by a Low Emission Zone reduces the yearly number of diagnoses up to 5 percent. These findings have strong implications for policy makers. In 2015, overall costs for health care in Germany were around 340 billion euros, of which 46 billion euros for diseases of the circulatory system, making it the most expensive type of disease caused by 2.9 million cases (Statistisches Bundesamt, 2017b). Hence, reductions in the incidence of diseases of the circulatory system may directly reduce society’s health care costs. Whereas chapter one and two study the demand-side in health care markets and thus preventive potential, chapter three analyzes the supply-side. By exploiting the same hospital panel data set as in chapter two, chapter three studies the effect of treatment price shocks on the reallocation of hospital resources in Germany. Starting in 2005, the implementation of the German-DRG-System led to general idiosyncratic treatment price shocks for individual hospitals. Thus far there is little evidence of the impact of general price shocks on the reallocation of hospital resources. Additionally, I add to the exiting literature by showing that price shocks can have persistent effects on hospital resources even when these shocks vanish. However, simple OLS regressions would underestimate the true effect, due to endogenous treatment price shocks. I implement a novel instrument variable strategy that exploits the exogenous variation in the number of days of snow in hospital catchment areas. A peculiarity of the reform allowed variation in days of snow to have a persistent impact on treatment prices. I find that treatment price increases lead to increases in input factors such as nursing staff, physicians and the range of treatments offered but to decreases in the treatment volume. This indicates supplier-induced demand. Furthermore, the probability of hospital mergers and privatization decreases. Structural differences in pre-treatment characteristics between hospitals enhance these effects. For instance, private and larger hospitals are more affected. IV estimates reveal that OLS results are biased towards zero in almost all dimensions because structural hospital differences are correlated with the reallocation of hospital resources. These results are important for several reasons. The G-DRG-Reform led to a persistent polarization of hospital resources, as some hospitals were exposed to treatment price increases, while others experienced reductions. If hospitals increase the treatment volume as a response to price reductions by offering unnecessary therapies, it has a negative impact on population wellbeing and public spending. However, results show a decrease in the range of treatments if prices decrease. Hospitals might specialize more, thus attracting more patients. From a policy perspective it is important to evaluate if such changes in the range of treatments jeopardize an adequate nationwide provision of treatments. Furthermore, the results show a decrease in the number of nurses and physicians if prices decrease. This could partly explain the nursing crisis in German hospitals. However, since hospitals specialize more they might be able to realize efficiency gains which justify reductions in input factors without loses in quality. Further research is necessary to provide evidence for the impact of the G-DRG-Reform on health care quality. Another important aspect are changes in the organizational structure. Many public hospitals have been privatized or merged. The findings show that this is at least partly driven by the G-DRG-Reform. This can again lead to a lack in services offered in some regions if merged hospitals specialize more or if hospitals are taken over by ecclesiastical organizations which do not provide all treatments due to moral conviction. Overall, this dissertation reveals large potential for preventive health care measures and helps to explain reallocation processes in the hospital sector if treatment prices change. Furthermore, its findings have potentially relevant implications for other areas of public policy. Chapter one identifies an effect of low dose radiation on cognitive health. As mankind is searching for new energy sources, nuclear power is becoming popular again. However, results of chapter one point to substantial costs of nuclear energy which have not been accounted yet. Chapter two finds strong evidence that air quality improvements by Low Emission Zones translate into health improvements, even at relatively low levels of air pollution. These findings may, for instance, be of relevance to design further policies targeted at air pollution such as diesel bans. As pointed out in chapter three, the implementation of DRG-Systems may have unintended side-effects on the reallocation of hospital resources. This may also apply to other providers in the health care sector such as resident doctors. N2 - Moderne Gesundheitssysteme zeichnen sich sowohl durch eine ausgeprägte Prävention als auch durch kostenoptimierte Behandlungen aus. Diese Dissertation bietet neue empirische Erkenntnisse darüber, wie nützlich solche Maßnahmen sein können. Das erste Kapitel analysiert, wie Strahlung, ein Hauptschadstoff im Gesundheitswesen, die kognitive Gesundheit negativ beeinflussen kann. Das zweite Kapitel konzentriert sich auf die Auswirkungen von Umweltzonen auf die öffentliche Gesundheit, da die Luftqualität die wichtigste externe Quelle für Gesundheitsprobleme ist. Beide Kapitel zeigen Potenziale für präventive Maßnahmen auf. Schließlich wird in Kapitel drei untersucht, wie sich Änderungen von Behandlungspreisen auf die Reallokation von Krankenhausressourcen auswirken. Im Folgenden fasse ich jedes Kapitel kurz zusammen und diskutiere die Relevanz für Gesundheitssysteme und andere Politikbereiche. Basierend auf dem Nationalen Bildungspanel, welches wir mit Strahlungsdaten verknüpfen, zeigt Kapitel eins, dass Strahlung, auch in geringen Dosen, negative Langzeitwirkungen auf die kognitiven Fähigkeiten haben kann. Dazu nutzen wir die exogene Variation der Bodenkontamination in Deutschland nach der Tschernobyl-Katastrophe von 1986. Die Ergebnisse zeigen, dass Menschen, die einer höheren Strahlung ausgesetzt waren, 25 Jahre später in kognitiven Tests deutlich schlechter abschneiden. Die Identifizierung wird durch anormale Niederschläge innerhalb eines kritischen Zeitraums von zehn Tagen nach dem Reaktorunfall gewährleistet. Die Ergebnisse zeigen, dass der Effekt bei älteren Kohorten stärker ist als bei jüngeren Kohorten, was mit der Theorie übereinstimmt, dass Strahlung den altersbedingten Rückgang der kognitiven Leistungsfähigkeit beschleunigt. Im Durchschnitt ist eine Erhöhung des Anfangsniveaus von CS137 um eine Standardabweichung (ca. 30 Thoraxröntgenaufnahmen) mit einer Abnahme der kognitiven Fähigkeiten um 4,1 Prozent einer Standardabweichung verbunden (ca. 0.05 Schuljahre). Die Ergebnisse in Kapitel eins zeigen, dass geringe Strahlungswerte auch nach der frühen Kindheit negative Folgen haben können. Dies ist von besonderer Bedeutung, da sich der Großteil der Literatur auf die Exposition in sehr frühen Lebensphasen konzentriert, oft während der Schwangerschaft. Die nach der Geburt exponierte Bevölkerung ist jedoch über 100-mal größer. Diese Ergebnisse deuten auf erhebliche externe Humankapitalkosten der Strahlung hin, die zum Beispiel durch die Wahl medizinischer Verfahren reduziert werden können. Es bestehen große Reduktionspotenziale, da beispielsweise etwa ein Drittel aller CT-Scans als medizinisch nicht gerechtfertigt angesehen werden (Brenner and Hall, 2007). Unter der Annahme, dass Menschen aufgrund wirtschaftlicher Anreize unnötige CT-Scans erhalten, weist dieses Kapitel auf zusätzliche externe Kosten von Gesundheitsmaßnahmen für die Gesundheit der Patienten hin. Außerdem erweitern die Ergebnisse die Informationsgrundlage für Risiko-Nutzen-Abwägungen medizinischer Behandlungen. Kapitel zwei liefert Belege für die Wirksamkeit von Umweltzonen. Umweltzonen sind in der Regel durch eine Verbesserung der Gesundheit der Bevölkerung gerechtfertigt. Es gibt jedoch wenig Belege für den gesundheitlichen Nutzen solcher politischen Maßnahmen zur Verbesserung der Luftqualität in Innenstädten. In dem Kapitel analysieren wir, wie sich die Ausdehnung der Umweltzonen auf die Luftverschmutzung und die Krankenhausaufenthalte auswirkt. Dazu nutzen wir zeitliche Unterschiede bei der Einführung der Umweltzonen in Deutschland. Hierfür kombinieren wir Informationen über die geografische Abdeckung der Umweltzonen mit umfangreichen Paneldaten von allen deutschen Krankenhäusern im Zeitraum von 2006 bis 2016. Die Krankenhausdaten enthalten präzise Informationen über Krankenhausstandorte und die jährliche Häufigkeit detaillierter Diagnosen. Um sicherzustellen, dass unsere Schätzungen der gesundheitlichen Auswirkungen der Umweltzonen auf eine Verbesserung der lokalen Luftqualität zurückzuführen sind, verwenden wir Daten aus dem offiziellen deutschen Luftmessnetz und ordnen den Umweltzonen Monitorstandorte zu. Hierdurch prüfen wir, ob Messungen der Luftverschmutzung durch die Abdeckung einer Umweltzone beeinflusst werden. Die Ergebnisse in Kapitel zwei bestätigen frühere Ergebnisse, die zeigen, dass die Einführung von Umweltzonen die Luftqualität durch die Reduzierung der NO2- und PM10-Konzentrationen deutlich verbessert. Darüber hinaus zeigt das Kapitel, dass Krankenhäuser, deren Einzugsgebiete in eine Umweltzone fallen, deutlich weniger durch Luftverschmutzung bedingte Krankheiten diagnostizieren, insbesondere durch die Verringerung von chronischen Krankheiten des Kreislaufs und der Atemwege. Der Effekt ist vor 2012 stärker, was sich durch eine allgemeine Verbesserung der Abgasnormen für Fahrzeuge erklären lässt. Wird der Anteil eines Krankenhauseinzugsgebiets mit Umweltzone um eine Standardabweichung erhöht, reduziert sich die jährliche Anzahl der entsprechenden Diagnosen um bis zu 5 Prozent. Diese Ergebnisse sind für politische Entscheidungsträger von Bedeutung. Im Jahr 2015 gab Deutschland 46 Milliarden Euro für Herz-Kreislauf-Erkrankungen aus, die teuerste Krankheitsform mit 2,9 Millionen Fällen. Die Reduktion von Herz-Kreislauf-Erkrankungen würde die Gesundheitskosten der Gesellschaft unmittelbar senken. Während Kapitel eins und zwei die Nachfrageseite in Gesundheitsmärkten und damit das Präventionspotenzial untersuchen, analysiert Kapitel drei die Angebotsseite. Unter Verwendung desselben Krankenhauspaneldatensatzes wie in Kapitel zwei untersuche ich die Auswirkungen von veränderten Behandlungspreisen auf Krankenhausressourcen in Deutschland. Ab 2005 wurden die Behandlungspreise für Patienten durch das G-DRG- System umgewandelt, was bis 2010 zu allgemeinen idiosynkratischen Preisschocks für einzelne Krankenhäuser führte. Die vorhandene Literatur bildet den Effekt von allgemeinen Preisschocks auf Krankenhausressourcen jedoch nur unzureichend ab. Außerdem erweitere ich die vorhandene Literatur indem ich zeige, dass Preisänderungen auch dann langfristige Auswirkungen auf Krankenhausressourcen haben können, wenn die Preisschocks verschwinden. Einfache OLS-Regressionen würden den wahren Effekt aufgrund von endogenen Preisschocks unterschätzen. Unter Zuhilfenahme von hochauflösenden Satellitendaten nutze ich eine Instrumentenvariablenstrategie, welche exogene Schwankungen der Wetterbedingungen im Einzugsbereich von Krankenhäusern nutzt. Eine Besonderheit der Reform führt dazu, dass Abweichungen der Wetterbedingungen zum Zeitpunkt der Reformeinführung einen nachhaltigen Einfluss auf die Behandlungspreise hatten. Die Ergebnisse zeigen, dass Preiserhöhungen im Laufe der Zeit zu einem Anstieg des Pflegepersonals, von Ärzten und der Vielfalt der angebotenen Behandlungen führen, aber zu einem Rückgang des Behandlungsvolumens. Bei privaten und größeren Krankenhäusern sind die Auswirkungen stärker. Darüber hinaus sinkt die Wahrscheinlichkeit von Krankenhausfusionen und Privatisierungen. IV-Ergebnisse zeigen gegen Null verzerrte OLS-Schätzungen in fast allen Dimensionen, da strukturelle Krankenhausunterschiede mit der Reallokation von Ressourcen korreliert sind. Diese Ergebnisse sind aus mehreren Gründen wichtig. Die G-DRG-Reform führte zu einer anhaltenden Polarisation von Krankenhausressourcen, da Krankenhäuser sowohl Preisanstiege als auch Preissenkungen erfuhren. Wenn Krankenhäuser das Behandlungsvolumen durch unnötige Therapien erhöhen, hat das negative Auswirkungen auf die öffentliche Gesundheit der Bevölkerung und die öffentlichen Ausgaben. Andererseits zeigen die Ergebnisse einen Rückgang der Bandbreite der angebotenen Behandlungen bei sinkenden Preisen. Krankenhäuser könnten sich stärker spezialisieren und so mehr Patienten anziehen. Aus politischer Sicht ist es wichtig zu beurteilen, ob solche Veränderungen in der Vielfalt der angebotenen Behandlungen eine angemessene flächendeckende Versorgung gefährden. Des Weiteren zeigen die Ergebnisse einen Rückgang der Zahl der Krankenschwestern und Ärzte, wenn die Preise sinken. Dies könnte die Pflegekrise, welche die Bundesregierung in Deutschland beschreibt, teilweise erklären. Da sich die Krankenhäuser jedoch stärker spezialisieren, können sie möglicherweise Effizienzsteigerungen erzielen, die eine Verringerung der Inputfaktoren rechtfertigen, ohne an Qualität zu verlieren. Weitere Untersuchungen sind notwendig, um die Auswirkungen auf die Qualität der Gesundheitsversorgung nachzuweisen. Ein weiterer wichtiger Aspekt sind Veränderungen in der Organisationsstruktur. Viele öffentliche Krankenhäuser werden privatisiert oder mit anderen Krankenhäusern fusioniert. Meine Ergebnisse zeigen, dass dies zumindest teilweise auf die G-DRG-Reform zurückzuführen ist. Dies kann zu einem Mangel an angebotenen Behandlungen in einigen Regionen führen, wenn sich fusionierte Krankenhäuser spezialisieren oder wenn Krankenhäuser von kirchlichen Organisationen übernommen werden, die aus moralischen Gründen nicht alle Behandlungen anbieten. Insgesamt unterstreicht diese Dissertation das große Potenzial von Gesundheitsvorsorgemaßnahmen und hilft, Reallokationsprozesse im Krankenhaussektor zu erklären. Darüber hinaus haben die Ergebnisse potenziell relevante Auswirkungen auf andere Bereiche der Politik. Kapitel Eins identifiziert einen Einfluss von geringer Radioaktivität auf die kognitive Gesundheit. Auf der Suche nach neuen Energiequellen wird die Kernenergie wieder populär. Die Ergebnisse von Kapitel Eins deuten jedoch auf erhebliche Kosten von Kernenergie hin, die in der aktuellen Debatte noch nicht berücksichtigt wurden. Kapitel Zwei findet starke Hinweise darauf, dass die Verbesserung der Luftqualität durch Umweltzonen, selbst bei relativ geringer Luftverschmutzung, zu einer Verbesserung der Gesundheit führt. Diese Ergebnisse können für die Einführung weiterer Maßnahmen zur Bekämpfung der Luftverschmutzung von Bedeutung sein, wie beispielsweise Fahrverbote für Dieselfahrzeuge. Wie in Kapitel Drei dargelegt, kann die Einführung von DRG-Systemen unbeabsichtigte Effekte bei der Reallokation von Krankenhausressourcen haben. Dies kann auch für andere Anbieter im Gesundheitswesen wie niedergelassene Ärzte gelten. KW - health economics KW - managment KW - hospital KW - Gesundheitsökonomik KW - Management KW - Krankenhaus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469910 ER - TY - THES A1 - Bartel, Melanie T1 - Kernresonanz-Strukturuntersuchungen an alternativen Precursoren und deren Zwischenprodukten für die Herstellung von Carbonfasern für den Massenmarkt T1 - Nuclear magnetic resonance structure analyses of alternative precursors and their intermediates for the manufacture of carbon fibers for the mass market N2 - Carbonfasern haben sich in der Luft- und Raumfahrt etabliert und gewinnen in Alltagsanwendungen wie dem Automobilbereich, Windkraft- und Sportbereich durch ihre hohen Zugfestigkeiten, insbesondere ihrer hohen E-Moduli, und ihrer geringen Dichte immer mehr an Bedeutung. Auf Grund ihrer hohen Kosten, welche sich zur Hälfte aus der Precursorherstellung, inklusive seiner Synthese und seinem Verspinnprozess, dem Lösungsspinnverfahren, ergeben, erhalten zunehmend alternative und schmelzspinnbare Precursoren Interesse. Für die Carbonfaserherstellung wird fast ausschließlich Polyacrylnitril (PAN) verwendet, das vor dem Schmelzen irreversible exotherme Zyklisierungsreaktionen aufweist, welchen sich seine Zersetzung anschließt. Eine Möglichkeit der Reduzierung der Schmelztemperatur von Polymeren ist die Einbringung von Comonomeren zur Erhöhung des freien Volumens und die Reduzierung der intermolekularen Wechselwirkungen als interne Weichmacher. Wie am Fraunhofer IAP gezeigt wurde, kann mittels 2-Methoxyethylacrylat (MEA) die Schmelztemperatur zu neuartigen PAN-basierten Precursoren verringert werden. Um den PAN-co-MEA-Precursor für die nachfolgenden Prozessschritte der Carbonfaserherstellung zu verwenden, müssen die thermoplastischen Fasern in thermisch stabile Fasern ohne thermoplastisches Verhalten überführt werden. Es wurde ein neuer Prozessschritt (Prästabilisierung) eingeführt, welcher unter alkalischen Bedingungen zur Abspaltung der Comonomerseitenkette führt. Neben der Esterhydrolyse finden Reaktionen statt, welche an diesem Material noch nicht hinreichend untersucht wurden. Weiterhin stellt sich die Frage nach der Kinetik der Prästabilisierung und der Ermittlung einer geeigneten Prozessführung. Hierzu wurde die Prästabilisierung in den Labormaßstab überführt und die möglichen Zusammensetzungen des aus DMSO und einer KOH-Lösung bestehenden Reaktionsmediums evaluiert. Weiterhin wurde die Behandlung bei verschiedenen Prästabilisierungszeiten von maximal 30 min und Temperaturen von 40, 50 und 60 °C durchgeführt, um primär mittels NMR-Spektroskopie die chemischen Strukturänderungen aufzuklären. Die Esterhydrolyse des Comonomers, welche zur Abspaltung des 2-Methoxyethanols führt, wurde mittels 1H-NMR-spektroskopischer Untersuchungen detektiert. Es wurde ein Modell aufgestellt, das die chemisch-physikalischen Strukturänderungen während der Prästabilisierung aufzeigt. Die zuerst ablaufende Reaktion ist die Esterhydrolyse am Comonomer, welche vom Faserrand nach innen verläuft und durch die Präsenz des DMSO in Kombination mit der KOH-Lösung (Superbase) initiiert wird. Der zeitliche Reaktionsverlauf der Esterhydrolyse kann in drei Bereiche eingeteilt werden. Der erste Bereich ab dem Prästabilisierungsbeginn wird durch die Diffusion der basischen Anionen in die Faser, der zweite Bereich durch die Reaktion an der Estergruppe des Comonomers und der dritte Bereich durch letzte Reaktionen im Faserinneren und diffusiven Prozessen der Produkte und Edukte charakterisiert. Der zweite Bereich kann mit einer Reaktion pseudo 1. Ordnung abgebildet werden, da in diesem Bereich bereits eine ausreichende Diffusion der Edukte in die Faser stattgefunden hat. Bei 50 °C spielt die Diffusion im ersten Bereich im Vergleich zur Reaktion eine untergeordnete Rolle. Mit Erhöhung der Temperatur auf 60 °C kann eine im Verhältnis geringere Diffusions- als Reaktionsgeschwindigkeit beobachtet werden. Die Nebenreaktionen wurden mittels 13C-CP/MAS-NMR-spektroskopischen, elementaranlaytischen Untersuchungen sowie Doppelbrechungsmessungen charakterisiert. Während der alkalischen Esterhydrolyse beginnt die Reduzierung der Nitrilgruppen unter der Bildung von primären Carbonsäureamiden und Carbonsäuren. Zur Beschreibung dieser Umsetzung wurde eine Methode entwickelt, welche die Addition von 13C-CP/MAS-NMR-Spektren der Modellsubstanzen PAN, PAM und PAA beinhaltet. Weitere stattfindende Reaktionen sind die Bildung von konjugierten Doppelbindungen, welche insbesondere auf eine Zyklisierung der Nitrile hinweisen. Die nasschemisch initiierte Zyklisierung der Nitrilgruppen kann zu kürzeren Stabilisierungszeiten und einem besser kontrollierbaren Stabilisierungsprozess durch geringere Wärmefreisetzung und schlussendlich zu einer Kostenersparnis des gesamten Verfahrens führen. Die Umsetzung der Nitrilgruppen konnte mit einer Reaktion pseudo 1. Ordnung gut abgebildet werden. DMSO initiiert die Esterhydrolyse, wobei die KOH-Konzentration einen höheren Einfluss auf die Reaktionsgeschwindigkeit der Ester- und Nitrilhydrolyse als die DMSO-Konzentration besitzt. Beide Reaktionen zeigen eine vergleichbare Abhängigkeit von der Temperatur. Die Erhöhung der Prästabilisierungszeit und der KOH- bzw. DMSO-Konzentration führt zur Migration niedermolekularer Bestandteile des Fasermaterials an die Oberfläche und der Bildung punktueller Ablagerungen bis hin zu miteinander verbundenen Einzelfasern. Eine weitere Erhöhung der Prästabilisierungszeit bzw. der Konzentration führt zu einem steigenden Carbonsäureanteil und zur Quellung des Fasermaterials, wodurch die Ablagerungen in das Reaktionsmedium diffundieren. Die Ablagerungen enthalten Chlor, welches durch den Waschvorgang mit HCl in das Materialsystem gelangt ist und durch Parameteranpassungen reduziert wurde. Die schmelzbaren Fasern konnten durch die Prästabilisierung erfolgreich über eine Kern-Mantel-Struktur in nicht-thermoplastische Fasern überführt werden. Zur Ermittlung eines geeigneten Prozessfensters für nachfolgende thermische Beanspruchungen der prästabilisierten Fasern wurden drei Kriterien identifiziert, anhand welcher die Evaluation erfolgte. Das erste Kriterium beinhaltet die Notwendigkeit der vollständigen Aufhebung der thermoplastischen Eigenschaft der Fasern. Als zweites Kriterium diente die Fasermorphologie. Anhand von REM-Aufnahmen wurden Faserbündel mit separierten Einzelfasern ohne Ablagerungen für die nachfolgende Stabilisierung ausgewählt. Das dritte Kriterium bezieht sich auf eine möglichst geringe Umsetzung der Nitrilgruppen, um Prästabilisierungsbedingungen mit Nebenreaktionen zu vermeiden. Aus den Untersuchungen konnte eine Prästabilisierungstemperatur von 60 °C als geeignet identifiziert werden. Weiterhin führen hoch alkalische Zusammensetzungen des Reaktionsmediums mit KOH-Konzentrationen von 1, 1,5 und 2 M, vorzugsweise 1,5 M und 50 vol% DMSO mit Reaktionszeiten von unter 10 min zu geeigneten Fasern. Ein MEA-Anteil unterhalb von 2 mol% bewirkt eine Überführung in die Unschmelzbarkeit. Thermisch stabile und für die nachfolgende Stabilisierung geeignete Fasern besitzen weiterhin 68 – 80 mol% Nitrilgruppen, 20 – 25 mol% Carbonsäuren, bis zu 15 mol% primäre Carbonsäureamide und zyklisierte Strukturen. N2 - Carbon fibers have been established in the aerospace industry and gain more importance for daily applications such as in the automotive, wind power or sport sector because of their high tensile strength, high modulus and low density. The high costs of carbon fibers arises from the precursor synthesis and especially from the precursor spinning using wet-spinning, which leads to an increasing interest in alternative and in meltspinable materials as precursors. Polyacrylonitrile (PAN) is used as precursor for carbon fiber manufacture and shows irreversible exothermic cyclic reactions before melting, followed by its decomposition. One possibility to decrease its melting temperature is the use of co-monomers increasing the free volume und reducing the intermolecular interactions acting as internal plasticizers. The Fraunhofer IAP developed a meltspinable PAN-based material with 2-methoxyethylacrylate as co-monomer resulting in new PAN-co-MEA precursor fibers. To use the PAN-co-MEA precursor for carbon fiber production, the thermoplastic fibers have to be converted into non-meltable ones. Therefor a new process step was included named prestabilization, which leads to a scission of the co-monomer side chain. The specific timescale and kinetics of the new process step of prestabilization under alkaline conditions as well as the side reactions are still unclear. Furthermore, a specific parameter set for prestabilization is needed. For this, the prestabilization was converted into laboratory scale. The reaction medium consists of DMSO and a KOH solution, which were varied in concentration to determine a suitable composition of the reaction medium. Further varied parameters were the reaction time with a maximum of 30 min and a temperature of 40, 50 and 60 °C. The chemical structure changes were primarily determined via NMR spectroscopy. For the study of the alkaline ester hydrolysis of the co-monomer resulting in the cleavage of the side chain, 1H-NMR spectroscopic analysis was used. For the chemical and physical structure changes during the prestabilization a model was proposed. The first reaction is the ester hydrolysis from fiber edge to interior initiated by the superbase composed of DMSO and KOH solution. The chronological sequence of MEA reduction can be subdivided in three areas. The first area from the beginning of prestabilization is characterized by the diffusion of the basic anions in the fiber. In the second area the reaction of the ester hydrolysis takes place which can be fitted in this area by a reaction of pseudo 1. order. The third area is characterized by reaction of the last co-monomers and the diffusion of the products out of the fiber. At 50 °C compared to the reaction, the diffusion of the anions into the fiber is a secondary effect. An increase in temperature to 60 °C shifts the diffusion/reaction balance to a higher reaction velocity. The side reactions were detected via 13C-CP/MAS-NMR spectroscopy, elemental analysis and measurements of the birefringence. During the alkaline ester hydrolysis, the nitrile groups reacted to primary carbon acid amides and afterwards to carbon acids. This reaction path was described via a new developed technique consisting of the addition of 13C-CP/MAS-NMR spectra of model substances PAN, PAM and PAA. Further side reactions were the generation of conjugated double bonds, which indicate cyclization. The wet-chemical initiated cyclization of the nitrile groups could lead to shorter stabilization times und a more controllable stabilization process because of less heat release and in the end it could lead to a less expensive process. The sum of overall nitrile reactions could be described with a reaction of pseudo 1. order. The ester hydrolysis is initiated because of the presence of DMSO but the reaction velocity of the ester hydrolysis and the hydrolysis of nitrile groups are more influenced by the KOH concentration than by the DMSO concentration. Both reactions show a similar dependence on temperature. Low-molecular weight components of the precursor migrate out of the fiber to the surface to form punctual deposits with increasing prestabilization time and concentration. These deposits contain chlorine from the washing process with HCl which was reduced with optimized parameters. Because of changed chemical structure with increasing carbon acids the fiber swells and leads to interconnected single fibers without deposits. The meltable fibers were successfully converted to non-meltable ones via a core-shell structure. To determine a suitable parameter set of the prestabilization for the subsequent thermal processing step of stabilization, three criteria were identified. The first necessary criterion denotes the thermal stability of the fibers. The second criterion is an unchanged or insignificant changed fiber morphology, respectively. Via the evaluation of SEM images fiber morphologies without deposits and without interconnected single fibers were chosen for a suitable parameter set for subsequent stabilization. The third criterion was a low conversion of the nitrile groups to have precursors with low amount of side reactions. The investigations lead to a temperature for prestabilization of 60 °C. Furthermore, reaction media with a high alkaline content of 1, 1.5 and 2 M KOH, especially 1.5 M KOH, with 50 vol% DMSO and reaction times of less than 10 min result in suitable fibers. The MEA content should be less than 2 mol% to convert the meltable in non-meltable fibers. Thermal stable and for the stabilization suitable fibers also contain 68 – 80 mol% nitrile groups, 20 - 25 mol% carbon acids, up to 15 mol% primary carbon acid amides and cyclic structures. KW - Carbonfaser Herstellung KW - carbon fiber manufacture KW - Prästabilisierung KW - Hydrolyse KW - PAN KW - Precursor KW - NMR KW - prestabilization KW - hydrolysis KW - PAN KW - precursor KW - NMR Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469301 ER - TY - THES A1 - Thiede, Tobias T1 - A multiscale analysis of additively manufactured lattice structures T1 - Multiskalige Analyse von Additiv Gefertigten Gitterstrukturen N2 - Additive Manufacturing (AM) in terms of laser powder-bed fusion (L-PBF) offers new prospects regarding the design of parts and enables therefore the production of lattice structures. These lattice structures shall be implemented in various industrial applications (e.g. gas turbines) for reasons of material savings or cooling channels. However, internal defects, residual stress, and structural deviations from the nominal geometry are unavoidable. In this work, the structural integrity of lattice structures manufactured by means of L-PBF was non-destructively investigated on a multiscale approach. A workflow for quantitative 3D powder analysis in terms of particle size, particle shape, particle porosity, inter-particle distance and packing density was established. Synchrotron computed tomography (CT) was used to correlate the packing density with the particle size and particle shape. It was also observed that at least about 50% of the powder porosity was released during production of the struts. Struts are the component of lattice structures and were investigated by means of laboratory CT. The focus was on the influence of the build angle on part porosity and surface quality. The surface topography analysis was advanced by the quantitative characterisation of re-entrant surface features. This characterisation was compared with conventional surface parameters showing their complementary information, but also the need for AM specific surface parameters. The mechanical behaviour of the lattice structure was investigated with in-situ CT under compression and successive digital volume correlation (DVC). The deformation was found to be knot-dominated, and therefore the lattice folds unit cell layer wise. The residual stress was determined experimentally for the first time in such lattice structures. Neutron diffraction was used for the non-destructive 3D stress investigation. The principal stress directions and values were determined in dependence of the number of measured directions. While a significant uni-axial stress state was found in the strut, a more hydrostatic stress state was found in the knot. In both cases, strut and knot, seven directions were at least needed to find reliable principal stress directions. N2 - Das Laserstrahlschmelzen (L-PBF) als Prozess im Bereich der Additiven Fertigung (AM) ermöglicht ein neuartiges Bauteildesign und somit auch die Produktion von komplexen Gitterstrukturen, welche Materialeinsparungen und effizientere Kühlsysteme erlauben und daher für verschiedene industrielle Anwendungen (z.B. Gasturbinen) geeignet sind. Interne Defekte, Eigenspannungen und geometrische Abweichungen von der Soll-Geometrie sind jedoch unvermeidbar. Im Rahmen dieser Arbeit wird die strukturelle Integrität von L-PBF gefertigten Gitterstrukturen zerstörungsfrei auf verschiedenen Größenskalen untersucht. Eine Auswerteroutine für dreidimensionale quantitative Pulvercharakterisierung hinsichtlich der Partikelgröße, der -form, der -porosität, des Interpartikelabstands und der Packungsdichte wurde entwickelt. Synchrotron Computertomographie (CT) wurde für die Korrelation der Packungsdichte mit der Partikelgröße und -form genutzt. Darüber hinaus konnte festgestellt werden, dass mindestens 50% der Porosität aus den Pulverpartikel während der Herstellung der Streben mittels L-PBF gelöst wurde. Streben sind die Grundbausteine der Gitterstrukturen und wurden mit industrieller CT untersucht. Dabei lag der Fokus auf dem Einfluss des Bauwinkels auf die Strebenporosität und -oberflächenqualität. Die Analyse der Oberflächentopographie wurde hinsichtlich einer quantitativen Analyse von sogenannten re-entrant features erweitert. Der Vergleich dieser Auswertung mit konventionellen Oberflächenparametern offenbarte sowohl deren Komplementarität also auch den Bedarf an neuen AM-spezifischen Oberflächenparametern. In-situ CT Versuche mit anschließender digitaler Volumenkorrelation (DVC) erlaubte die Gitterstruktur bezüglich des mechanischen Verhaltens unter Druckspannung zu bewerten. Aufgrund einer schichtweisen Faltung der Einheitszellen konnte dabei das Versagensverhalten als knoten-dominiert identifiziert werden. Mittels Neutronenbeugung konnten Eigenspannungen in solchen Gitterstrukturen erstmalig experimentell bestimmt werden. Dabei wurden sowohl die Hauptspannungsrichtungen als auch die -beträge in Abhängigkeit von der Anzahl der gemessenen Spannungsrichtungen bestimmt. Während in der Strebe ein signifikanter uni-axialer Spannungszustand nachgewiesen wurde, zeigte der Knotenpunkt einen hydrostatischeren Spannungszustand. Sowohl im Falle der Strebe als auch des Knotenpunkts waren mindestens sieben gemessene Spannungsrichtungen nötig, um die Hauptspannungsrichtungen verlässlich zu ermitteln. KW - additive manufacturing KW - laser powder bed fusion KW - computed tomography KW - neutron diffraction KW - in-situ testing KW - residual stress KW - roughness KW - powder particle analysis KW - additive Fertigung KW - Laserstrahlschmelzen KW - Computertomographie KW - Neutronendiffraktion KW - In-situ Experimente KW - Eigenspannung KW - Rauheit KW - Pulverpartikelanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470418 ER - TY - THES A1 - Farhy, Yael T1 - Universals and particulars in morphology T1 - Universalien und Einzelheiten in der Morphologie BT - processing and generalization in native and non-native speakers of Hebrew BT - Verarbeitung und Generalisierung bei hebräischen Muttersprachlern und Nicht-Muttersprachlern N2 - For many years, psycholinguistic evidence has been predominantly based on findings from native speakers of Indo-European languages, primarily English, thus providing a rather limited perspective into the human language system. In recent years a growing body of experimental research has been devoted to broadening this picture, testing a wide range of speakers and languages, aiming to understanding the factors that lead to variability in linguistic performance. The present dissertation investigates sources of variability within the morphological domain, examining how and to what extent morphological processes and representations are shaped by specific properties of languages and speakers. Firstly, the present work focuses on a less explored language, Hebrew, to investigate how the unique non-concatenative morphological structure of Hebrew, namely a non-linear combination of consonantal roots and vowel patterns to form lexical entries (L-M-D + CiCeC = limed ‘teach’), affects morphological processes and representations in the Hebrew lexicon. Secondly, a less investigated population was tested: late learners of a second language. We directly compare native (L1) and non-native (L2) speakers, specifically highly proficient and immersed late learners of Hebrew. Throughout all publications, we have focused on a morphological phenomenon of inflectional classes (called binyanim; singular: binyan), comparing productive (class Piel, e.g., limed ‘teach’) and unproductive (class Paal, e.g., lamad ‘learn’) verbal inflectional classes. By using this test case, two psycholinguistic aspects of morphology were examined: (i) how morphological structure affects online recognition of complex words, using masked priming (Publications I and II) and cross-modal priming (Publication III) techniques, and (ii) what type of cues are used when extending morpho-phonological patterns to novel complex forms, a process referred to as morphological generalization, using an elicited production task (Publication IV). The findings obtained in the four manuscripts, either published or under review, provide significant insights into the role of productivity in Hebrew morphological processing and generalization in L1 and L2 speakers. Firstly, the present L1 data revealed a close relationship between productivity of Hebrew verbal classes and recognition process, as revealed in both priming techniques. The consonantal root was accessed only in the productive class (Piel) but not the unproductive class (Paal). Another dissociation between the two classes was revealed in the cross-modal priming, yielding a semantic relatedness effect only for Paal but not Piel primes. These findings are taken to reflect that the Hebrew mental representations display a balance between stored undecomposable unstructured stems (Paal) and decomposed structured stems (Piel), in a similar manner to a typical dual-route architecture, showing that the Hebrew mental lexicon is less unique than previously claimed in psycholinguistic research. The results of the generalization study, however, indicate that there are still substantial differences between inflectional classes of Hebrew and other Indo-European classes, particularly in the type of information they rely on in generalization to novel forms. Hebrew binyan generalization relies more on cues of argument structure and less on phonological cues. Secondly, clear L1/L2 differences were observed in the sensitivity to abstract morphological and morpho-syntactic information during complex word recognition and generalization. While L1 Hebrew speakers were sensitive to the binyan information during recognition, expressed by the contrast in root priming, L2 speakers showed similar root priming effects for both classes, but only when the primes were presented in an infinitive form. A root priming effect was not obtained for primes in a finite form. These patterns are interpreted as evidence for a reduced sensitivity of L2 speakers to morphological information, such as information about inflectional classes, and evidence for processing costs in recognition of forms carrying complex morpho-syntactic information. Reduced reliance on structural information cues was found in production of novel verbal forms, when the L2 group displayed a weaker effect of argument structure for Piel responses, in comparison to the L1 group. Given the L2 results, we suggest that morphological and morphosyntactic information remains challenging for late bilinguals, even at high proficiency levels. N2 - Diese Dissertation untersucht, wie die morphologische Verarbeitung und Generalisierung von der Sprache und den Sprechern beeinflusst werden. Die Arbeit fokussiert sich auf die hebräische Sprache und analysiert, wie ihre ungewöhnliche, nicht-verkettende morphologische Struktur, die die Kombination von Wurzelkonsonanten und Vokalmustern umfasst (z. B. L-M-D + CiCeC = limed ‚beibringen‘), die Organisation von komplexen Repräsentationen im mentalen Lexikon beeinflusst. Dieser Aspekt wird im Hinblick auf zwei Sprechergruppen betrachtet: hebräische Muttersprachler und Nicht-Muttersprachler, die aber ein hohes Sprachniveau erworben haben. Alle vier Publikationen der Dissertation behandeln das morphologische Phänomen von Flexionsklassen in Verben (auf Hebräisch: binyanim) und vergleichen eine produktive Klasse und eine unproduktive Klasse mithilfe von empirischen Methoden wie Worterkennung mit Priming und Produktion von neuartigen Wörtern. Die Ergebnisse zeigten erstens eine enge Verbindung zwischen der Produktivität einer Klasse und Worterkennungsprozessen, wie dies auch in anderen indoeuropäischen Sprachen der Fall ist, in denen die Erkennung von produktiven morphologischen Schemata (z. B. gefragt) durch eine Dekomposition von Wortbestandteilen ausgeführt wird. Die Erkennung von unproduktiven morphologischen Schemata (z. B., geschlafen) wird jedoch nicht durch eine Dekomposition ausgeführt. In Bezug darauf ergaben die Ergebnisse der Produktionsstudie jedoch, dass es einen Unterschied zwischen dem hebräischen und indoeuropäischen Sprachen gibt, besonders in der Art der Information, auf die die Sprecher sich verlassen, wenn sie neue Wörter formulieren. In einem zweiten Ergebnis wurden bedeutende Unterschiede zwischen Muttersprachlern und Nicht-Muttersprachlern hinsichtlich Worterkennung und Produktion beobachtet. Beide Experimente wiesen eine eingeschränkte Sensitivität der Nicht-Muttersprachler für abstrakte morphologische und morpho-syntaktische Informationen nach. KW - psycholinguistics KW - morphology KW - Hebrew KW - second language KW - Psycholinguistik KW - Morphologie KW - Hebräisch KW - Nicht-Muttersprachler Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470033 ER - TY - THES A1 - Stutter Garcia, Ana T1 - The use of grammatical knowledge in an additional language T1 - Die Verwendung des grammatischen Wissens in einer weiteren Fremdsprache BT - effects of native and non-native linguistic constraints BT - der Effekt von muttersprachlichen und nicht-muttersprachlichen linguistischen Beschränkungen N2 - This thesis investigates whether multilingual speakers’ use of grammatical constraints in an additional language (La) is affected by the native (L1) and non-native grammars (L2) of their linguistic repertoire. Previous studies have used untimed measures of grammatical performance to show that L1 and L2 grammars affect the initial stages of La acquisition. This thesis extends this work by examining whether speakers at intermediate levels of La proficiency, who demonstrate mature untimed/offline knowledge of the target La constraints, are differentially affected by their L1 and L2 knowledge when they comprehend sentences under processing pressure. With this purpose, several groups of La German speakers were tested on word order and agreement phenomena using online/timed measures of grammatical knowledge. Participants had mirror distributions of their prior languages and they were either L1English/L2Spanish speakers or L1Spanish/L2English speakers. Crucially, in half of the phenomena the target La constraint aligned with English but not with Spanish, while in the other half it aligned with Spanish but not with English. Results show that the L1 grammar plays a major role in the use of La constraints under processing pressure, as participants displayed increased sensitivity to La constraints when they aligned with their L1, and reduced sensitivity when they did not. Further, in specific phenomena in which the L2 and La constraints aligned, increased L2 proficiency resulted in an enhanced sensitivity to the La constraint. These findings suggest that both native and non-native grammars affect how speakers use La grammatical constraints under processing pressure. However, L1 and L2 grammars differentially influence on participants’ performance: While L1 constraints seem to be reliably recruited to cope with the processing demands of real-time La use, proficiency in an L2 can enhance sensitivity to La constraints only in specific circumstances, namely when L2 and La constraints align. N2 - In dieser Dissertation wird untersucht, ob mehrsprachige Personen, wenn sie grammatikalische Beschränkungen in einer zusätzlichen Sprache (La) verarbeiten, von ihrer Muttersprache (L1) und/oder ihrer Nicht-Muttersprache (L2) beeinflusst werden. Frühere Studien haben durch Messungen ohne Zeitangabe (offline Messungen) der grammatikalischen Leistung gezeigt, dass die L1- und L2-Grammatik die Anfangsstadien des La-Spracherwerbs beeinflusst. In dieser Dissertation wird diese Arbeit auf zweierlei Weise erweitert. Einerseits wird untersucht, ob die L1- und L2-Grammatik die La auf unterschiedliche Weise beeinflusst, wenn mehrsprachige Personen La Sätze unter Druck verarbeiten müssen. Anderseits werden in der Dissertation nur Personen mit mittleren La-Kenntnissen getestet, die ausgereifte Kenntnisse über die getesteten La Phänomene in offline Messungen vorwiesen. Zu diesem Zweck wurden mehrere Gruppen von La Deutschsprachlern auf Wortreihenfolgen- und Konkordanz-Phänomene getestet, wobei online Messungen der grammatikalischen Fähigkeiten verwendet wurden. Die Teilnehmer waren entweder L1Englisch / L2Spanisch oder L1Spanisch / L2Englisch Sprecher. Entscheidend ist, dass die Hälfte der getesteten Beschränkungen auf Englisch, aber nicht auf Spanisch ausgerichtet war, während die andere Hälfte wiederum auf Spanisch, aber nicht auf Englisch ausgerichtet war. Die Ergebnisse zeigen, dass die L1-Grammatik eine wichtige Rolle bei der Verarbeitung von La-Beschränkungen unter Zeitdruck spielt. Die Teilnehmer zeigten eine erhöhte Sensibilität gegenüber La-Beschränkungen, wenn diese mit ihrer eigenen L1 übereinstimmten. Eine verringerte Sensibilität zeigt sich wiederum, wenn die Übereinstimmung nicht vorliegt. Ferner führte eine erhöhte L2-Kompetenz, unter bestimmten Beschränkungen, bei denen die L2 und La übereinstimmen, zu einer erhöhten Sensibilität gegenüber der La-Beschränkung. Diese Ergebnisse legen nahe, dass sowohl die muttersprachliche als auch die nicht muttersprachliche Grammatik die Verwendung von La Beschränkungen unter Verarbeitungsdruck beeinflusst. L1- und L2-Grammatik wirkt sich jedoch unterschiedlich auf die Leistungen der Teilnehmer aus. Während die L1 Grammatik zuverlässig angewendet wird, um den Verarbeitungsanforderungen der Echtzeit La-Verwendung gerecht zu werden, kann die Kenntnis einer L2 die Sensibilität gegenüber La-Beschränkungen nur unter bestimmten Umständen verbessern. Nämlich dann wenn die L2- und La-Beschränkungen parallel ausgerichtet sind. KW - additional language KW - cross-linguistic influence KW - multilingualism KW - grammatical knowledge KW - zusätzliche Sprache KW - sprachübergreifender Einfluss KW - Multilingualität KW - Grammatikkenntnisse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469326 ER - TY - THES A1 - Guislain, Alexis T1 - Eco-physiological consequences of fluctuating light on phytoplankton T1 - Ökophysiologische Konsequenzen von fluktuierendem Licht auf das Phytoplankton N2 - Phytoplankton growth depends not only on the mean intensity but also on the dynamics of the light supply. The nonlinear light-dependency of growth is characterized by a small number of basic parameters: the compensation light intensity PARcompμ, where production and losses are balanced, the growth efficiency at sub-saturating light αµ, and the maximum growth rate at saturating light µmax. In surface mixed layers, phytoplankton may rapidly move between high light intensities and almost darkness. Because of the different frequency distribution of light and/or acclimation processes, the light-dependency of growth may differ between constant and fluctuating light. Very few studies measured growth under fluctuating light at a sufficient number of mean light intensities to estimate the parameters of the growth-irradiance relationship. Hence, the influence of light dynamics on µmax, αµ and PARcompμ are still largely unknown. By extension, accurate modelling predictions of phytoplankton development under fluctuating light exposure remain difficult to make. This PhD thesis does not intend to directly extrapolate few experimental results to aquatic systems – but rather improving the mechanistic understanding of the variation of the light-dependency of growth under light fluctuations and effects on phytoplankton development. In Lake TaiHu and at the Three Gorges Reservoir (China), we incubated phytoplankton communities in bottles placed either at fixed depths or moved vertically through the water column to mimic vertical mixing. Phytoplankton at fixed depths received only the diurnal changes in light (defined as constant light regime), while phytoplankton received rapidly fluctuating light by superimposing the vertical light gradient on the natural sinusoidal diurnal sunlight. The vertically moved samples followed a circular movement with 20 min per revolution, replicating to some extent the full overturn of typical Langmuir cells. Growth, photosynthesis, oxygen production and respiration of communities (at Lake TaiHu) were measured. To complete these investigations, a physiological experiment was performed in the laboratory on a toxic strain of Microcystis aeruginosa (FACBH 1322) incubated under 20 min period fluctuating light. Here, we measured electron transport rates and net oxygen production at a much higher time resolution (single minute timescale). The present PhD thesis provides evidence for substantial effects of fluctuating light on the eco-physiology of phytoplankton. Both experiments performed under semi-natural conditions in Lake TaiHu and at the Three Gorges Reservoir gave similar results. The significant decline in community growth efficiencies αµ under fluctuating light was caused for a great share by different frequency distribution of light intensities that shortened the effective daylength for production. The remaining gap in community αµ was attributed to species-specific photoacclimation mechanisms and to light-dependent respiratory losses. In contrast, community maximal growth rates µmax were similar between incubations at constant and fluctuating light. At daily growth saturating light supply, differences in losses for biosynthesis between the two light regimes were observed. Phytoplankton experiencing constant light suffered photo-inhibition - leading to photosynthesis foregone and additional respiratory costs for photosystems repair. On the contrary, intermittent exposure to low and high light intensities prevented photo-inhibition of mixed algae but forced them to develop alternative light strategy. They better harvested and exploited surface irradiance by enhancing their photosynthesis. In the laboratory, we showed that Microcystis aeruginosa increased its oxygen consumption by dark respiration in the light few minutes only after exposure to increasing light intensities. More, we proved that within a simulated Langmuir cell, the net production at saturating light and the compensation light intensity for production at limiting light are positively related. These results are best explained by an accumulation of photosynthetic products at increasing irradiance and mobilization of these fresh resources by rapid enhancement of dark respiration for maintenance and biosynthesis at decreasing irradiance. At the daily timescale, we showed that the enhancement of photosynthesis at high irradiance for biosynthesis of species increased their maintenance respiratory costs at limiting light. Species-specific growth at saturating light µmax and compensation light intensity for growth PARcompμ of species incubated in Lake TaiHu were positively related. Because of this species-specific physiological tradeoff, species displayed different light affinities to limiting and saturating light - thereby exhibiting a gleaner-opportunist tradeoff. In Lake TaiHu, we showed that inter-specific differences in light acquisition traits (µmax and PARcompμ) allowed coexis¬tence of species on a gradient of constant light while avoiding competitive exclusion. More interestingly we demonstrated for the first time that vertical mixing (inducing fluctuating light supply for phytoplankton) may alter or even reverse the light utilization strategies of species within couple of days. The intra-specific variation in traits under fluctuating light increased the niche space for acclimated species, precluding competitive exclusion. Overall, this PhD thesis contributes to a better understanding of phytoplankton eco-physiology under fluctuating light supply. This work could enhance the quality of predictions of phytoplankton development under certain weather conditions or climate change scenarios. N2 - Das Wachstum von Phytoplankton hängt ab nicht nur von der mittleren Intensität, sondern auch von der Dynamik des verfügbaren Lichts. Die nicht-lineare Lichtabhängigkeit des Wachstums kann durch drei Parameter beschrieben werden: die Kompensationslichtintensität PARcompµ, bei der Bruttoproduktion und Verluste gleich sind, die Wachstumseffizienz bei Lichtlimitation αµ und die maximale Wachstumsrate bei sättigendem Licht µmax. In durchmischten Schichten nahe der Gewässeroberfläche kann das Phytoplankton innerhalb weniger Minuten zwischen Starklicht und nahezu völliger Dunkelheit bewegt werden. Durch die unterschiedliche Häufigkeitsverteilung der Lichtintensitäten und/oder unterschiedliche Anpassungen kann die Lichtabhängigkeit des Wachstums sich bei fluktuierendem Licht von dem bei konstantem Licht unterscheiden. Bislang wurde die Lichtabhängigkeit des Wachstums bei fluktuierendem Licht nur in sehr wenigen Studien für genügend viele Lichtintensitäten gemessen, um die genannten Parameter bestimmen zu können. Entsprechend ist der Einfluss der Lichtdynamik auf die Parameter der Wachstums-Licht-Beziehung noch weitgehend unbekannt. Dies beeinträchtigt auch die Zuverlässigkeit von Modellaussagen zur Phytoplanktondynamik unter Durchmischungsbedingungen. In dieser Dissertation sollen die experimentell gewonnenen Ergebnisse nicht auf ganze Ökosysteme extrapoliert werden; Ziel ist vielmehr ein verbessertes Verständnis der Prozesse, die die Lichtabhängigkeit des Phytoplanktonwachstums unter dynamischen Lichtbedingungen steuern. Hierzu wurden im Tai-See und im Dreischluchten-Stausee (China) Experimente mit Phytoplanktongemeinschaften durchgeführt. Es wurden Proben entweder in konstanten Tiefen exponiert oder mit Liften vertikal zwischen Wasseroberfläche und verschiedenen Tiefen bewegt. Während das Lichtangebot in konstanten Tiefen nur dem Tagesgang der Globalstrahlung folgte (hier als konstantes Licht bezeichnet), war das Phytoplankton in den bewegten Proben zusätzlich raschen Lichtfluktuationen ausgesetzt. Mit der Liftbewegung wurden mittlere Bedingungen in den Außenbahnen von Langmuir-Zellen simuliert, wobei eine Umlaufzeit von 20 Minuten gewählt wurde. Es wurden Wachstum, Photosynthese und (im Tai-See) Respiration gemessen. Zusätzlich wurde in Laborversuchen mit einem toxischen Stamm des Cyanobakteriums Microcystis aeruginosa (FACBH 1322) unter fluktuierendem und konstantem Licht Elektronentransportraten sowie Produktion und Verbrauch von Sauerstoff mit höherer zeitlicher Auflösung (1 min) gemessen. Die Ergebnisse der vorliegenden Dissertation demonstrieren bedeutsame Effekte von Lichtfluktuationen auf die Ökophysiologie von Phytoplankton. Die Experimente unter halb-natürlichen Bedingungen im Tai-See und im Dreischluchten-Stausee zeigten ähnliche Muster. Die Wachstumseffizienz der Gemeinschaften nahm durch fluktuierendes Licht deutlich ab, überwiegend durch die veränderte Häufigkeitsverteilung der Lichtintensitäten, die zu verkürzten effektiven Taglängen führte. Zudem verringerten artspezifische Anpassungsmechanismen und lichtabhängige Verluste durch Respiration die Wachstumseffizienz bei fluktuierendem Licht. Die maximalen Wachstumsraten der Gemeinschaft unterschieden sich hingegen nicht zwischen den Ansätzen mit konstantem und fluktuierendem Licht. Bei Lichtsättigung des Wachstums unterschieden sich die Aufwendungen für die Biosynthese zwischen den beiden Lichtregimen. Unter konstantem Starklicht wurden die Photosynthese gehemmt und die Respiration zur Reparatur der Photosysteme erhöht. Fluktuierendes Licht hingegen vermied Lichthemmung, zwang die vertikal bewegten Algen aber zu alternativen Strategien der Lichtnutzung. Durch eine erhöhte Photosynthesekapazität konnten sie Starklicht nahe der Wasseroberfläche besser nutzen. Microcystis aeruginosa verbrauchte im Labor mehr Sauerstoff durch Respiration bei abnehmenden Lichtintensitäten kurz nach Starklicht. Innerhalb eines Lichtzyklus von 20 min stieg die Kompensationslichtintensität mit steigender Nettoproduktion bei Lichtsättigung. Diese Beobachtungen sind am besten durch eine Anreicherung von Photosyntheseprodukten bei ansteigender Lichtintensität und deren sofortige verstärkte Respiration für Erhaltungsumsatz und Biosynthese bei abnehmender Lichtintensität erklärbar. Im Tagesmittel führte eine verstärkte Photosynthese bei Lichtsättigung zu erhöhter Respiration bei Schwachlicht. Die Kompensationslichtintensitäten dominanter Arten im Tai-See stiegen mit deren artspezifischen maximalen Wachstumsraten. Durch diesen artspezifischen physiologischen Kompromiss unterschieden sich die dominanten Arten im See bezüglich ihrer Lichtoptima. Unterschiedliche Strategien der Lichtnutzung (höhere maximale Wachstumsraten oder niedrigere Lichtansprüche) ermöglichten die Koexistenz verschiedener Arten entlang eines Gradienten der Intensität konstanten Lichts im Tai-See. Durch vertikale Durchmischung änderten sich die Strategien der Lichtnutzung innerhalb weniger Tage komplett. Die unterschiedlichen Anpassungsstrategien an fluktuierendes Licht vergrößerten die ökologischen Nischen der dominanten Arten und verhinderten ihre gegenseitige Verdrängung. Insgesamt trägt diese Dissertation zum besseren Verständnis der Ökophysiologie von Phytoplankton unter Durchmischungsbedingungen bei. Dadurch werden verlässlichere Prognosen der Phytoplanktonentwicklung möglich, kurzzeitig in Kombination mit Wettervorhersagen und über lange Zeiträume durch Kopplung mit Klimaszenarien. KW - Lake TaiHu KW - Three Gorges reservoir KW - functional traits KW - tradeoff KW - fluctuating light KW - pPhytoplankton photoacclimation KW - effective daylength KW - photosynthesis KW - respiration KW - niche partitioning KW - non-equilibrium coexistence KW - TaiHu KW - Dreischluchten-Stausee KW - funktionelle Eigenschaften KW - Zielkonflikte KW - fluktuierendes Licht KW - Lichtanpassung KW - Photosynthese KW - Respiration KW - Nischen-Aufteilung KW - Koexistenz unter wechselnden Bedingungen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469272 ER - TY - THES A1 - Messi, Hugues Urbain Patrick T1 - Les sources du savoir - l’expression de l’inférence en Français T1 - The expression of inference in French T1 - Der Ausdruck der Inferenz auf Französisch BT - analyse sémantico-pragmatique et rhétorico-syntaxique Sur la base d’un corpus écrit de la langue écrite BT - a semantic-pragmatic and rhetoric-syntaxic Analyser based on a corpus of french written langage BT - eine semantisch-pragmatisch und rhetorisch-syntaktische Analyse basierend auf einem Korpus der geschriebenen Sprache N2 - 1. Unter Mediativität verstehen wir in dieser Dissertation die sprachliche Markierung der Informationsquelle. Ein Sprecher, der einen Sachverhalt vermittelt, hat die Möglichkeit durch sprachliche Mittel ausdrücklich zu markieren, wie er die übermittelte Information bekommen hat. Um diese Informationsquelle sprachlich zu deuten, werden im Französischen unter anderem einige Verben als mediative Marker (MM) verwendet. 2. Die untersuchten Elemente croire, imaginer, paraitre, penser, savoir, sembler, supposer, trouver sind „mediatiave Verben“. Jedes der untersuchten Verben weist besondere semantische und pragmatische Eigenschaften auf, die immer mit dem Ausdruck der Wissensquelle verbunden sind. Es handelt sich also um kognitive Verben (KV), die eine sprachliche Markierung der Informationsquelle vornehmen. Nach ihrem Verhalten in solchen Kontexten erfüllen sie die Funktion der „mediatiaven Markierung“. 3. Die epistemische Modalität ist der Meditivität untergeordnet. Die Erscheinungsform der Modalität (Modalitätstyp) bestimmt die Stärke der epistemischen Modalität. Keines der analysierten Verben drückt lediglich eine epistemische Leseart aus. Die Dichotomie zwischen der mediativen und epistemischen Modalität besteht darin, dass die erste die Wissensquelle ausdrückt und die zweite ausschließlich die Einstellung des Sprechers gegenüber dem Wahrheitsgrad der Äußerung widerspiegelt. 4. Für alle Konstruktionen der Form [V/øP] oder [V, P] ist P die Matrix des Satzes Unsere Ergebnisse zeigen, dass – obwohl diese Konstituenten verschiedene Stellen besetzen können – sie dennoch ihre Funktionen als Matrix behalten, indem sie die Propositionen, auf die sie sich beziehen, unter ihrer Rektion behalten. 5. Die Konstruktion [V/øP] und [V, P] stehen in freien Variation Da sich der Wechsel in einem vergleichbaren Kontext vollzieht, und da es in gleicher Umgebung eine freie Substitution gibt, handelt es sich bei den beiden Vorkommen [V/øP] und [V, P] um syntaktische Varianten. 6. Der Konditional-Gebrauch dient hauptsächlich dazu, die Inferenztypen zu unterscheiden und gleichzeitig die zugrundeliegende Polyphonie zu verdeutlichen. Der Gebrauch des Konditionals drückt aus, dass es sich nicht um eine zuverlässig zutreffende Äußerung handelt. Der Ausdruck von Zweifeln kann im Französischen unter Verwendung spezifischer grammatischer Mittel erfolgen. Zu diesen gehört der Konditional zum Ausdruck der Mitigation (des Zweifels, der Reserviertheit usw.) und der Polyphonie. N2 - L’extériorisation de toute communication est assujettie à un mode d’accès du locuteur aux informations véhiculées. Les constatations faites de nos données prouvent que tous les huit verbes étudiés traduisent des mécanismes d’acquisition des connaissances que nous avons appelés en emprunt à (Vogeleer, 1995 :92) « l’accès cognitif au savoir ». C’est cette valeur intrinsèque qui vaut à ces termes la dénomination de verbes médiatifs. En d’autres mots, ce sont des éléments qui explicitent des processus d’accès du locuteur au savoir. Une source du savoir qui peut être directe (la vue, le touché, l’ouïe, l’odorat…) ou indirecte (ouï-dire) et surtout inférée. Nous entendons par inférence un processus d’analyse et de mise en relation d’éléments (prémisses), lesquelles permettent de tirer une conclusion par déduction, induction ou par abduction. Et selon que lesdites prémisses tendent à être plus ou moins fiables, ces processus inférentiels impliqueront des valeurs épistémiques à des degrés divers. Sur le plan rhétorico-syntaxique, nos analyses ont montré tous les verbes cognitifs (VC) de cette étude exigent l’occurrence d’autres constituants (actants) phrastiques qu’ils régissent. C’est grâce à cette valence verbale qu’ils gardent un pouvoir rectionnel dans les constructions asyndétiques. Ce sont donc les matrices des éléments sur lesquels ils se rapportent. Quant au cinétisme de ces verbes, il possède une fonction rhétorique et syntaxique. En effet, cet agencement particulier et souvent perturbant permet de traduire l’expression d’une figure de syntaxe à effet rhétorique : l’hyperbate. Une construction atypique qui, à travers les agencements anticonformistes, donne un sens de regressivité à l’énoncé et confère une saillance à des termes mis ce fait en exergue. KW - médiativité KW - marqueur médiatif KW - verbe cognitif KW - valence verbale KW - hyperbate  KW - inférence  KW - déduction  KW - induction  KW - abduction KW - matrice  KW - proposition principale KW - abduction KW - deduction KW - hyperbate KW - induction KW - inference KW - matrix KW - mediative marker KW - mediativity KW - main proposal KW - verbal valence KW - Abduktion KW - Deduktion KW - Induktion KW - Hyperbaton KW - Inferenz KW - Matrix-Satz KW - mediativer Marker KW - Mediativität KW - Hauptsatz KW - Verb-Valenz Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469612 ER - TY - THES A1 - Crisologo, Irene T1 - Using spaceborne radar platforms to enhance the homogeneity of weather radar calibration T1 - Homogenisierung der Kalibrierung von Niederschlagsradaren mit Hilfe satellitengestützter Radarplattformen N2 - Accurate weather observations are the keystone to many quantitative applications, such as precipitation monitoring and nowcasting, hydrological modelling and forecasting, climate studies, as well as understanding precipitation-driven natural hazards (i.e. floods, landslides, debris flow). Weather radars have been an increasingly popular tool since the 1940s to provide high spatial and temporal resolution precipitation data at the mesoscale, bridging the gap between synoptic and point scale observations. Yet, many institutions still struggle to tap the potential of the large archives of reflectivity, as there is still much to understand about factors that contribute to measurement errors, one of which is calibration. Calibration represents a substantial source of uncertainty in quantitative precipitation estimation (QPE). A miscalibration of a few dBZ can easily deteriorate the accuracy of precipitation estimates by an order of magnitude. Instances where rain cells carrying torrential rains are misidentified by the radar as moderate rain could mean the difference between a timely warning and a devastating flood. Since 2012, the Philippine Atmospheric, Geophysical, and Astronomical Services Administration (PAGASA) has been expanding the country’s ground radar network. We had a first look into the dataset from one of the longest running radars (the Subic radar) after devastating week-long torrential rains and thunderstorms in August 2012 caused by the annual southwestmonsoon and enhanced by the north-passing Typhoon Haikui. The analysis of the rainfall spatial distribution revealed the added value of radar-based QPE in comparison to interpolated rain gauge observations. However, when compared with local gauge measurements, severe miscalibration of the Subic radar was found. As a consequence, the radar-based QPE would have underestimated the rainfall amount by up to 60% if they had not been adjusted by rain gauge observations—a technique that is not only affected by other uncertainties, but which is also not feasible in other regions of the country with very sparse rain gauge coverage. Relative calibration techniques, or the assessment of bias from the reflectivity of two radars, has been steadily gaining popularity. Previous studies have demonstrated that reflectivity observations from the Tropical Rainfall Measuring Mission (TRMM) and its successor, the Global Precipitation Measurement (GPM), are accurate enough to serve as a calibration reference for ground radars over low-to-mid-latitudes (± 35 deg for TRMM; ± 65 deg for GPM). Comparing spaceborne radars (SR) and ground radars (GR) requires cautious consideration of differences in measurement geometry and instrument specifications, as well as temporal coincidence. For this purpose, we implement a 3-D volume matching method developed by Schwaller and Morris (2011) and extended by Warren et al. (2018) to 5 years worth of observations from the Subic radar. In this method, only the volumetric intersections of the SR and GR beams are considered. Calibration bias affects reflectivity observations homogeneously across the entire radar domain. Yet, other sources of systematic measurement errors are highly heterogeneous in space, and can either enhance or balance the bias introduced by miscalibration. In order to account for such heterogeneous errors, and thus isolate the calibration bias, we assign a quality index to each matching SR–GR volume, and thus compute the GR calibration bias as a qualityweighted average of reflectivity differences in any sample of matching SR–GR volumes. We exemplify the idea of quality-weighted averaging by using beam blockage fraction (BBF) as a quality variable. Quality-weighted averaging is able to increase the consistency of SR and GR observations by decreasing the standard deviation of the SR–GR differences, and thus increasing the precision of the bias estimates. To extend this framework further, the SR–GR quality-weighted bias estimation is applied to the neighboring Tagaytay radar, but this time focusing on path-integrated attenuation (PIA) as the source of uncertainty. Tagaytay is a C-band radar operating at a lower wavelength and is therefore more affected by attenuation. Applying the same method used for the Subic radar, a time series of calibration bias is also established for the Tagaytay radar. Tagaytay radar sits at a higher altitude than the Subic radar and is surrounded by a gentler terrain, so beam blockage is negligible, especially in the overlapping region. Conversely, Subic radar is largely affected by beam blockage in the overlapping region, but being an SBand radar, attenuation is considered negligible. This coincidentally independent uncertainty contributions of each radar in the region of overlap provides an ideal environment to experiment with the different scenarios of quality filtering when comparing reflectivities from the two ground radars. The standard deviation of the GR–GR differences already decreases if we consider either BBF or PIA to compute the quality index and thus the weights. However, combining them multiplicatively resulted in the largest decrease in standard deviation, suggesting that taking both factors into account increases the consistency between the matched samples. The overlap between the two radars and the instances of the SR passing over the two radars at the same time allows for verification of the SR–GR quality-weighted bias estimation method. In this regard, the consistency between the two ground radars is analyzed before and after bias correction is applied. For cases when all three radars are coincident during a significant rainfall event, the correction of GR reflectivities with calibration bias estimates from SR overpasses dramatically improves the consistency between the two ground radars which have shown incoherent observations before correction. We also show that for cases where adequate SR coverage is unavailable, interpolating the calibration biases using a moving average can be used to correct the GR observations for any point in time to some extent. By using the interpolated biases to correct GR observations, we demonstrate that bias correction reduces the absolute value of the mean difference in most cases, and therefore improves the consistency between the two ground radars. This thesis demonstrates that in general, taking into account systematic sources of uncertainty that are heterogeneous in space (e.g. BBF) and time (e.g. PIA) allows for a more consistent estimation of calibration bias, a homogeneous quantity. The bias still exhibits an unexpected variability in time, which hints that there are still other sources of errors that remain unexplored. Nevertheless, the increase in consistency between SR and GR as well as between the two ground radars, suggests that considering BBF and PIA in a weighted-averaging approach is a step in the right direction. Despite the ample room for improvement, the approach that combines volume matching between radars (either SR–GR or GR–GR) and quality-weighted comparison is readily available for application or further scrutiny. As a step towards reproducibility and transparency in atmospheric science, the 3D matching procedure and the analysis workflows as well as sample data are made available in public repositories. Open-source software such as Python and wradlib are used for all radar data processing in this thesis. This approach towards open science provides both research institutions and weather services with a valuable tool that can be applied to radar calibration, from monitoring to a posteriori correction of archived data. N2 - Die zuverlässige Messung des Niederschlags ist Grundlage für eine Vielzahl quantitativer Anwendungen. Bei der Analyse und Vorhersage von Naturgefahren wie Sturzfluten oder Hangrutschungen ist dabei die räumliche Trennschärfe der Niederschlagsmessung besonders wichtig, da hier oft kleinräumige Starkniederschläge auslösend sind. Seit dem 2.Weltkrieg gewinnen Niederschlagsradare an Bedeutung für die flächenhafte Erfassung des Niederschlags in hoher raum-zeitlicher Aulösung. Und seit Ende des 20. Jahrhunderts investieren Wetterdienste zunehmend in die Archivierung dieser Beobachtungen. Die quantitative Auswertung solcher Archive gestaltet sich jedoch aufgrund unterschiedlicher Fehlerquellen als schwierig. Eine Fehlerquelle ist die Kalibrierung der Radarsysteme, die entlang der sog. "receiver chain" eine Beziehung zwischen der primären Beobachtungsvariable (der zurückgestreuten Strahlungsleistung) und der Zielvariable (des Radarreflektivitätsfaktors, kurz Reflektivität) herstellt. Die Reflektivität wiederum steht über mehrere Größenordnungen hinweg in Beziehung zur Niederschlagsintensität, so dass bereits kleine relative Fehler in der Kalibrierung große Fehler in der quantitativen Niederschlagsschätzung zur Folge haben können. Doch wie kann eine mangelhafte Kalibrierung nachträglich korrigiert werden? Diese Arbeit beantwortet diese Frage am Beispiel des kürzlich installierten Radarnetzwerks der Philippinen. In einer initialen Fallstudie nutzen wir das S-Band-Radar nahe Subic, welches die Metropolregion Manila abdeckt, zur Analyse eines außergewöhnlich ergiebigen Niederschlagsereignisses im Jahr 2012: Es zeigt sich, dass die radargestützte Niederschlagsschätzung um rund 60% unter den Messungen von Niederschlagsschreibern liegt. Kann die Hypothese einer mangelhaften Kalibrierung bestätigt werden, indem die Beobachtungen des Subic-Radars mit den Messungen exzellent kalibrierter, satellitengestützter Radarsysteme verglichen werden? Kann die satellitengestützte Referenz ggf. sogar für eine nachträgliche Kalibrierung genutzt werden? Funktioniert eine solche Methode auch für das benachbarte C-Band-Radar nahe Tagaytay? Können wir die Zuverlässigkeit einer nachträglichen Kalibrierung erhöhen, indem wir andere systematische Fehlerquellen in den Radarmessungen identifizieren? Zur Beantwortung dieser Fragen vergleicht diese Arbeit die Beobachtungen bodengestützter Niederschlagsradare (GR) mit satellitengestützten Niederschlagsradaren (SR) der Tropical Rainfall Measuring Mission (TRMM) und ihrem Nachfolger, der Global Precipitation Measurement (GPM) Mission. Dazu wird eine Methode weiterentwickelt, welche den dreidimensionalen Überlappungsbereich der Samplingvolumina des jeweiligen Instruments|GR und SR|berücksichtigt. Desweiteren wird jedem dieser Überlappungsbereiche ein Wert für die Datenqualität zugewiesen, basierend auf zwei Unsicherheitsquellen: dem Anteil der Abschattung (engl. beam blockage fraction, BBF) und der pfadintegrierten Dämpfung (engl. path-integrated attenuation, PIA). Die BBF zeigt, welcher Anteil des Radarstrahls von der Geländeoberfläche blockiert wird (je höher, desto niedriger die Qualität). PIA quantifiziert den Energieverlust des Signals, wenn es intensiven Niederschlag passiert (je höher, desto niedriger die Qualität). Entsprechend wird der Bias (also der Kalibrierungsfaktor) als das qualitätsgewichtete Mittel der Differenzen zwischen den GR- und SR-Reflektivitäten (ausgedrückt auf der logarithmischen Dezibelskala) berechnet. Diese Arbeit zeigt, dass beide Radare, Subic und Tagaytay, gerade in den frühen Jahren stark von mangelhafter Kalibrierung betroffen waren. Der Vergleich mit satellitengestützten Messungen erlaubt es uns, diesen Fehler nachträglich zu schätzen und zu korrigieren. Die Zuverlässigkeit dieser Schätzung wird durch die Berücksichtigung anderer systematischer Fehler im Rahmen der Qualitätsgewichtung deutlich erhöht. Dies konnte auch dadurch bestätigt werden, dass nach Korrektur der Kalibierung die Signale im Überlappungsbereich der beiden bodengestützten Radare deutlich konsistenter wurden. Eine Interpolation des Fehlers in der Zeit war erfolgreich, so dass die Radarbeobachtungen auch für solche Tage korrigiert werden können, an denen keine satellitengestützten Beobachtungen verfügbar sind. KW - Niederschlagsradar KW - Kalibrierung KW - Fernerkundung KW - TRMM KW - GPM KW - Philippinen KW - weather radar KW - calibration KW - remote sensing KW - TRMM KW - GPM KW - The Philippines Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445704 ER - TY - THES A1 - Vranic, Marija T1 - 3D Structure of the biomarker hepcidin-25 in its native state T1 - 3D-Struktur des Biomarkers Hepcidin-25 im eigenen nativen Zustand N2 - Hepcidin-25 (Hep-25) plays a crucial role in the control of iron homeostasis. Since the dysfunction of the hepcidin pathway leads to multiple diseases as a result of iron imbalance, hepcidin represents a potential target for the diagnosis and treatment of disorders of iron metabolism. Despite intense research in the last decade targeted at developing a selective immunoassay for iron disorder diagnosis and treatment and better understanding the ferroportin-hepcidin interaction, questions remain. The key to resolving these underlying questions is acquiring exact knowledge of the 3D structure of native Hep-25. Since it was determined that the N-terminus, which is responsible for the bioactivity of Hep-25, contains a small Cu(II)-binding site known as the ATCUN motif, it was assumed that the Hep-25-Cu(II) complex is the native, bioactive form of the hepcidin. This structure has thus far not been elucidated in detail. Owing to the lack of structural information on metal-bound Hep-25, little is known about its possible biological role in iron metabolism. Therefore, this work is focused on structurally characterizing the metal-bound Hep-25 by NMR spectroscopy and molecular dynamics simulations. For the present work, a protocol was developed to prepare and purify properly folded Hep-25 in high quantities. In order to overcome the low solubility of Hep-25 at neutral pH, we introduced the C-terminal DEDEDE solubility tag. The metal binding was investigated through a series of NMR spectroscopic experiments to identify the most affected amino acids that mediate metal coordination. Based on the obtained NMR data, a structural calculation was performed in order to generate a model structure of the Hep-25-Ni(II) complex. The DEDEDE tag was excluded from the structural calculation due to a lack of NMR restraints. The dynamic nature and fast exchange of some of the amide protons with solvent reduced the overall number of NMR restraints needed for a high-quality structure. The NMR data revealed that the 20 Cterminal Hep-25 amino acids experienced no significant conformational changes, compared to published results, as a result of a pH change from pH 3 to pH 7 and metal binding. A 3D model of the Hep-25-Ni(II) complex was constructed from NMR data recorded for the hexapeptideNi(II) complex and Hep-25-DEDEDE-Ni(II) complex in combination with the fixed conformation of 19 C-terminal amino acids. The NMR data of the Hep-25-DEDEDE-Ni(II) complex indicates that the ATCUN motif moves independently from the rest of the structure. The 3D model structure of the metal-bound Hep-25 allows for future works to elucidate hepcidin’s interaction with its receptor ferroportin and should serve as a starting point for the development of antibodies with improved selectivity. N2 - Hepcidin-25 (Hep-25) spielt eine entscheidende Rolle bei der Kontrolle der Eisenhomöostase. Da die Dysfunktion des Hepcidin-Signalweges aufgrund des Eisenungleichgewichts zu mehreren Krankheiten führt, stellt Hepcidin ein potenzielles Ziel für die Diagnose und Behandlung von Störungen des Eisenstoffwechsels dar. Trotz intensiver Forschung in den letzten zehn Jahren, die darauf abzielte, einen selektiven Immunoassay für die Diagnose und Behandlung von Eisenerkrankungen zu entwickeln und die Ferroportin-Hepcidin-Interaktion besser zu verstehen, bleiben Fragen offen. Der Schlüssel zur Lösung dieser grundlegenden Fragen liegt darin, genaue Kenntnisse über die 3D-Struktur des nativen Hep-25 zu erlangen. Da festgestellt wurde, dass der N-Terminus, der für die Bioaktivität von Hep-25 verantwortlich ist, eine kleine Cu(II)-Bindungsstelle enthält, die als ATCUN-Motiv bekannt ist, wurde angenommen, dass der Hep-25- Cu(II)-Komplex die native, bioaktive Form des Hepcidins ist. Diese Struktur ist bisher noch nicht im Detail untersucht worden. Aufgrund fehlender Strukturinformationen über metallgebundenes Hep-25 ist wenig über seine mögliche biologische Rolle im Eisenstoffwechsel bekannt. Daher konzentriert sich diese Arbeit auf die strukturelle Charakterisierung des metallgebundenen Hep-25 mittels NMR-Spektroskopie und Molekulardynamik Simulationen. In der vorliegenden Arbeit wurde ein Protokoll zur Präparation und Reinigung von korrekt gefaltetem Hep-25 in hohen Mengen entwickelt. Um das Problem der geringen Löslichkeit von Hep-25 bei neutralem pH-Wert zu überwinden, haben wir einen C-terminalen DEDEDEDE Löslichkeits-Tag eingeführt. Die Metallbindung wurde durch eine Reihe von NMRspektroskopischen Experimenten untersucht, um die Aminosäuren zu identifizieren, welche an der Metallkoordination beteiligt sind. Basierend auf den erhaltenen NMR-Daten wurde eine Strukturberechnung durchgeführt, um eine Modellstruktur des Hep-25-Ni(II)-Komplexes zu erzeugen. Der DEDEDE-Tag wurde aufgrund fehlender NMR- restraints von der Strukturberechnung ausgeschlossen. Die dynamische Natur und der schnelle Austausch eines Teils der Amid-Protonen mit dem Lösungsmittel reduzierten die Gesamtzahl der NMR- restraints, die für eine hochwertige Struktur erforderlich waren. Die NMR-Daten zeigten, dass die 20 C-terminalen Hep-25-Aminosäuren keine signifikanten Konformationsänderungen als Folge eines pH-Wechsels von pH 3 auf pH 7 und einer Metallbindung erfuhren. Ein 3D-Modell des Hep-25-Ni(II)-Komplexes wurde aus den NMR-Daten des Hexapeptid-Ni(II)-Komplexes und des Hep-25-DEDEDE-Ni(II)-Komplexes in Kombination mit der bekannten Konformation der 19 C-terminalen Aminosäuren erstellt. Die NMR-Daten des Hep-25-DEDEDE-Ni(II)Komplexes zeigen, dass sich das Ni-ATCUN-Motiv unabhängig vom C-Terminus bewegt. Die 3D-Modellstruktur des metallgebundenen Hep-25 ermöglicht es, in Zukunft die Interaktion von Hepcidin mit seinem Rezeptor Ferroportin zu untersuchen und soll als Ausgangspunkt für die Entwicklung von Antikörpern mit verbesserter Selektivität dienen. KW - iron KW - hepcidin KW - peptide KW - metal KW - binding KW - NMR KW - Eisen KW - Hepcidin KW - Peptid KW - Metall KW - Bindung KW - NMR Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459295 ER - TY - THES A1 - Nasery, Mustafa T1 - The success and failure of civil service reforms in Afghanistan T1 - Erfolg und Misserfolg der Reformen im öffentlichen Dienst Afghanistans BT - a critical study of reforms in a fragile and conflict-affected state BT - eine kritische Studie der Reformen in einem fragilen und konfliktbeladenen Staat N2 - The Government will create a motivated, merit-based, performance-driven, and professional civil service that is resistant to temptations of corruption and which provides efficient, effective and transparent public services that do not force customers to pay bribes. — (GoIRA, 2006, p. 106) We were in a black hole! We had an empty glass and had nothing from our side to fill it with! Thus, we accepted anything anybody offered; that is how our glass was filled; that is how we reformed our civil service. — (Former Advisor to IARCSC, personal communication, August 2015) How and under what conditions were the post-Taleban Civil Service Reforms of Afghanistan initiated? What were the main components of the reforms? What were their objectives and to which extent were they achieved? Who were the leading domestic and foreign actors involved in the process? Finally, what specific factors influenced the success and failure Afghanistan’s Civil Service Reforms since 2002? Guided by such fundamental questions, this research studies the wicked process of reforming the Afghan civil service in an environment where a variety of contextual, programmatic, and external factors affected the design and implementation of reforms that were entirely funded and technically assisted by the international community. Focusing on the core components of reforms—recruitment, remuneration, and appraisal of civil servants—the qualitative study provides a detailed picture of the pre-reform civil service and its major human resources developments in the past. Following discussions on the content and purposes of the main reform programs, it will then analyze the extent of changes in policies and practices by examining the outputs and effects of these reforms. Moreover, the study defines the specific factors that led the reforms toward a situation where most of the intended objectives remain unachieved. Doing so, it explores and explains how an overwhelming influence of international actors with conflicting interests, large-scale corruption, political interference, networks of patronage, institutionalized nepotism, culturally accepted cronyism and widespread ethnic favoritism created a very complex environment and prevented the reforms from transforming Afghanistan’s patrimonial civil service into a professional civil service, which is driven by performance and merit. N2 - Die Regierung wird einen motivierten, leistungsbasierten, leistungsorientierten und professionellen öffentlichen Dienst schaffen, der den Versuchungen der Korruption widersteht und effiziente, effektive und transparente öffentliche Dienstlesitungen anbietet, die Kundinnen und Kunden nicht dazu zwingt, Bestechungsgelder zu zahlen. — (GoIRA, 2006, p. 106) Wir waren in einem schwarzen Loch! Wir hatten ein leeres Glas und unsererseits nichts, um es zu füllen! Deshalb haben wir alles angenommen, was uns jemand anbot; so wurde unser Glas gefüllt; so haben wir unseren öffentlichen Dienst reformiert. — (Früherer Berater der IARCSC, persönliches Interview, August 2015) Wie und unter welchen Umständen wurden die Reformen des öffentlichen Dienstes in Afghanistan nach Ende der Taliban Zeit initiiert? Was waren die Ziele der Reformen und in welchem Maß wurden sie erreicht? Wer waren die führenden in- und ausländischen Akteure, die am Prozess beteiligt waren? Welche spezifischen Faktoren haben den Erfolg und Misserfolg der Reform des öffentlichen Dienstes Afghanistans seit 2002 beeinflusst? Diesen grundlegenden Fragen folgend, zeichnet diese Forschungsarbeit den verhängnisvollen Prozess der Reform des afghanischen öffentlichen Dienstes in einem Umfeld nach, in dem eine Vielzahl kontextueller, programmatischer und externer Faktoren die Ausgestaltung und Umsetzung der Reformen beeinflussten, die ausschließlich von internationalen Gemeinschaft finanziert und technisch unterstützt wurden. Die qualitative Untersuchung konzentriert sich auf drei Komponenten der Reform – Einstellung, Vergütung und Bewertung der Beamtinnen und Beamten – und liefert ein detailliertes Bild über den öffentlichen Dienst vor der Reform und der Hauptentwicklungen im Personalwesen in der Vergangenheit. Nach einer Diskussion über Inhalt und Zweck der wichtigsten Reformprogramme, zeigt die Studie das Ausmaß der Veränderungen in Politik und Praxis auf, indem sie die Ergebnisse und Auswirkungen der Reformen untersucht. Darüber hinaus definiert die Studie spezifische Faktoren, die dazu geführt haben, dass die meisten der angestrebten Reformziele nicht erreicht wurden. Dabei untersucht und erklärt sie, wie ein überwältigender Einfluss der internationalen Akteure mit widersprüchlichen Interessen zusammenwirkte mit großangelegter Korruption, politischer Einflussnahme, Netzwerken von Klientelismus, institutionalisiertem Nepotismus, kulturell akzeptierter Vetternwirtschaft und weit verbreiteter ethnischer Patronage. Dieses sehr komplexe Umfeld verhinderte grundlegende Reformen und die Transformation eines patrimonialen öffentlichen Dienstes in einen professionellen, leistungsorientierten öffentlichen Dienst in Afghanistan. KW - public administration KW - civil service reform KW - public administration reform KW - fragile and conflict-affected states KW - governance KW - international cooperation KW - Verwaltung KW - Reform des Öffentlichen Dienstes KW - Verwaltungsreform KW - fragile und konfliktbeladene Staaten KW - Governance KW - internationale Zusammenarbeit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444738 ER - TY - THES A1 - Abdelwahab Hussein Abdelwahab Elsayed, Ahmed T1 - Probabilistic, deep, and metric learning for biometric identification from eye movements N2 - A central insight from psychological studies on human eye movements is that eye movement patterns are highly individually characteristic. They can, therefore, be used as a biometric feature, that is, subjects can be identified based on their eye movements. This thesis introduces new machine learning methods to identify subjects based on their eye movements while viewing arbitrary content. The thesis focuses on probabilistic modeling of the problem, which has yielded the best results in the most recent literature. The thesis studies the problem in three phases by proposing a purely probabilistic, probabilistic deep learning, and probabilistic deep metric learning approach. In the first phase, the thesis studies models that rely on psychological concepts about eye movements. Recent literature illustrates that individual-specific distributions of gaze patterns can be used to accurately identify individuals. In these studies, models were based on a simple parametric family of distributions. Such simple parametric models can be robustly estimated from sparse data, but have limited flexibility to capture the differences between individuals. Therefore, this thesis proposes a semiparametric model of gaze patterns that is flexible yet robust for individual identification. These patterns can be understood as domain knowledge derived from psychological literature. Fixations and saccades are examples of simple gaze patterns. The proposed semiparametric densities are drawn under a Gaussian process prior centered at a simple parametric distribution. Thus, the model will stay close to the parametric class of densities if little data is available, but it can also deviate from this class if enough data is available, increasing the flexibility of the model. The proposed method is evaluated on a large-scale dataset, showing significant improvements over the state-of-the-art. Later, the thesis replaces the model based on gaze patterns derived from psychological concepts with a deep neural network that can learn more informative and complex patterns from raw eye movement data. As previous work has shown that the distribution of these patterns across a sequence is informative, a novel statistical aggregation layer called the quantile layer is introduced. It explicitly fits the distribution of deep patterns learned directly from the raw eye movement data. The proposed deep learning approach is end-to-end learnable, such that the deep model learns to extract informative, short local patterns while the quantile layer learns to approximate the distributions of these patterns. Quantile layers are a generic approach that can converge to standard pooling layers or have a more detailed description of the features being pooled, depending on the problem. The proposed model is evaluated in a large-scale study using the eye movements of subjects viewing arbitrary visual input. The model improves upon the standard pooling layers and other statistical aggregation layers proposed in the literature. It also improves upon the state-of-the-art eye movement biometrics by a wide margin. Finally, for the model to identify any subject — not just the set of subjects it is trained on — a metric learning approach is developed. Metric learning learns a distance function over instances. The metric learning model maps the instances into a metric space, where sequences of the same individual are close, and sequences of different individuals are further apart. This thesis introduces a deep metric learning approach with distributional embeddings. The approach represents sequences as a set of continuous distributions in a metric space; to achieve this, a new loss function based on Wasserstein distances is introduced. The proposed method is evaluated on multiple domains besides eye movement biometrics. This approach outperforms the state of the art in deep metric learning in several domains while also outperforming the state of the art in eye movement biometrics. N2 - Die Art und Weise, wie wir unsere Augen bewegen, ist individuell charakteristisch. Augenbewegungen können daher zur biometrischen Identifikation verwendet werden. Die Dissertation stellt neuartige Methoden des maschinellen Lernens zur Identifzierung von Probanden anhand ihrer Blickbewegungen während des Betrachtens beliebiger visueller Inhalte vor. Die Arbeit konzentriert sich auf die probabilistische Modellierung des Problems, da dies die besten Ergebnisse in der aktuellsten Literatur liefert. Die Arbeit untersucht das Problem in drei Phasen. In der ersten Phase stützt sich die Arbeit bei der Entwicklung eines probabilistischen Modells auf Wissen über Blickbewegungen aus der psychologischen Literatur. Existierende Studien haben gezeigt, dass die individuelle Verteilung von Blickbewegungsmustern verwendet werden kann, um Individuen genau zu identifizieren. Existierende probabilistische Modelle verwenden feste Verteilungsfamilien in Form von parametrischen Modellen, um diese Verteilungen zu approximieren. Die Verwendung solcher einfacher Verteilungsfamilien hat den Vorteil, dass sie robuste Verteilungsschätzungen auch auf kleinen Mengen von Beobachtungen ermöglicht. Ihre Flexibilität, Unterschiede zwischen Personen zu erfassen, ist jedoch begrenzt. Die Arbeit schlägt daher eine semiparametrische Modellierung der Blickmuster vor, die flexibel und dennoch robust individuelle Verteilungen von Blickbewegungsmustern schätzen kann. Die modellierten Blickmuster können als Domänenwissen verstanden werden, das aus der psychologischen Literatur abgeleitet ist. Beispielsweise werden Verteilungen über Fixationsdauern und Sprungweiten (Sakkaden) bei bestimmten Vor- und Rücksprüngen innerhalb des Textes modelliert. Das semiparametrische Modell bleibt nahe des parametrischen Modells, wenn nur wenige Daten verfügbar sind, kann jedoch auch vom parametrischen Modell abweichen, wenn genügend Daten verfügbar sind, wodurch die Flexibilität erhöht wird. Die Methode wird auf einem großen Datenbestand evaluiert und zeigt eine signifikante Verbesserung gegenüber dem Stand der Technik der Forschung zur biometrischen Identifikation aus Blickbewegungen. Später ersetzt die Dissertation die zuvor untersuchten aus der psychologischen Literatur abgeleiteten Blickmuster durch ein auf tiefen neuronalen Netzen basierendes Modell, das aus den Rohdaten der Augenbewegungen informativere komplexe Muster lernen kann. Tiefe neuronale Netze sind eine Technik des maschinellen Lernens, bei der in komplexen, mehrschichtigen Modellen schrittweise abstraktere Merkmale aus Rohdaten extrahiert werden. Da frühere Arbeiten gezeigt haben, dass die Verteilung von Blickbewegungsmustern innerhalb einer Blickbewegungssequenz informativ ist, wird eine neue Aggrgationsschicht für tiefe neuronale Netze eingeführt, die explizit die Verteilung der gelernten Muster schätzt. Die vorgeschlagene Aggregationsschicht für tiefe neuronale Netze ist nicht auf die Modellierung von Blickbewegungen beschränkt, sondern kann als Verallgemeinerung von existierenden einfacheren Aggregationsschichten in beliebigen Anwendungen eingesetzt werden. Das vorgeschlagene Modell wird in einer umfangreichen Studie unter Verwendung von Augenbewegungen von Probanden evaluiert, die Videomaterial unterschiedlichen Inhalts und unterschiedlicher Länge betrachten. Das Modell verbessert die Identifikationsgenauigkeit im Vergleich zu tiefen neuronalen Netzen mit Standardaggregationsschichten und existierenden probabilistischen Modellen zur Identifikation aus Blickbewegungen. Damit das Modell zum Anwendungszeitpunkt beliebige Probanden identifizieren kann, und nicht nur diejenigen Probanden, mit deren Daten es trainiert wurde, wird ein metrischer Lernansatz entwickelt. Beim metrischen Lernen lernt das Modell eine Funktion, mit der die Ähnlichkeit zwischen Blickbewegungssequenzen geschätzt werden kann. Das metrische Lernen bildet die Instanzen in einen neuen Raum ab, in dem Sequenzen desselben Individuums nahe beieinander liegen und Sequenzen verschiedener Individuen weiter voneinander entfernt sind. Die Dissertation stellt einen neuen metrischen Lernansatz auf Basis tiefer neuronaler Netze vor. Der Ansatz repäsentiert eine Sequenz in einem metrischen Raum durch eine Menge von Verteilungen. Das vorgeschlagene Verfahren ist nicht spezifisch für die Blickbewegungsmodellierung, und wird in unterschiedlichen Anwendungsproblemen empirisch evaluiert. Das Verfahren führt zu genaueren Modellen im Vergleich zu existierenden metrischen Lernverfahren und existierenden Modellen zur Identifikation aus Blickbewegungen. KW - probabilistic deep metric learning KW - probabilistic deep learning KW - biometrics KW - eye movements KW - biometrische Identifikation KW - Augenbewegungen KW - probabilistische tiefe neuronale Netze KW - probabilistisches tiefes metrisches Lernen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-467980 ER - TY - THES A1 - Schneider, Jan Niklas T1 - Computational approaches for emotion research T1 - Computergestützte Methoden für die Emotionsforschung N2 - Emotionen sind ein zentrales Element menschlichen Erlebens und spielen eine wichtige Rolle bei der Entscheidungsfindung. Diese Dissertation identifiziert drei methodische Probleme der aktuellen Emotionsforschung und zeigt auf, wie diese mittels computergestützter Methoden gelöst werden können. Dieser Ansatz wird in drei Forschungsprojekten demonstriert, die die Entwicklung solcher Methoden sowie deren Anwendung auf konkrete Forschungsfragen beschreiben. Das erste Projekt beschreibt ein Paradigma welches es ermöglicht, die subjektive und objektive Schwierigkeit der Emotionswahrnehmung zu messen. Darüber hinaus ermöglicht es die Verwendung einer beliebigen Anzahl von Emotionskategorien im Vergleich zu den üblichen sechs Kategorien der Basisemotionen. Die Ergebnisse deuten auf eine Zunahme der Schwierigkeiten bei der Wahrnehmung von Emotionen mit zunehmendem Alter der Darsteller hin und liefern Hinweise darauf, dass junge Erwachsene, ältere Menschen und Männer ihre Schwierigkeit bei der Wahrnehmung von Emotionen unterschätzen. Weitere Analysen zeigten eine geringe Relevanz personenbezogener Variablen und deuteten darauf hin, dass die Schwierigkeit der Emotionswahrnehmung vornehmlich durch die Ausprägung der Wertigkeit des Ausdrucks bestimmt wird. Das zweite Projekt zeigt am Beispiel von Arousal, einem etablierten, aber vagen Konstrukt der Emotionsforschung, wie Face-Tracking-Daten dazu genutzt werden können solche Konstrukte zu schärfen. Es beschreibt, wie aus Face-Tracking-Daten Maße für die Entfernung, Geschwindigkeit und Beschleunigung von Gesichtsausdrücken berechnet werden können. Das Projekt untersuchte wie diesen Maße mit der Arousal-Wahrnehmung in Menschen mit und ohne Autismus zusammenhängen. Der Abstand zum Neutralgesicht war prädiktiv für die Arousal-Bewertungen in beiden Gruppen. Die Ergebnisse deuten auf eine qualitativ ähnliche Wahrnehmung von Arousal für Menschen mit und ohne Autismus hin. Im dritten Projekt stellen wir die Partial-Least-Squares-Analyse als allgemeine Methode vor, um eine optimale Repräsentation zur Verknüpfung zweier hochdimensionale Datensätze zu finden. Das Projekt demonstriert die Anwendbarkeit dieser Methode in der Emotionsforschung anhand der Frage nach Unterschieden in der Emotionswahrnehmung zwischen Männern und Frauen. Wir konnten zeigen, dass die emotionale Wahrnehmung von Frauen systematisch mehr Varianz der Gesichtsausdrücke erfasst und dass signifikante Unterschiede in der Art und Weise bestehen, wie Frauen und Männer einige Gesichtsausdrücke wahrnehmen. Diese konnten wir als dynamische Gesichtsausdrücke visualisieren. Um die Anwendung der entwickelten Methode für die Forschungsgemeinschaft zu erleichtern, wurde ein Software-Paket für die Statistikumgebung R geschrieben. Zudem wurde eine Website entwickelt (thisemotiondoesnotexist.com), die es Besuchern erlaubt, ein Partial-Least-Squares-Modell von Emotionsbewertungen und Face-Tracking-Daten interaktiv zu erkunden, um die entwickelte Methode zu verbreiten und ihren Nutzen für die Emotionsforschung zu illustrieren. N2 - Emotions are a central element of human experience. They occur with high frequency in everyday life and play an important role in decision making. However, currently there is no consensus among researchers on what constitutes an emotion and on how emotions should be investigated. This dissertation identifies three problems of current emotion research: the problem of ground truth, the problem of incomplete constructs and the problem of optimal representation. I argue for a focus on the detailed measurement of emotion manifestations with computer-aided methods to solve these problems. This approach is demonstrated in three research projects, which describe the development of methods specific to these problems as well as their application to concrete research questions. The problem of ground truth describes the practice to presuppose a certain structure of emotions as the a priori ground truth. This determines the range of emotion descriptions and sets a standard for the correct assignment of these descriptions. The first project illustrates how this problem can be circumvented with a multidimensional emotion perception paradigm which stands in contrast to the emotion recognition paradigm typically employed in emotion research. This paradigm allows to calculate an objective difficulty measure and to collect subjective difficulty ratings for the perception of emotional stimuli. Moreover, it enables the use of an arbitrary number of emotion stimuli categories as compared to the commonly used six basic emotion categories. Accordingly, we collected data from 441 participants using dynamic facial expression stimuli from 40 emotion categories. Our findings suggest an increase in emotion perception difficulty with increasing actor age and provide evidence to suggest that young adults, the elderly and men underestimate their emotion perception difficulty. While these effects were predicted from the literature, we also found unexpected and novel results. In particular, the increased difficulty on the objective difficulty measure for female actors and observers stood in contrast to reported findings. Exploratory analyses revealed low relevance of person-specific variables for the prediction of emotion perception difficulty, but highlighted the importance of a general pleasure dimension for the ease of emotion perception. The second project targets the problem of incomplete constructs which relates to vaguely defined psychological constructs on emotion with insufficient ties to tangible manifestations. The project exemplifies how a modern data collection method such as face tracking data can be used to sharpen these constructs on the example of arousal, a long-standing but fuzzy construct in emotion research. It describes how measures of distance, speed and magnitude of acceleration can be computed from face tracking data and investigates their intercorrelations. We find moderate to strong correlations among all measures of static information on one hand and all measures of dynamic information on the other. The project then investigates how self-rated arousal is tied to these measures in 401 neurotypical individuals and 19 individuals with autism. Distance to the neutral face was predictive of arousal ratings in both groups. Lower mean arousal ratings were found for the autistic group, but no difference in correlation of the measures and arousal ratings could be found between groups. Results were replicated in a high autistic traits group consisting of 41 participants. The findings suggest a qualitatively similar perception of arousal for individuals with and without autism. No correlations between valence ratings and any of the measures could be found which emphasizes the specificity of our tested measures for the construct of arousal. The problem of optimal representation refers to the search for the best representation of emotions and the assumption that there is a one-fits-all solution. In the third project we introduce partial least squares analysis as a general method to find an optimal representation to relate two high-dimensional data sets to each other. The project demonstrates its applicability to emotion research on the question of emotion perception differences between men and women. The method was used with emotion rating data from 441 participants and face tracking data computed on 306 videos. We found quantitative as well as qualitative differences in the perception of emotional facial expressions between these groups. We showed that women’s emotional perception systematically captured more of the variance in facial expressions. Additionally, we could show that significant differences exist in the way that women and men perceive some facial expressions which could be visualized as concrete facial expression sequences. These expressions suggest differing perceptions of masked and ambiguous facial expressions between the sexes. In order to facilitate use of the developed method by the research community, a package for the statistical environment R was written. Furthermore, to call attention to the method and its usefulness for emotion research, a website was designed that allows users to explore a model of emotion ratings and facial expression data in an interactive fashion. KW - facial expression KW - emotion KW - perception KW - face tracking KW - perception differences KW - emotion representation KW - Gesichtsausdruck KW - Emotionen KW - Wahrnehmung KW - Wahrnehmungsunterschiede KW - computational methods KW - emotion research KW - computergestützte Methoden KW - Emotionsforschung KW - arousal perception KW - objective difficulty KW - Wahrnehmung von Arousal KW - Objektive Schwierigkeit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459275 ER - TY - THES A1 - Barquero Pipín, Antonio Carlos T1 - Lengua, cultura, interculturalidad T1 - Sprache, Kultur, Interkulturalität BT - el tratamiento de la competencia pragmática como parte de la competencia comunicativa en los libros de texto de ELE en el ámbito escolar Alemán BT - die Behandlung der pragmatischen Kompetenz als Teil der kommunikativen Kompetenz in SaF-Lehrbüchern im deutschen Schulkontext N2 - Ohne Pragmatik wäre Kommunikation nicht möglich, da wir sprachliche Aussagen nicht interpretieren könnten. Für jeden Lernenden einer Sprache, die er nicht beherrscht, reicht es nicht aus, sprachlich kompetent zu sein, da der Zweck der Kommunikation darin besteht, mit anderen Menschen und in bestimmten Kontexten zu kommunizieren. Nur eine Lehre, die es ermöglicht, Aussagen zur Durchführung von Sprachhandlungen zu erstellen und zu verstehen und die für einen bestimmten Kontext am besten geeigneten auszuwählen, kann sich als effizient erweisen. Die hier vorgestellte Arbeit zielt darauf ab, der wissenschaftlichen Gemeinschaft und insbesondere denjenigen, die direkt und indirekt am Unterrichtsprozess beteiligt sind, das Konzept der verbalen Pragmatik bekannt zu machen und es anderen wie Grammatik, Kultur oder Interkulturalität gegenüber zu stellen. Ferner wendet sie sich der Frage zu, wie man auf die Bedeutung und die dringende Notwendigkeit aufmerksam macht, Pragmatik als relevante Disziplin im Kommunikationsprozess zu etablieren; dabei wird insbesondere auf ihre systematische Einbeziehung in Lehrbüchern für Spanisch als Fremdsprache, die für den schulischen Kontext konzipiert wurden, abgestellt. Dazu werden das Vorhandensein pragmatischer Elemente und die Förderung pragmatischer Kompetenz in Lehrbüchern für Anfänger sowie ihre Relevanz bei der Festlegung von Inhalten, Fortschrittsart und Methodik untersucht. N2 - Sin pragmática no sería posible la comunicación, puesto que no podríamos interpretar enunciados lingüísticos. A cualquier aprendiente de una lengua que no domina, no le basta con ser competente lingüísticamente, puesto que su fin es comunicarse con otras personas y en contextos determinados. Solo una enseñanza que facilite la habilidad de producir y comprender enunciados para realizar actos de lengua, seleccionando los más apropiados para un contexto determinado, podrá preciarse de ser eficiente. El trabajo que aquí se presenta pretende dar a conocer a la comunidad científica y, en especial, a los y las involucradas directa e indirectamente en el proceso de enseñanza, el concepto de pragmática verbal y contrastarlo con otros como gramática, cultura o interculturalidad, así como concienciarlos de la importancia y de la necesidad imperiosa del establecimiento de la pragmática como disciplina relevante en el proceso comunicativo y, en especial, de su inclusión sistemática y manifiesta en los libros de texto de español como lengua extranjera elaborados para el contexto escolar. Para ello se investiga la presencia de elementos pragmáticos y el fomento de la competencia pragmática en libros de texto para principiantes, por ser estos el material utilizado por excelencia en las escuelas y por su relevancia a la hora de especificar contenidos, tipo de progresión y metodología. KW - pragmática KW - ELE KW - didáctica KW - interculturalidad KW - Pragmatik KW - SaF KW - Fremdsprachendidaktik KW - Interkulturalität KW - pragmática contrastiva KW - lingüística contrastiva KW - kontrastive Pragmatik KW - kontrastive Linguistik Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439023 SN - 978-3-86956-480-7 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Maerz, Sven T1 - Analyzing pore systems through comprehensive digital image analysis (DIA) T1 - Analyse von Porensystemen durch umfassende digitale Bildanalyse (DIA) BT - quantifying pore type geometry, detecting effective porosity and reconstructing pore system evolution BT - Quantifizierung der Geometrie von Porentypen, Erfassung der effektiven Porosität und Rekonstruktion der Porenraumentwicklung N2 - Carbonates tend to have complex pore systems which are often composed of distinct assemblages of genetically and geometrically different pore types at various scales (e.g., Melim et al., 2001; Lee et al., 2009; He et al., 2014; Dernaika & Sinclair, 2017; Zhang et al., 2017). Such carbonate-typical multimodal pore systems are the result of both primary depositional processes and multiple stages of postdepositional modifications, causing small-scale heterogeneities in pore system properties and leading to the co-occurrence of both effective and ineffective pore types. These intrinsic variations in pore type effectiveness are the main reason for the often low correlation between porosity and permeability in carbonate pore systems (e.g., Mazzullo 2004; Ehrenberg & Nadeau, 2005; Hollis et al., 2010; He et al., 2014; Rashid et al., 2015; Dernaika & Sinclair, 2017), as it is also true for the marginal lacustrine carbonates studied in this thesis. However, by extracting interconnected and thus effective pore types, and simultaneously excluding isolated and ineffective pores, the understanding and prediction of permeability for given porosity can be highly enhanced (e.g., Melim et al., 2001; Zhang et al., 2017). In this thesis, a step-by-step workflow based on digital image analysis (DIA) is presented and performed on 32 facies-representative samples of marginal lacustrine carbonates from the Middle Miocene Nördlinger Ries crater lake (Southern Germany), resulting in 77 mean values of pore type effectiveness which are based on 23,508 individual pore geometry data. By using pore shape factor γ (sensu Anselmetti et al., 1998) as a parameter to quantitatively describe pore shape complexity and therefore pore interconnectivity, the potential contribution (Kcontr.) of each pore type to total permeability (Ktotal) is calculated, and the most effective pore types are then identified. As a result, primary interpeloidal pores and secondary vugs are the most effective pore types in the studied marginal lacustrine succession, mainly due to their generally big size and complex shape, leading to an excellent interconnection between both pore types and consequently to the establishment of a highly effective pore network. Both pore types together compose the pore system of the peloidal grainstone facies. Therefore, this lithofacies type has been identified as the sedimentary facies with highest porosity-permeability properties in this marginal lacustrine succession. By applying the DIA-based method to 23 additional samples from the studied outcrop which all show extensive partial to complete cementation of preexisting pores, the impact of cementation on pore geometry and therefore on porosity and permeability is quantified. This results in a cementation reduction value for each relevant parameter which can then be used to enhance precision of predicting porosity and permeability within the studied succession. Furthermore, the concept of using pore shape complexity as a proxy parameter for pore system effectiveness is tested by applying an independent method (i.e., fluid flow simulation) to the dataset. DIA is then used once again to evaluate the outcome of fluid flow simulation. The results confirm the previous findings that interpeloidal pores and vugs together build up the most effective pore system in the Ries lake carbonates. Finally, the extraction of the interconnected (i.e., effective) pore network leads to an improved correlation between porosity and permeability within the studied carbonates. The step-by-step workflow described in this thesis provides a quantitative petrographic method to identify and extract effective porosity from the pore system, which is crucial for understanding how carbonate pore systems generate permeability. This thesis also demonstrates that pore shape complexity is the most important geometrical parameter controlling pore interconnection and consequently the formation of effective porosity. It further emphasizes that pore shape factor γ (sensu Anselmetti et al. 1998) is a very robust and scale-independent proxy parameter to quantify pore type effectiveness. Additionally, DIA proves to be an ideal tool to directly link porosity and permeability to their mutual origin: the rock fabric and associated pore structure. N2 - Der Porenraum eines Karbonatgesteins ist zumeist aus einer spezifischen Vergesellschaftung verschiedenster Porentypen aufgebaut, die eine unterschiedliche Herkunft aufweisen und zusätzlich in ihrer Form und Größe stark variieren können (e.g., Melim et al., 2001; Lee et al., 2009; He et al., 2014; Dernaika & Sinclair, 2017; Zhang et al., 2017). Diese für Karbonate typischen multimodalen Porensysteme entstehen sowohl durch primäre Ablagerungsprozesse, als auch durch mehrmalige Modifikation des Porenraumes nach Ablagerung des Sediments. Dies führt zu einer ungleichen Verteilung der Porenraumeigenschaften auf engstem Raum und das zeitgleiche Auftreten von effektiven und ineffektiven Poren. Diese immanenten Unterschiede in der Effektivität einzelner Porentypen sind der Hauptgrund für die häufig sehr niedrige Korellation zwischen Porosität und Permeabilität in Karbonaten (e.g., Mazzullo 2004; Ehrenberg & Nadeau, 2005; Hollis et al., 2010; He et al., 2014; Rashid et al., 2015; Dernaika & Sinclair, 2017). Durch die Extraktion von miteinander verbundenen und somit effektiven Porentypen jedoch kann das Verständnis und die Vorhersage der Permeabilität für einen gegeben Porositätswert stark verbessert werden (e.g., Melim et al., 2001; Zhang et al., 2017). Dazu wird in dieser Arbeit eine auf der digitalen Bildanalyse (DIA) beruhende Methode vorgestellt, mit der schrittweise die Effektivität von Poren aus den analysierten mittelmiozänen lakustrinen Karbonaten des Nördlinger Ries Kratersees (Süddeutschland) berechnet werden kann. Mithilfe des Porenformfaktors  (sensu Anselmetti et al., 1998), der als Parameter zur Quantifizierung der Interkonnektivität zwischen Poren dient, wird der potentiellen Beitrag an Permeabilität jedes Porentyps zur Gesamtpermeabilität bestimmt. Somit können die effektivsten Porentypen innerhalb der analysierten Karbonate identifiziert werden. Desweiteren wird die digitale Bildanalyse dazu benutzt, zementierte Porenräume zu extrahieren, um den Einfluss der Zementation auf die Porenraumeigenschaften zu quantifizieren. Durch eine unabhängige Methode (Fluid-Flow-Simulation), deren Ergebnisse wiederum mit der digitalen Bildanalyse ausgewertet werden, können die vorherigen Erkentnisse bestätigt werden: Interpeloidale Poren und Lösungsporen sind die beiden effektivsten Porentypen im Porenraum der Riesseekarbonate. Die Extraktion des miteinander verbundenen (d.h. effektiven) Porennetzwerkes führt schließlich zu einer erheblich verbesserten Korrelation zwischen Porosität und Permeabilität in den analysierten Karbonaten. Die in dieser Arbeit beschriebene Methode bietet ein quantitatives petrographisches Werkzeug, mit dessen Hilfe die effektive Porosität eines Porenraumes extrahiert werden kann. Dies führt zu einem besseren Verständnis darüber, wie Porensysteme von Karbonaten Permeabilität erzeugen. Diese Dissertation zeigt auch, dass die Formkomplexität von Poren einer der wichtigsten Parameter ist, der die Interkonnektivität zwischen einzelnen Poren und somit die Entstehung von effektiver Porosität steuert. Außerdem erweist sich die digitale Bildanalyse als ausgezeichnetes Werkzeug um die Porosität und Permeabilität direkt an ihren gemeinsamen Ursprung zu knüpfen: die Gesteinstextur und die damit assoziierte Porenstruktur. KW - digital image analysis KW - digitale Bildanalyse KW - effective porosity KW - effektive Porosität KW - carbonate pore types KW - Porentypen in Karbonate Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445880 ER - TY - THES A1 - Nguyen, Quyet Doan T1 - Electro-acoustical probing of space-charge and dipole-polarization profiles in polymer dielectrics for electret and electrical-insulation applications T1 - Elektroakustische Abtastung von elektrischen Ladungs- und Polarisationsprofilen in Polymerfolien für Elektret- und Isolations-Anwendungen N2 - Electrets are dielectrics with quasi-permanent electric charge and/or dipoles, sometimes can be regarded as an electric analogy to a magnet. Since the discovery of the excellent charge retention capacity of poly(tetrafluoro ethylene) and the invention of the electret microphone, electrets have grown out of a scientific curiosity to an important application both in science and technology. The history of electret research goes hand in hand with the quest for new materials with better capacity at charge and/or dipole retention. To be useful, electrets normally have to be charged/poled to render them electro-active. This process involves electric-charge deposition and/or electric dipole orientation within the dielectrics ` surfaces and bulk. Knowledge of the spatial distribution of electric charge and/or dipole polarization after their deposition and subsequent decay is crucial in the task to improve their stability in the dielectrics. Likewise, for dielectrics used in electrical insulation applications, there are also needs for accumulated space-charge and polarization spatial profiling. Traditionally, space-charge accumulation and large dipole polarization within insulating dielectrics is considered undesirable and harmful to the insulating dielectrics as they might cause dielectric loss and could lead to internal electric field distortion and local field enhancement. High local electric field could trigger several aging processes and reduce the insulating dielectrics' lifetime. However, with the advent of high-voltage DC transmission and high-voltage capacitor for energy storage, these are no longer the case. There are some overlapped between the two fields of electrets and electric insulation. While quasi-permanently trapped electric-charge and/or large remanent dipole polarization are the requisites for electret operation, stably trapped electric charge in electric insulation helps reduce electric charge transport and overall reduced electric conductivity. Controlled charge trapping can help in preventing further charge injection and accumulation as well as serving as field grading purpose in insulating dielectrics whereas large dipole polarization can be utilized in energy storage applications. In this thesis, the Piezoelectrically-generated Pressure Steps (PPSs) were employed as a nondestructive method to probe the electric-charge and dipole polarization distribution in a range of thin film (several hundred micron) polymer-based materials, namely polypropylene (PP), low-density polyethylene/magnesium oxide (LDPE/MgO) nanocomposites and poly(vinylidene fluoride-co- trifluoro ethylene) (P(VDF-TrFE)) copolymer. PP film surface-treated with phosphoric acid to introduce surfacial isolated nanostructures serves as example of 2-dimensional nano-composites whereas LDPE/MgO serves as the case of 3-dimensional nano-composites with MgO nano-particles dispersed in LDPE polymer matrix. It is evidenced that the nanoparticles on the surface of acid-treated PP and in the bulk of LDPE/MgO nanocomposites improve charge trapping capacity of the respective material and prevent further charge injection and transport and that the enhanced charge trapping capacity makes PP and LDPE/MgO nanocomposites potential materials for both electret and electrical insulation applications. As for PVDF and VDF-based copolymers, the remanent spatial polarization distribution depends critically on poling method as well as specific parameters used in the respective poling method. In this work, homogeneous polarization poling of P(VDF-TrFE) copolymers with different VDF-contents have been attempted with hysteresis cyclical poling. The behaviour of remanent polarization growth and spatial polarization distribution are reported and discussed. The Piezoelectrically-generated Pressure Steps (PPSs) method has proven as a powerful method for the charge storage and transport characterization of a wide range of polymer material from nonpolar, to polar, to polymer nanocomposites category. N2 - Elektrete sind Dielektrika mit quasi-permanenter elektrischer Ladung und/oder quasi-permanent ausgerichteten elektrischen Dipolen - das elektrische Analogon zu einem Magneten. Seit der Entdeckung der besonders hohen Stabilitaet negativer Raumladungen in Polytetrafluorethylen (PTFE, Handelsname Teflon) und der Erfindung des Elektretmikrofons ist aus der spannenden wissenschaftlichen Fragestellung nach den Ursachen der hervorragenden Ladungsspeicherung in Elektreten auch eine wichtige technische Anwendung geworden. In der Geschichte der Elektretforschung und der Elektretanwendungen geht es neben der Ursachenklaerung auch immer um die Suche nach neuen Materialien mit besserer Ladungsspeicherung und/oder Dipolpolarisation. Elektretmaterialien muessen in der Regel elektrisch aufgeladen oder gepolt werden, um die gewuenschten elektroaktiven Eigenschaften zu erhalten. Dabei werden entweder elektrische Ladungen auf der Oberflaeche oder im Volumen des Elektretmaterials deponiert und/oder elektrische Dipole im Material ausgerichtet. Genaue Informationen ueber die raeumliche Verteilung der elektrischen Ladungen und/oder der Dipolpolarisation sowie deren Entwicklung im Laufe der Zeit sind entscheidend fuer eine gezielte Verbesserung der Elektretstabilitaet. Dielektrika, die zur elektrischen Isolierung von Hochspannungsanlagen eingesetzt werden, koennen ebenfalls elektrische Raumladungen und/oder Dipolpolarisationen enthalten, deren Verteilungen entscheidend fuer die Beherrschung der damit einhergehenden Eigenschaftsaenderungen sind. Traditionell gelten Raumladungen und Dipolpolarisationen in elektrischen Isolierungen als unerwuenscht und schaedlich, da sie zu erheblichen Verlusten und zu Verzerrungen der inneren elektrischen Felder fuehren koennen. Hohe lokale Felder koennen Alterungsprozesse ausloesen und die Lebensdauer der isolierenden Dielektrika erheblich verkuerzen. Mit dem Aufkommen der Hochspannungs-Gleichstromuebertragung und des Hochspannungskondensators zur Energiespeicherung in den letzten Jahren hat sich die Situation jedoch grundlegend geaendert, da Raumladungen prinzipiell nicht mehr vermeidbar sind und bei entsprechender Gestaltung der Isolierung moeglicherweise sogar von Vorteil sein koennen. Hier ergeben sich nun Ueberschneidungen und Synergien zwischen Elektreten und elektrischen Isoliermaterialien, zumal in beiden Faellen hohe elektrische Gleichfelder auftreten. Waehrend quasi-permanent gespeicherte elektrische Ladungen und/oder stark quasi- permanente oder remanente Dipolpolarisationen das wesentliche Merkmal von Elektreten sind, koennen stabil gespeicherte elektrische Ladungen in elektrischen Isolierungen dazu beitragen, den schaedlichen Ladungstransport und damit die effektive elektrische Leitfaehigkeit der Dielektrika zu reduzieren. Ein kontrolliertes Einbringen von Raumladungen kann die Injektion und die Anhaeufung weiterer Ladungen verhindern, waehrend stark Dipolpolarisationen die Kapazitaet von elektrischen Energiespeichern wesentlich erhoehen koennen. In der vorliegenden Arbeit wurden piezoelektrisch erzeugte Druckstufen (Piezoelectrically generated Pressure Steps oder PPSs) eingesetzt, um die Verteilung elektrischer Ladungen und/oder ausgerichteter elektrischer Dipole in relativ duennen polymeren Dielektrika (Mikrometerbereich) zu untersuchen. Wesentliche Probenmaterialien waren Polypropylen (PP), Komposite aus Polyethylen mit Magnesiumoxid-Nanopartikeln in geringen Mengen (LDPE/MgO) sowie Poly(vinyliden fluorid-trifluorethylen)-Copolymere (P(VDF-TrFE)). PP-Folien, die mit Phosphorsaeure oberflaechenbehandelt wurden, um voneinander isolierte Nanostrukturen an der Oberflaeche zu erzeugen, sind ein Beispiel fuer ein zweidimensionales (2-D) Nanokomposit, waehrend LDPE/MgO ein dreidimensionales (3-D) Nanokomposit darstellt. Es konnte nachgewiesen werden, dass die Nanopartikel auf der Oberflaeche von saeurebehandeltem PP und im Volumen von LDPE/MgO-Nanokompositen die Ladungsspeicherfaehigkeit des jeweiligen Materials entscheidend verbessern. Damit werden weitere Ladungsinjektionen und der Ladungstransport verhindert, was die 2-D PP- und die 3-D LDPE/MgO-Nanokomposite zu geeigneten Kandidaten sowohl fuer Elektret- als auch fuer Isolationsanwendungen macht. Bei Polyvinylidenfluorid (PVDF) und Copolymeren auf der Basis von Vinylidenfluorid (VDF) haengt die remanente raeumliche Polarisationsverteilung entscheidend von der jeweiligen Polungsmethode sowie von den Parametern des jeweiligen Polungsvorgangs ab. Hier wurde versucht, eine homogene Polung von P(VDF-TrFE)-Copolymeren mit unterschiedlichen VDF-Gehalten mit dem Verfahren der zyklischen Polung (sogenannte Hysterese-Polung) zu erzeugen. Das Entstehen der remanenten Polarisation und deren raeumliche Verteilung konnten erfasst und interpretiert werden, um Hinweise für eine optimale Polung zu erhalten. An den genannten Beispielen konnte gezeigt werden, dass die Methode der piezoelektrisch erzeugten Druckstufen (PPS) ein leistungsfaehiges Verfahren zur Charakterisierung der Ladungsspeicherung und des Ladungstransports in Dielektrika ist und dass damit ein breites Spektrum von unpolaren Polymeren ueber polare Polymerdielektrika bis hin zu polaren Nanokompositen sinnvoll untersucht werden kann. Es wurden wesentliche Erkenntnisse zur Ladungsspeicherung und zur remanten Polarisation in den untersuchten Polymeren gewonnen. KW - electro-acoustic electric-charge and polarization profiling KW - space charge KW - polypropylene KW - polyethylene nanocomposites KW - magnesium oxide KW - polymer electrets KW - ferroelectrets KW - electrical insulation KW - piezoelectricity KW - ferroelectricity KW - poly(vinylidene fluoride) KW - hysteresis KW - elektroakustische Abtastung elektrischer Ladungen und Dipolpolarisationen KW - elektrische Raumladung KW - Polypropylen KW - Polyethylen-Nanokomposite KW - Magnesiumoxid KW - Polymerelektrete KW - Ferroelektrete KW - elektrische Isolierung KW - Piezoelektrizität KW - Ferroelektrizität KW - Poly(vinylidenfluorid) KW - Hysterese Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445629 ER - TY - THES A1 - von Kaphengst, Dragana T1 - Project’s management quality in development cooperation T1 - Managementqualität von Projekten in der Entwicklungszusammenarbeit N2 - In light of the debate on the consequences of competitive contracting out of traditionally public services, this research compares two mechanisms used to allocate funds in development cooperation—direct awarding and competitive contracting out—aiming to identify their potential advantages and disadvantages. The agency theory is applied within the framework of rational-choice institutionalism to study the institutional arrangements that surround two different money allocation mechanisms, identify the incentives they create for the behavior of individual actors in the field, and examine how these then transfer into measurable differences in managerial quality of development aid projects. In this work, project management quality is seen as an important determinant of the overall project success. For data-gathering purposes, the German development agency, the Gesellschaft für Internationale Zusammenarbeit (GIZ), is used due to its unique way of work. Whereas the majority of projects receive funds via direct-award mechanism, there is a commercial department, GIZ International Services (GIZ IS) that has to compete for project funds. The data concerning project management practices on the GIZ and GIZ IS projects was gathered via a web-based, self-administered survey of project team leaders. Principal component analysis was applied to reduce the dimensionality of the independent variable to total of five components of project management. Furthermore, multiple regression analysis identified the differences between the separate components on these two project types. Enriched by qualitative data gathered via interviews, this thesis offers insights into everyday managerial practices in development cooperation and identifies the advantages and disadvantages of the two allocation mechanisms. The thesis first reiterates the responsibility of donors and implementers for overall aid effectiveness. It shows that the mechanism of competitive contracting out leads to better oversight and control of implementers, fosters deeper cooperation between the implementers and beneficiaries, and has a potential to strengthen ownership of recipient countries. On the other hand, it shows that the evaluation quality does not tremendously benefit from the competitive allocation mechanism and that the quality of the component knowledge management and learning is better when direct-award mechanisms are used. This raises questions about the lacking possibilities of actors in the field to learn about past mistakes and incorporate the finings into the future interventions, which is one of the fundamental issues of aid effectiveness. Finally, the findings show immense deficiencies in regard to oversight and control of individual projects in German development cooperation. KW - development cooperation KW - project management quality KW - evaluation KW - GIZ KW - knowledge management KW - Entwicklungszusammenarbeit KW - Qualität des Projektmanagements KW - Evaluierung KW - GIZ KW - Wissensmanagement Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430992 ER - TY - THES A1 - Meyer, Ljuba T1 - Bildungsort Familie T1 - Family as a place of education BT - eine qualitative Studie über den Bildungstransfer innerhalb russischer Dreigenerationenfamilien in Berlin BT - a qualitative-focused study on the transfer of education within Russian-speaking three-generational families in Berlin N2 - In der Bildungs- und Familienforschung wird die intergenerationale Weitergabe von Bildung innerhalb der Familie hauptsächlich unter dem Blickwinkel des schulischen Erfolges der nachwachsenden Generation thematisiert. „Wie“ aber bildungsbezogene Transferprozesse innerhalb der Familie konkret ablaufen, bleibt jedoch in der deutschen Forschungslandschaft weitestgehend unbearbeitet. An dieser Stelle setzt diese qualitativ angelegte Arbeit an. Ziel dieser Arbeit ist, bildungsbezogene Transferprozesse innerhalb von russischen Dreigenerationenfamilien, die aus der ehemaligen Sowjetunion nach Berlin seit 1989 ausgewandert sind und zwischen der Großeltern-, Elterngeneration und der Enkelgeneration ablaufen, zu untersuchen. Hinter diesen Transferprozessen verbergen sich im Sinne Bourdieus bewusste und unbewusste Bildungsstrategien der interviewten Familienmitglieder. Im Rahmen dieser Arbeit wurden zwei Spätaussiedlerfamilien – zu diesen zählen Familie Hoffmann und Familie Popow, sowie zwei russisch-jüdische Familien – zu diesen zählen Familie Rosenthal und Familie Buchbinder, interviewt. Es wurden mit den einzelnen Mitgliedern der vier untersuchten Dreigenerationenfamilien Gruppendiskussionen sowie mit je einem Vertreter einer Generation leitfadengestützte Einzelinterviews geführt. Die Erhebungsphase fand in Berlin im Zeitraum von 2010 bis 2012 statt. Das auf diese Weise gewonnene empirische Material wurde mithilfe der dokumentarischen Methode nach Bohnsack ausgewertet. Hierdurch wurde es möglich die implizite Selbstverständlichkeit, mit der sich Bildung in Familien nach Bourdieu habituell vollzieht, einzufangen und rekonstruierbar zu machen. In der Arbeit wurden eine habitustheoretische Interpretation der russischen Dreigenerationenfamilien und die entsprechende Feldanalyse nach Bourdieu vorgenommen. In diesem Zusammenhang wurde der soziale Raum der untersuchten Familien in der Ankunftsgesellschaft bezüglich ihres Vergleichshorizontes der Herkunftsgesellschaft rekonstruiert. Weiter wurde der Bildungstransfer vor dem jeweiligen Erlebnishintergrund der einzelnen Familien untersucht und diesbezüglich eine Typisierung vorgenommen. Im Rahmen dieser Untersuchung konnten neue Erkenntnisse zum bisher unerforschten Feld des Bildungstransfers russischer Dreigenerationenfamilien in Berlin gewonnen werden. Ein wesentliches Ergebnis dieser Arbeit ist, dass die Anwendung von Bourdieus Klassentheorie auch auf Gruppen, die in einer sozialistischen Gesellschaft sozialisiert wurden und in eine kapitalistisch orientierte Gesellschaft ausgewandert sind, produktiv sein kann. Ein weiteres zentrales Ergebnis der Studie ist, dass bei zwei der vier untersuchten Familien die Migration den intergenerationalen Bildungstransfer beeinflusste. In diesem Zusammenhang weist Familie Rosenthal durch die Migration einen „gespaltenen“ Habitus auf. Dieser ist darauf zurückzuführen, dass diese Familie bei der Planung des Berufes für die Enkelin in Berlin sich am Praktischen und Notwendigen orientierte. Während die bewusste Bildungsstrategie der Großeltern- und Elterngeneration für die Enkelgeneration im Ankunftsland dem Habitus der Notwendigkeit, den Bourdieu der Arbeiterklasse zuschreibt, zugeordnet werden kann, lässt sich hingegen das Freizeitverhalten der Familie Rosenthal dem Habitus der Distinktion zuordnen, der typisch für die herrschende Klasse ist. Ein weiterer Befund dieser Untersuchung ist, dass im Vergleich zur Enkelin Rosenthal bei der Enkelin Popow eine sogenannte Sphärendiskrepanz rekonstruiert wurde. So ist die Enkelin Popow in der äußeren Sphäre der Schule auf sich gestellt, da die Großeltern- und Elterngeneration zum deutschen Schulsystem nur über einen geringen Informationsstand verfügen. Die Enkelin grenzt sich einerseits von ihrer Familie (innere Sphäre) und deutschen Schulabbrechern (äußere Sphäre) ab, orientiert sich aber andererseits beim Versuch sozial aufzusteigen an russischsprachigen Peers, die die gymnasiale Oberstufe besuchen (dritte Sphäre). Bei Enkelin Popow fungiert demzufolge die Peergruppe und nicht die Familie als zentraler Bildungsort. An dieser Stelle sei angemerkt, dass sowohl bei einer russisch-jüdischen Familie als auch bei einer Spätaussiedlerfamilie der intergenerationale Bildungstransfer durch die Migration beeinflusst wurde. Während Familie Rosenthal in der Herkunftsgesellschaft der Intelligenzija zuzuordnen ist, gehört Familie Popow der Arbeiterschaft an. Daraus folgt, dass der intergenerationale Bildungstransfer der untersuchten Familien sowohl unabhängig vom Spätaussiedler- und Kontingentflüchtlingsstatus als auch vom herkunftsortspezifischen sozialen Status abläuft. Demnach kann geschlussfolgert werden, dass im Rahmen dieser Studie die Migration ein zentraler Faktor für den intergenerationalen Bildungstransfer ist. N2 - In education and family research, the intergenerational transfer of education within the family is mainly addressed from the perspective of the success of the younger generation in school. However, “how” education-related transfer processes within the family actually take place, remains largely unadressed in the German research landscape. At this junction this qualitative-focused study starts. The main aim of the study is to investigate education-related transfer processes within Russian-speaking three-generational families that have emigrated to Berlin from the former Soviet Union since 1989 and that run between the grandparents and parents on one side through to their respective grandchildren. In Bourdieu's sense, these transfer processes hide conscious and unconscious educational strategies of the family members interviewed. In the course of this study, two late repatriate families - these are the families Hoffmann and Popow, and two Russian-Jewish families - these are the families Rosenthal and Buchbinder. Group discussions were held with individual members of the four examined three-generational families. In addition, guideline-based individual interviews with one representative from each generation were conducted. The survey phase took place in Berlin between 2010 and 2012. The empirical material obtained was evaluated using the documentary method by Bohnsack. This made it possible to capture the implicit self-evidence with which education in families according to Bourdieu occurs habitually and to make it reconstructable. In the study, a habitually and theoretically oriented interpretation of the Russian-speaking three-generational families and the corresponding field analysis according to Bourdieu were carried out. In this context, the social space of the families in the arrival society was reconstructed and compared with regard to their social space in their society of origin. Furthermore, the transfer of education was examined against the background of each family's experiences and a non-exhaustive typecast was carried out in this regard. In the course of this study, new insights into the previously unexplored field of educational transfer processes of three-generational Russian-speaking families in Berlin were gained. A key result of this study is that the application of Bourdieu's class theory can also be productive to groups that have been socialized in a socialist society and have emigrated to a capitalist-oriented society. Another key finding of the study is that in two of the four families examined, migration influenced the intergenerational educational transfer. In this context, family Rosenthal has a “split” habit due to migration. This is due to the fact that this family was oriented towards the practical and necessary when planning the job for their granddaughter in Berlin. While the conscious educational strategy of the grandparents and parents for their grandchildren in the country of arrival can be assigned to the habit of the necessity that Bourdieu attributes to the working class, the leisure behavior of family Rosenthal can be assigned to the habit of distinction, which is typical for the ruling class. Another key finding is the so-called spherical discrepancy that could be reconstructed for the granddaughter Popow. The granddaughter is on her own in the outer sphere of the school, since the grandparents and parents have little information about the German school system. The granddaughter, on the one hand, differentiates herself from her family (inner sphere) and early school leavers (outer sphere), but, on the other hand, is oriented towards Russian-speaking peers, who attend high school (third sphere) when trying to rise socially. For granddaughter Popow, the peer group and not the family is the central place of education. At this point it should be noted that both a Russian-Jewish family and a late repatriated family were affected by the intergenerational transfer of education through migration. While the Rosenthal family can be assigned to the intelligentsia in the society of origin, the Popow family belongs to the workforce. It follows that the intergenerational education transfer of the examined families takes place independently of the late repatriates and contingent refugee status as well as of the social status specific to the country of origin. It can therefore be concluded that migration is a key factor for intergenerational education transfer in the context of this study. KW - Bildung KW - Transferprozesse KW - Bourdieu KW - Dreigenerationenfamilien KW - Migration KW - qualitative Studie KW - education KW - transfer processes KW - Bourdieu KW - three-generational families KW - migration KW - qualitative-focused study Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444319 ER - TY - THES A1 - Michalczyk, Anna T1 - Modelling of nitrogen cycles in intensive winter wheat–summer maize double cropping systems in the North China Plain T1 - Modellierung von Stickstoffkreisläufen in intensiven Winterweizen–Sommermais-Doppelfruchtfolgen in der Nordchinesischen Tiefebene BT - site specific optimisation of nitrogen fertilisation with regard to nitrogen losses, water protection, productivity and regionalisation N2 - The North China Plain (NCP) is one of the most productive and intensive agricultural regions in China. High doses of mineral nitrogen (N) fertiliser, often combined with flood irrigation, are applied, resulting in N surplus, groundwater depletion and environmental pollution. The objectives of this thesis were to use the HERMES model to simulate the N cycle in winter wheat (Triticum aestivum L.)–summer maize (Zea mays L.) double crop rotations and show the performance of the HERMES model, of the new ammonia volatilisation sub-module and of the new nitrification inhibition tool in the NCP. Further objectives were to assess the models potential to save N and water on plot and county scale, as well as on short and long-term. Additionally, improved management strategies with the help of a model-based nitrogen fertiliser recommendation (NFR) and adapted irrigation, should be found. Results showed that the HERMES model performed well under growing conditions of the NCP and was able to describe the relevant processes related to soil–plant interactions concerning N and water during a 2.5 year field experiment. No differences in grain yield between the real-time model-based NFR and the other treatments of the experiments on plot scale in Quzhou County could be found. Simulations with increasing amounts of irrigation resulted in significantly higher N leaching, higher N requirements of the NFR and reduced yields. Thus, conventional flood irrigation as currently practised by the farmers bears great uncertainties and exact irrigation amounts should be known for future simulation studies. In the best-practice scenario simulation on plot-scale, N input and N leaching, but also irrigation water could be reduced strongly within 2 years. Thus, the model-based NFR in combination with adapted irrigation had the highest potential to reduce nitrate leaching, compared to farmers practice and mineral N (Nmin)-reduced treatments. Also the calibrated and validated ammonia volatilisation sub-module of the HERMES model worked well under the climatic and soil conditions of northern China. Simple ammonia volatilisation approaches gave also satisfying results compared to process-oriented approaches. During the simulation with Ammonium sulphate Nitrate with nitrification inhibitor (ASNDMPP) ammonia volatilisation was higher than in the simulation without nitrification inhibitor, while the result for nitrate leaching was the opposite. Although nitrification worked well in the model, nitrification-born nitrous oxide emissions should be considered in future. Results of the simulated annual long-term (31 years) N losses in whole Quzhou County in Hebei Province were 296.8 kg N ha−1 under common farmers practice treatment and 101.7 kg N ha−1 under optimised treatment including NFR and automated irrigation (OPTai). Spatial differences in simulated N losses throughout Quzhou County, could only be found due to different N inputs. Simulations of an optimised treatment, could save on average more than 260 kg N ha−1a−1 from fertiliser input and 190 kg N ha−1a−1 from N losses and around 115.7 mm a−1 of water, compared to farmers practice. These long-term simulation results showed lower N and water saving potential, compared to short-term simulations and underline the necessity of long-term simulations to overcome the effect of high initial N stocks in soil. Additionally, the OPTai worked best on clay loam soil except for a high simulated denitrification loss, while the simulations using farmers practice irrigation could not match the actual water needs resulting in yield decline, especially for winter wheat. Thus, a precise adaption of management to actual weather conditions and plant growth needs is necessary for future simulations. However, the optimised treatments did not seem to be able to maintain the soil organic matter pools, even with full crop residue input. Extra organic inputs seem to be required to maintain soil quality in the optimised treatments. HERMES is a relatively simple model, with regard to data input requirements, to simulate the N cycle. It can offer interpretation of management options on plot, on county and regional scale for extension and research staff. Also in combination with other N and water saving methods the model promises to be a useful tool. N2 - Die Nordchinesische Tiefebene (NCP) ist eine der produktivsten und intensivsten Agrarregionen Chinas. Große Düngermengen an mineralischem Stickstoff (N) und der oft in Kombination genutzten Überflutungsbewässerung führen zu Stickstoffüberflüssen, Grundwasserabsenkung und Umweltverschmutzung. Ziel dieser Arbeit war die Simulation des N-Kreislaufes in Winterweizen (Triticum aestivum L.)–Sommermais (Zea mays L.) -Doppelfruchtfolgen mit dem HERMES Modell. Weitere Ziele waren ein Test der Modellgüte, sowie das Potential des Modells aufzuzeigen, N und Wasser mit Hilfe einer modellbasierten N-Düngeempfehlung (NFR) und angepassten Bewässerungsstrategien einzusparen. Dies erfolgte auf Schlag- und Countyebene wie auch in Kurzzeit- und in Langzeitsimulationen, um verbesserte Managementstrategien für Quzhou-County in der Hebei-Provinz zu finden. Die Ergebnisse zeigten, dass das HERMES Modell gut unter den Wachstumsbedingungen der NCP funktioniert und alle relevanten Boden-Pflanze-Interaktionen während der Versuchszeit von 2,5 Jahren in Bezug auf N und Wasser beschreiben konnte. Es konnten keine Ertragsunterschiede zwischen Echtzeit modellbasierter NFR und anderen Behandlungen auf Schlagebene in Quzhou-County festgestellt werden. Simulationen mit steigenden Bewässerungsgaben ergaben signifikant höheren N-Austrag, höheren N-Bedarf der NFR und reduzierte Erträge. Daher birgt die konventionelle Überflutungsbewässerung, wie sie derzeit von den Landwirten praktiziert wird, große Unsicherheiten und genaue Bewässerungsmengen sollten für zukünftige Simulationsstudien bekannt sein. In der optimierten („best-practice“) Szenariosimulation auf Schlagebene konnte insbesondere die N-Düngung und der N-Austrag, aber auch die Bewässerung innerhalb 2 Jahre stark gesenkt werden. Daher hat die modellbasierte NFR in Kombination mit angepasster Bewässerung, im Gegensatz zu konventioneller und mineralischen N (Nmin)-reduzierter Behandlung, das höchste Potential Nitratauswaschung zu reduzieren. Auch das kalibrierte und validierte Ammoniak-Verflüchtigungs-modul des HERMES Modells funktionierte gut unter den Klima- und Bodenverhältnissen in Nordchina. Die zwei einfacheren Ammoniak-Verflüchtigungsansätze erreichten auch gute Ergebnisse, während die zwei prozessorientierten Ansätze Umwelteinflüsse besser darstellen konnten. In der Simulation mit der Ammonsulfatsalpeter-Düngung mit Nitrifikationsinhibitor (ASNDMPP) war die Ammoniakverflüchtigung höher als in der Simulation ohne Nitrifikationshemmer, während das Ergebnis für Nitratauswaschung umgekehrt war. Obwohl der Nitrifikationsansatz gut funktionierte, sollten von der Nitrifikation stammende Lachgasemissionen in Zukunft im Modell berücksichtigt werden. Im Jahresdurchschnitt lagen die simulierten Langzeit (31 Jahre) N-Verluste für eine Weizen-Mais-Doppelfruchtfolge im ganzen Quzhou-County bei 296,8 kg N ha−1 unter konventioneller Düngung und bei 101,7 kg N ha−1 unter optimierter Düngung inklusive NFR and automatischer Bewässerung (OPTai). Räumliche Unterschiede von simulierten N-Verlusten in Quzhou-County konnten nur aufgrund von unterschiedlichen N-Düngemengen gefunden werden. Simulationen einer optimierten Behandlung konnten im Durchschnitt mehr als 260 kg N ha−1a−1 an N-Düngung und 190 kg N ha−1a−1 an N-Verlusten und 115,7 mm a−1 an Wasser, im Vergleich zur konventionellen Behandlung, einsparen. Im Vergleich zu den Kurzzeitsimulationen ist es ein niedrigeres N- und Wasserreduktionspotential und unterstreicht die Notwendigkeit von Langzeitsimulationen um den Effekt von hohen Anfangs Nmin-Gehalten im Boden zu berücksichtigen. Zudem kommt, dass auf tonigem Lehm Simulationen mit konventioneller Bewässerung nicht den aktuellen Wasserbedarf decken konnten, welches zu Ertragseinbußen insbesondere für Winterweizen führte. Die OPTai Behandlung funktionierte bis auf hohe simulierte Denitrifikationsverluste auf diesem Standort am besten. Daher ist dort für zukünftige Simulationen ein an aktuelle Wetterverhältnisse und Pflanzenwachstumsbedürfnisse angepasstes Management von N und Wasser nötig. Trotzdem schienen die optimierten Behandlungen, trotz voller Strohrückgabe, die organische Bodensubstanz nicht zu erhalten. Zur Sicherung der Bodenfruchtbarkeit in den optimierten Behandlungen scheinen zusätzliche organische Düngergaben wahrscheinlich notwendig zu sein. HERMES ist ein relativ einfaches Modell, im Hinblick auf die Anforderungen an die Eingangsdaten, um den Stickstoffkreislauf zu simulieren. Es ermöglicht, Managementoptionen für Berater und Wissenschaftler auf Schlag-, County- und Regionalebene anzuwenden. Auch in Kombination mit anderen N- und Wasser-Einsparmethoden verspricht das Modell ein nützliches Instrument zu sein. KW - nitrogen KW - Stickstoff KW - simulation KW - Simulation KW - China KW - China Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444213 ER - TY - THES A1 - Kriegerowski, Marius T1 - Development of waveform-based, automatic analysis tools for the spatio-temporal characterization of massive earthquake clusters and swarms N2 - Earthquake swarms are characterized by large numbers of events occurring in a short period of time within a confined source volume and without significant mainshock aftershock pattern as opposed to tectonic sequences. Intraplate swarms in the absence of active volcanism usually occur in continental rifts as for example in the Eger Rift zone in North West Bohemia, Czech Republic. A common hypothesis links event triggering to pressurized fluids. However, the exact causal chain is often poorly understood since the underlying geotectonic processes are slow compared to tectonic sequences. The high event rate during active periods challenges standard seismological routines as these are often designed for single events and therefore costly in terms of human resources when working with phase picks or computationally costly when exploiting full waveforms. This methodological thesis develops new approaches to analyze earthquake swarm seismicity as well as the underlying seismogenic volume. It focuses on the region of North West (NW) Bohemia, a well studied, well monitored earthquake swarm region. In this work I develop and test an innovative approach to detect and locate earthquakes using deep convolutional neural networks. This technology offers great potential as it allows to efficiently process large amounts of data which becomes increasingly important given that seismological data storage grows at increasing pace. The proposed deep neural network trained on NW Bohemian earthquake swarm records is able to locate 1000 events in less than 1 second using full waveforms while approaching precision of double difference relocated catalogs. A further technological novelty is that the trained filters of the deep neural network’s first layer can be repurposed to function as a pattern matching event detector without additional training on noise datasets. For further methodological development and benchmarking, I present a new toolbox to generate realistic earthquake cluster catalogs as well as synthetic full waveforms of those clusters in an automated fashion. The input is parameterized using constraints on source volume geometry, nucleation and frequency-magnitude relations. It harnesses recorded noise to produce highly realistic synthetic data for benchmarking and development. This tool is used to study and assess detection performance in terms of magnitude of completeness Mc of a full waveform detector applied to synthetic data of a hydrofracturing experiment at the Wysin site, Poland. Finally, I present and demonstrate a novel approach to overcome the masking effects of wave propagation between earthquake and stations and to determine source volume attenuation directly in the source volume where clustered earthquakes occur. The new event couple spectral ratio approach exploits high frequency spectral slopes of two events sharing the greater part of their rays. Synthetic tests based on the toolbox mentioned before show that this method is able to infer seismic wave attenuation within the source volume at high spatial resolution. Furthermore, it is independent from the distance towards a station as well as the complexity of the attenuation and velocity structure outside of the source volume of swarms. The application to recordings of the NW Bohemian earthquake swarm shows increased P phase attenuation within the source volume (Qp < 100) based on results at a station located close to the village Luby (LBC). The recordings of a station located in epicentral proximity, close to Nový Kostel (NKC), show a relatively high complexity indicating that waves arriving at that station experience more scattering than signals recorded at other stations. The high level of complexity destabilizes the inversion. Therefore, the Q estimate at NKC is not reliable and an independent proof of the high attenuation finding given the geometrical and frequency constraints is still to be done. However, a high attenuation in the source volume of NW Bohemian swarms has been postulated before in relation to an expected, highly damaged zone bearing CO 2 at high pressure. The methods developed in the course of this thesis yield the potential to improve our understanding regarding the role of fluids and gases in intraplate event clustering. N2 - Erdbebenschwärme zeichnen sich durch eine große Anzahl an Ereignissen in einem relativ kleinen Zeitraum und Volumen aus. Im Gegensatz zu tektonischen Sequenzen ist in der Regel keine signifikantes Muster von Vor- und Nachbeben erkennbar. In Abwesenheit aktiven Vulkanismusses, kommen Erdbebenschwärme innerhalb kontinentaler Platten häufg an kontinentalen Verwerfungen vor, wie Beispielsweise im Bereich des Egergrabens im nordböhmischen Becken (Tschechien). Eine übliche Hypothese verbindet den Erdbebenentstehungsprozess mit Hochdruckfluiden. Der exakte kausale Zusammenhang ist jedoch häufig enigmatisch, da die zugrundeliegenden geotektonischen Prozesse im Vergleich zu tektonischen Sequenzen relativ langsam sind. Die hohe Erdbebenrate während aktiver Phasen stellt hohe Anforderungen an etablierte seismologische Routinen da diese häufg für Einzelereignisse konzipiert sind. So können sie einen hohen Aufwand bei manueller Selektion seismischer Phasen (picking) bedeuten oder rechenerisch aufwändig sein wenn volle Wellenformen verarbeitet werden sollen. Im Rahmen dieser methodologischen Thesis werden neue Ansätze zur Analyse seismischer Schwärme, sowie des zugrundeliegenden seismogenen Volumens entwickelt. Der Fokus liegt hierbei auf der gut untersuchten und überwachten nordböhmischen Schwarmregion. Ich entwickle und teste in dieser Arbeit einen innovativen Ansatz zur Detektion und Lokalisation von Erdbeben basierend auf einem tiefen konvolvierenden neuronalen Netzwerk. Diese Technologie bietet großes Potential da sie es erlaubt große Datenmengen effizient zu verarbeiten was durch die zunehmenden Datenmengen seismologischer Datenzentren immer weiter an Bedeutung gewinnt. Das entwickelte tiefe neuronale Netzwerk, trainiert auf Aufnahmen nordböhmischer Erdbebenschwärme, ist in der Lage 1000 Eregnisse in weniger als 1 Sekunde bei Verwendung voller Wellenformen zu lokalisieren und erreicht eine Präzision die vergleichbar ist mit der Genauigkeit eines Katalogs, der mittels Doppelte Differenzen Methode relokalisiert wurde. Eine weitere technologische Neuheit ist, dass die trainierten Filter der ersten Schicht des tiefen neuronalen Netzwerkes als Mustererkennungsfilter umfunktioniert werden und damit als Ereignisdetektor dienen können, ohne, dass zuvor explizit auf Rauschdaten trainiert werden muss. Für die weitere technologische Entwicklung stelle ich ein neues, automatisiertes Werkzeug für die synthetisierung realistischer Erdbebenschwarmkataloge, sowie hierauf basierender synthetischer voller Wollenform vor. Die Eingabeparameter werden durch die Geometrie des Quellvolumens, der Nukleationscharakteristik und Magnitude-Häufigkeitsverteilung definiert. Weiter können Rauschsignale realer Daten verwendet werden um äußerst realistische synthetische Daten zu generieren. Dieses Werkzeug wird verwendet um die Vollständigkeitmagnitude eines Detektors für volle Wellenformen anhand synthetischer Daten zu evaluieren. Die synthetisierten Daten sind Motiviert durch ein Hydrofrackingexperiment in Wysin (Polen). Des Weiteren stelle ich einen neuen Ansatz vor, der die Effekte der Wellenausbreitung zwischen Erdbeben und Stationen ausblendet und die Bestimmung der Dämpfung unmittelbar im Quellvolumen von Schwarmerdbeben erlaubt. Diese neue Methode benutzt das hochfrequente spektrale Verhältnis von Ereignispaaren mit gemeinsamen Strahlenwegen. Synthetische Tests zeigen, dass die Methode in der Lage ist die Dämpfung innerhalb des Quellvolumens mit hoher räumlicher Genauigkeit zu bestimmen. Weiter ist sie im Einzelnen unabhängig von der Entfernung zwischen Ereignis und Station als auch von der Komplexität der Dämpfungs und Geschwindigkeitsstruktur außerhalb des Quellvolumens. Die Anwendung auf Daten des nordböhmischen Erdbebenschwarms zeigt eine erhöhte P Phasen Dämpfung im Quellvolumen (Qp < 100) basierend auf Daten einer Station in der Nähe des Dorfes Luby (LBC). Die Wellenformen einer Station in unmittelbarer epizentraler Nähe, bei Novy Kostel (NKC), weisen eine relativ hohe Komplexität auf, was darauf hindeutet, dass seismische Wellen, die diese Station erreichen relativ stark gestreut werden im Vergleich zu anderen Stationen. Das hohe Maß an Komplexität destabilisiert die Methode und führt zu ungenauen Schätzungen an der Station NKC. Daher bedarf es einer weiteren unabhängigen Validierung der hohen Dämpfung bei gegebenen geometrischen und spektralen Voraussetzungen. Nichtsdestoweniger wurde bereits eine hohe Dämpfung im Quellvolumen der nordböhmischen Schwärme postuliert und erwartet, insbesondere im Zusammenhang mit einer Zone hoher Brüchigkeit die CO2 bei hohen Drücken beinhaltet. Die Methoden die im Rahmen dieser Thesis entwickelt werden haben das Potential unser Verständnis bezüglich der Rolle von Fluiden und Gasen bei Erdbebenschärmen innerhalb kontinentaler Platten zu verbessern. KW - attenuation tomography KW - earthquake swarms KW - deep learning KW - Dämpfungstomographie KW - Erdbebenschwärme KW - tiefes Lernen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-444040 ER - TY - THES A1 - Le Bot, Nils T1 - Quel avenir pour les gares métropolitaines françaises et allemandes ? T1 - Welche Zukunft für die französischen und deutschen Metropol-Bahnhöfe? T1 - What future for French and German metropolitan train stations ? BT - analyse prospective de la dialectique « système gare » / ville, face au devenir des politiques publiques françaises & allemandes en matière de transport BT - prospektive Analyse der Dialektik "Bahnhofssystem" / Stadt, Angesichts der Zukunft der französischen und deutschen öffentlichen Politik im Bereich des Verkehrs BT - prospective analysis of the dialectic "station system" / city, with regard to the future of French & German public transport policies N2 - Cette thèse d’urbanisme s’est donnée pour objectif de réfléchir à l’avenir des gares métropolitaines françaises et allemandes à horizon 2050. Elle porte une interrogation sur les fondements de la gare comme objet urbain conceptuel (abordé comme un système) et pose comme hypothèse qu’il serait en quelque sorte doté de propriétés autonomes. Parmi ces propriétés, c’est le processus d’expansion et de dialogue sans cesse renouvelé et conflictuel, entre la gare et son tissu urbain environnant, qui guide cette recherche ; notamment dans le rapport qu’il entretient avec l’hypermobilité des métropoles. Pour ce faire, cette thèse convoque quatre terrains d’études : les gares principales de Cologne et de Stuttgart en Allemagne et les gares de Paris-Montparnasse et Lyon-Part-Dieu en France ; et commence par un historique détaillé de leurs évolutions morphologiques, pour dégager une série de variables architectoniques et urbaines. Il procède dans un deuxième temps à une série d’analyse prospective, permettant de juger de l’influence possible des politiques publiques en matière transports et de mobilité, sur l’avenir conceptuel des gares. Cette thèse propose alors le concept de système-gare, pour décrire l’expansion et l’intégration des gares métropolitaines avec leur environnement urbain ; un processus de négociation dialectique qui ne trouve pas sa résolution dans le concept de gare comme lieu de vie/ville. Elle invite alors à penser la gare comme une hétérotopie, et propose une lecture dépolarisée et déhiérarchisée de ces espaces, en introduisant les concepts d’orchestre de gares et de métagare. Cette recherche propose enfin une lecture critique de la « ville numérique » et du concept de « mobilité comme service. » Pour éviter une mise en flux tendus potentiellement dommageables, l’application de ces concepts en gare ne pourra se soustraire à une augmentation simultanée des espaces physiques. N2 - Diese Doktorarbeit im Bereich der Stadtplanung zielt darauf ab, sich mit der Zukunft der französischen und deutschen Metropol-Großbahnhöfe bis zum Jahr 2050 auseinanderzusetzen. Sie hinterfragt die Grundprinzipien des Bahnhofs als konzeptuelles urbanes Objekt (welchem sich als System angenähert wird) und formuliert die Hypothese, dass der Bahnhof als Objekt oder System in gewisser Weise autonome Eigenschaften hat. Zu diesen Eigenschaften gehört der diese Forschungsarbeit prägende Prozess der Expansion und des ständig erneuerten und konfliktgeladenen Dialogs zwischen Bahnhof und umliegenden städtischen Strukturen. Ein Augenmerk liegt hierbei auf der Beziehung dieses Expansionsprozesses und Dialoges zur Hypermobilität von Ballungsräumen. Zu diesem Zweck beschäftigt sich diese Arbeit mit vier Forschungsgegenständen: den Hauptbahnhöfen Köln und Stuttgart in Deutschland und den Großbahnhöfen Paris-Montparnasse und Lyon-Part-Dieu in Frankreich; und stellt zu Beginn eine detaillierte Geschichte der morphologischen Entwicklung derselben dar, um eine Reihe von architektonischen und urbanen Variablen zu identifizieren. Anschließend werden prospektive Analysen durchgeführt, die es ermöglichen, den möglichen Einfluss der aktuellen und geplanten Verkehrspolitik auf die Zukunft des Konzepts Bahnhof zu bewerten. Sodann wird das Konzept des Bahnhofssystems (système-gare) vorgeschlagen, um die Expansion von Großbahnhöfen und deren Integration in ihr urbanes Umfeld zu beschreiben; ein dialektischer Verhandlungsprozess, der vom Konzept des Bahnhofs als Lebensraum und Stadtraum/-ort nicht hinreichend erfasst wird. Die Arbeit lädt dazu ein, Bahnhöfe als Heterotopien zu betrachten und schlägt eine entpolarisierte und de-hierarchische Lesart dieser Räume vor, indem die Konzepte Bahnhofs- Orchester und Meta-Bahnhof eingeführt werden. Schließlich erfolgt eine Auseinandersetzung mit der “Smart City” und dem Konzept der “Mobilität als Dienstleistung”, die sich insbesondere kritisch mit dem Umstand befasst, dass beide Ansätze den aufgrund der Zunahme des Verkehrs und zur Vermeidung einer potentiell schädlichen Just-in-time Organisation in Bahnhöfen notwendigen Ausbau der Bahnhöfe nicht vermeiden können. N2 - This urban planning thesis aims to reflect on the future of French and German metropolitan stations by 2050. It questions the foundations of the station as a conceptual urban thing (considered as a system) and suggests as a hypothesis that it might somehow have autonomous properties. Among these properties, it is the process of expansion and ever renewed and conflictual dialogue between the station and its surrounding urban fabric which guides this research; particularly its link to metropolises’ hypermobility. To do this, this thesis calls up four study sites: the main stations in Cologne and Stuttgart in Germany, and the Paris-Montparnasse and Lyon-Part-Dieu stations in France; and starts with a detailed history of their morphological evolutions, to identify a series of architectonic and urban variables. In a second stage, it proceeds to a series of prospective analyses, allowing us to evaluate the possible influence of public transport and mobility policies on the conceptual future of stations. This thesis then puts forward the concept of a station-system, to describe the expansion and integration of metropolitan stations within their urban environment; a process of dialectic negotiation which does not resolve itself within the concept of stations as a living/urban space. It therefore invites us to think of stations as a heterotopia, and puts forward a depolarised and dehierarchised reading of these spaces, introducing the concepts of station orchestras and metastations. Finally, this research suggests a critical reading of the “smart city” and the concept of “mobility as a service”. To avoid that stations move to a just-in-time model which could potentially be damaging, the application of these concepts to stations cannot avoid a simultaneous increase of physical spaces. KW - gare KW - Bahnhof KW - railway station KW - hypermobilité KW - Hypermobilität KW - hypermobility KW - prospective KW - Zukunftsforschung KW - prospective KW - politiques publiques KW - Verkehrspolitik KW - transport public policies KW - ville intelligente KW - Smart City KW - smart city KW - MaaS KW - MaaS KW - MaaS Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442201 ER - TY - THES A1 - Zemella, Anne T1 - Fluoreszenzmarkierung und Modifizierung von komplexen Proteinen in eukaryotischen zellfreien Systemen durch die Etablierung von orthogonalen tRNA/Aminoacyl-tRNA-Synthetase-Paaren T1 - Fluorescent labeling and modification of complex proteins in eukaryotic cell-free systems by establishing orthogonal tRNA/aminoacyl-tRNA-synthetase pairs N2 - Die funktionelle Charakterisierung von therapeutisch relevanten Proteinen kann bereits durch die Bereitstellung des Zielproteins in adäquaten Mengen limitierend sein. Dies trifft besonders auf Membranproteine zu, die aufgrund von zytotoxischen Effekten auf die Produktionszelllinie und der Tendenz Aggregate zu bilden, in niedrigen Ausbeuten an aktivem Protein resultieren können. Der lebende Organismus kann durch die Verwendung von translationsaktiven Zelllysaten umgangen werden- die Grundlage der zellfreien Proteinsynthese. Zu Beginn der Arbeit wurde die ATP-abhängige Translation eines Lysates auf der Basis von kultivierten Insektenzellen (Sf21) analysiert. Für diesen Zweck wurde ein ATP-bindendes Aptamer eingesetzt, durch welches die Translation der Nanoluziferase reguliert werden konnte. Durch die dargestellte Applizierung von Aptameren, könnten diese zukünftig in zellfreien Systemen für die Visualisierung der Transkription und Translation eingesetzt werden, wodurch zum Beispiel komplexe Prozesse validiert werden können. Neben der reinen Proteinherstellung können Faktoren wie posttranslationale Modifikationen sowie eine Integration in eine lipidische Membran essentiell für die Funktionalität des Membranproteins sein. Im zweiten Abschnitt konnte, im zellfreien Sf21-System, für den G-Protein-gekoppelten Rezeptor Endothelin B sowohl eine Integration in die endogen vorhandenen Endoplasmatisch Retikulum-basierten Membranstrukturen als auch Glykosylierungen, identifiziert werden. Auf der Grundlage der erfolgreichen Synthese des ET-B-Rezeptors wurden verschiedene Methoden zur Fluoreszenzmarkierung des Adenosin-Rezeptors A2a (Adora2a) angewandt und optimiert. Im dritten Abschnitt wurde der Adora2a mit Hilfe einer vorbeladenen tRNA, welche an eine fluoreszierende Aminosäure gekoppelt war, im zellfreien Chinesischen Zwerghamster Ovarien (CHO)-System markiert. Zusätzlich konnte durch den Einsatz eines modifizierten tRNA/Aminoacyl-tRNA-Synthetase-Paares eine nicht-kanonische Aminosäure an Position eines integrierten Amber-Stopcodon in die Polypeptidkette eingebaut und die funktionelle Gruppe im Anschluss an einen Fluoreszenzfarbstoff gekoppelt werden. Aufgrund des offenen Charakters eignen sich zellfreie Proteinsynthesesysteme besonders für eine Integration von exogenen Komponenten in den Translationsprozess. Mit Hilfe der Fluoreszenzmarkierung wurde eine ligandvermittelte Konformationsänderung im Adora2a über einen Biolumineszenz-Resonanzenergietransfer detektiert. Durch die Etablierung der Amber-Suppression wurde darüber hinaus das Hormon Erythropoetin pegyliert, wodurch Eigenschaften wie Stabilität und Halbwertszeit des Proteins verändert wurden. Zu guter Letzt wurde ein neues tRNA/Aminoacyl-tRNA-Synthetase-Paar auf Basis der Methanosarcina mazei Pyrrolysin-Synthetase etabliert, um das Repertoire an nicht-kanonischen Aminosäuren und den damit verbundenen Kopplungsreaktionen zu erweitern. Zusammenfassend wurden die Potenziale zellfreier Systeme in Bezug auf der Herstellung von komplexen Membranproteinen und der Charakterisierung dieser durch die Einbringung einer positionsspezifischen Fluoreszenzmarkierung verdeutlicht, wodurch neue Möglichkeiten für die Analyse und Funktionalisierung von komplexen Proteinen geschaffen wurden. N2 - The functional characterization of therapeutically relevant proteins can be limited due to the provision of the target protein in adequate amounts. In particular membrane proteins belong to the so called “difficult-to-express” proteins because of possible cytotoxic side effects and a susceptibility to aggregation. The living organism can be circumvented by using cell lysates – the basic for cell-free protein synthesis. In the beginning of the thesis the ATP-dependent translation process in a cell lysate based on cultured insect (Sf21) cells was analyzed. For this purpose the translation of a nanoluciferase was regulated by the addition of an ATP-binding aptamer. The demonstrated application of aptamers in cell-free systems might enable a visualization of transcription and translation and following a potential validation process for high-throughput syntheses. In addition to the protein synthesis, factors such as posttranslational modifications and a correct integration into a lipid membrane are essential for the functionality of membrane proteins. Therefore, in the second part, integration of the G protein-coupled Endothelin receptor type B (ET-B) into the endogenous endoplasmic reticulum derived membranes and glycosylation were shown to be possible in a Sf21 cell-free system. Following to the successful synthesis of the ET-B receptor different fluorescent labeling strategies were applied to the adenosine receptor A2a (Adora2a). The first strategy applied precharged tRNAs, coupled to a fluorescently labeled amino acid, to the translation process in a Chinese Hamster Ovary cells (CHO) cell-free system. The second strategy utilized a modified tRNA/aminoacyl-tRNA-synthetase pair to incorporate a non-canonical amino acid at an integrated amber stop codon with a subsequently fluorescent labeling. The open character of cell-free systems enables a feasible integration of exogenous components into the translation process. The site-specific fluorescent labeling was the basis for the detection of a ligand-induced conformational change in the Adora2a by a bioluminescence resonance energy transfer. Additionally the amber suppression technique was transferred to the hormone Erythropoietin (EPO) to modify EPO´s stability and half-life period by coupling polyethylene glycol. Last but not least a novel tRNA/aminoacyl-tRNA-synthetase pair based on the Methanosarcina mazei pyrrolysine synthetase was developed to further increase the repertoire of non-canonical amino acids and copper-free click reactions. Summarizing in the present thesis the potentials of cell-free protein systems related to the synthesis of “difficult-to-express” proteins and the characterization of these proteins with site-specific fluorescence labeling are depicted, thereby establishing new methods for the analysis and functionalization of complex proteins. KW - Zellfreie Proteinsynthese KW - nicht-kanonische Aminosäuren KW - Klick-Chemie KW - Fluoreszenzmarkierung KW - GPCRs KW - Proteinmodifizierung KW - cell-free protein synthesis KW - non-canonical amino acids KW - click chemistry KW - fluorescent labeling KW - GPCRs KW - protein modification Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442361 ER - TY - THES A1 - Schmidt, Martin T1 - Fragmentation of landscapes: modelling ecosystem services of transition zones T1 - Fragmentierung von Landschaften: Modellierung von Ökosystemleistungen in Übergangszonen N2 - For millennia, humans have affected landscapes all over the world. Due to horizontal expansion, agriculture plays a major role in the process of fragmentation. This process is caused by a substitution of natural habitats by agricultural land leading to agricultural landscapes. These landscapes are characterized by an alternation of agriculture and other land use like forests. In addition, there are landscape elements of natural origin like small water bodies. Areas of different land use are beside each other like patches, or fragments. They are physically distinguishable which makes them look like a patchwork from an aerial perspective. These fragments are each an own ecosystem with conditions and properties that differ from their adjacent fragments. As open systems, they are in exchange of information, matter and energy across their boundaries. These boundary areas are called transition zones. Here, the habitat properties and environmental conditions are altered compared to the interior of the fragments. This changes the abundance and the composition of species in the transition zones, which in turn has a feedback effect on the environmental conditions. The literature mainly offers information and insights on species abundance and composition in forested transition zones. Abiotic effects, the gradual changes in energy and matter, received less attention. In addition, little is known about non-forested transition zones. For example, the effects on agricultural yield in transition zones of an altered microclimate, matter dynamics or different light regimes are hardly researched or understood. The processes in transition zones are closely connected with altered provisioning and regulating ecosystem services. To disentangle the mechanisms and to upscale the effects, models can be used. My thesis provides insights into these topics: literature was reviewed and a conceptual framework for the quantitative description of gradients of matter and energy in transition zones was introduced. The results of measurements of environmental gradients like microclimate, aboveground biomass and soil carbon and nitrogen content are presented that span from within the forest into arable land. Both the measurements and the literature review could not validate a transition zone of 100 m for abiotic effects. Although this value is often reported and used in the literature, it is likely to be smaller. Further, the measurements suggest that on the one hand trees in transition zones are smaller compared to those in the interior of the fragments, while on the other hand less biomass was measured in the arable lands’ transition zone. These results support the hypothesis that less carbon is stored in the aboveground biomass in transition zones. The soil at the edge (zero line) between adjacent forest and arable land contains more nitrogen and carbon content compared to the interior of the fragments. One-year measurements in the transition zone also provided evidence that microclimate is different compared to the fragments’ interior. To predict the possible yield decreases that transition zones might cause, a modelling approach was developed. Using a small virtual landscape, I modelled the effect of a forest fragment shading the adjacent arable land and the effects of this on yield using the MONICA crop growth model. In the transition zone yield was less compared to the interior due to shading. The results of the simulations were upscaled to the landscape level and exemplarily calculated for the arable land of a whole region in Brandenburg, Germany. The major findings of my thesis are: (1) Transition zones are likely to be much smaller than assumed in the scientific literature; (2) transition zones aren’t solely a phenomenon of forested ecosystems, but significantly extend into arable land as well; (3) empirical and modelling results show that transition zones encompass biotic and abiotic changes that are likely to be important to a variety of agricultural landscape ecosystem services. N2 - Seit Jahrtausenden werden Landschaften weltweit maßgeblich durch den Menschen gestaltet. Insbesondere die Landwirtschaft hat durch Fragmentierung, der teilweisen Umwandlung natürlicher Lebensräume in landwirtschaftlich genutzte Flächen, großen Einfluss, so dass Agrarlandschaften entstanden. Diese zeichnen sich durch einen Wechsel von agrarischer und anderer Nutzung, wie beispielsweise Forst, aus. Hinzu kommen Flächen, die auf eine natürliche Entstehung zurückzuführen sind, wie etwa Kleingewässer. Kleinere und größere Flächen der unterschiedlichen Nutzung liegen als Flicken bzw. Fragmente nebeneinander. Durch die physische Differenzierbarkeit der Flächennutzung aus der Vogelperspektive werden Agrarlandschaften oft auch als Flickwerk (“Patchwork”) bezeichnet. Diese Fragmente sind Ökosysteme, die sich in ihren Eigenschaften voneinander unterscheiden. Die Fragmente als Ökosysteme sind offene und komplexe Systeme und stehen im Austausch mit angrenzenden Fragmenten. Die Bereiche, in denen der Austausch von Stoffen, Energie und Informationen stattfindet, sind deren Übergangszonen. Durch den Austausch verändern sich die vorherrschenden Eigenschaften der jeweils angrenzenden Fragmente in den Übergangszonen. Stoffflüsse beeinflussen dabei die in den Übergangszonen lebenden Organismen und können die Artenzusammensetzung und Population verändern. Gleichwohl hat dies Rückkopplungseffekte auf die Flüsse von Stoffen, Informationen und Energie selbst. In der Forschung ist bereits viel über die Auswirkungen auf Organismen in den Übergangszonen bekannt, insbesondere für bewaldete Gebiete. Weniger beforscht sind abiotische Effekte, insbesondere die graduellen Veränderungen von Stoffen und Energie in der Übergangszone. Diese sind jedoch eng verwoben in die Prozesse, die zu regulierenden und bereitstellenden Ökosystemleistungen wie beispielsweise landwirtschaftlichen Erträgen oder Kohlenstoffspeicherung beitragen. Darüber hinaus gibt es wenig Forschung zu den Übergangszonen von nicht-bewaldeten Übergangszonen, wie etwa Äckern. In der vorliegenden Arbeit präsentiere ich die Ergebnisse einer Literaturrecherche und einen Ansatz zur quantitativen Beschreibung von Stoff- und Energieflüssen in Übergangszonen. Darüber hinaus analysiere ich Messungen eben jener abiotischen Effekte in Übergangszonen. Sowohl die Messungen als auch die Auswertung der Literatur ergab, dass viele Autoren die Übergangszone in Bezug auf Umweltgradienten und deren Einfluss auf Ökosystemleistungen mit 100 m überschätzen. Sie ist oft kleiner. Die Messungen ergaben außerdem, dass Bäume in der Übergangszone kleiner sind und dadurch vermutlich weniger Kohlenstoff speichern als vergleichbare Bäume im Inneren dieser Fragmente. An Wald angrenzende Ackerkulturen zeigen ebenfalls einen geringeren Aufwuchs an Biomasse. Im Boden genau an der Grenze zwischen Wald- und Ackerfragmenten waren sowohl Stickstoff als auch Kohlenstoff erhöht. Einjährige Messungen in Brandenburg ergaben, dass das Mikroklima in der Übergangszone im Vergleich zum Inneren der Fragmente ebenfalls verändert war. Um genauer zu verstehen, was die Ertragsminderung in der ackerbaulichen Übergangszone induziert, wurde ein Modellierungsansatz entwickelt. Die Beschattung durch einen virtuellen Wald wurde im agrarischen Simulationsmodell MONICA als Variable benutzt, um eine potentielle Ertragsminderung zu simulieren. Ein Minderertrag in der Übergangszone konnte auf diese Weise nachgewiesen und mit einer verminderten Solarstrahlung in Verbindung gebracht werden. Die simulierten Ergebnisse wurden anschließend für die Beispielregion Brandenburg für die gesamte landwirtschaftlich genutzte Fläche skaliert. Insbesondere in drei Punkten trägt diese Arbeit zum wissenschaftlichen Fortschritt bei: 1) Übergangszonen sind sehr wahrscheinlich kleiner als bislang in der wissenschaftlichen Literatur angenommen; 2) Übergangszonen sollten ganzheitlich, über die Grenze zwischen Wald und Feld hinweg betrachtet werden; 3) Messungen und Modellierung zeigen einen Zusammenhang zwischen Mikroklima, Stoffdynamik und Ökosystemleistungen in Übergangszonen von Agrarlandschaften. KW - edge effects KW - agricultural modelling KW - ecosystem services KW - transition zone KW - fragmentation KW - Randeffekte KW - Pflanzenwachstumsmodellierung KW - Ökosystemleistungen KW - Übergangszone KW - Fragmentierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442942 ER - TY - THES A1 - Burmester, Juliane T1 - Linguistic and visual salience in sentence comprehension T1 - Linguistische und visuelle Salienz im Satzverständnis BT - evidence from behavioural and electrophysiological studies BT - Evidenz aus behavioralen and elektrophysiologischen Studien N2 - Interlocutors typically link their utterances to the discourse environment and enrich communication by linguistic (e.g., information packaging) and extra-linguistic (e.g., eye gaze, gestures) means to optimize information transfer. Psycholinguistic studies underline that ‒for meaning computation‒ listeners profit from linguistic and visual cues that draw their focus of attention to salient information. This dissertation is the first work that examines how linguistic compared to visual salience cues influence sentence comprehension using the very same experimental paradigms and materials, that is, German subject-before-object (SO) and object-before-subject (OS) sentences, across the two cue modalities. Linguistic salience was induced by indicating a referent as the aboutness topic. Visual salience was induced by implicit (i.e., unconscious) or explicit (i.e., shared) manipulations of listeners’ attention to a depicted referent. In Study 1, a selective, facilitative impact of linguistic salience on the context-sensitive OS word order was found using offline comprehensibility judgments. More precisely, during online sentence processing, this impact was characterized by a reduced sentence-initial Late positivity which reflects reduced processing costs for updating the current mental representation of discourse. This facilitative impact of linguistic salience was not replicated by means of an implicit visual cue (Study 2) shown to modulate word order preferences during sentence production. However, a gaze shift to a depicted referent as an indicator of shared attention eased sentence-initial processing similar to linguistic salience as revealed by reduced reading times (Study 3). Yet, this cue did not modulate the strong subject-antecedent preference during later pronoun resolution like linguistic salience. Taken together, these findings suggest a significant impact of linguistic and visual salience cues on sentence comprehension, which substantiates that both the information delivered via language and via the visual environment is integrated into the mental representation of the discourse; but, the way how salience is induced is crucial to its impact. N2 - In der alltäglichen Kommunikation optimieren Gesprächspartner den Informationstransfer typischerweise durch linguistische und extra-linguistische, visuelle Hinweise (z.B. Blickbewegungen, Zeigegesten), mittels derer sie ihre Äußerungen mit dem Diskursumfeld verknüpfen. Psycholinguistische Studien unterstreichen, dass Zuhörer für das Verstehen von Sätzen sowohl von linguistischen als auch visuellen Hinweisreizen profitieren, die ihre Aufmerksamkeit auf saliente Informationen lenken. Ziel dieser Dissertation ist es, zu charakterisieren, ob und inwiefern visuelle im Vergleich zu linguistischer Salienz das Satzverständnis beeinflusst. Linguistische Salienz wurde durch das Einführen eines Referenten, als sog. Topik, induziert. Visuelle Salienz wurde durch implizite (unbewusste) oder explizite (bewusste) Manipulationen der Aufmerksamkeit von erwachsenen StudienteilnehmerInnen auf einen visuell abgebildeten Referenten hervorgerufen. Im Fokus der drei Studien dieser Dissertation steht die Untersuchung des Einflusses von linguistischer und visueller Salienz auf die satzinitiale Verarbeitung von kanonischen Subjekt-Verb-Objekt (SO)- und nicht-kanonischen Objekt-Verb-Subjekt (OS)-Sätzen im Deutschen, wobei in beiden Modalitäten dieselben experimentellen Paradigmen verwendet werden. Studie 1 liefert Evidenz für einen selektiven, erleichternden Einfluss von zuvor induzierter linguistischer Salienz auf das Verstehen von OS-Sätzen. Dieser Einfluss linguistischer Salienz zeigte sich sowohl nach der Präsentation der Zielsätze, nämlich anhand behavioraler Daten zur Beurteilung des Verständnisses, als auch während des Lesens von OS-Sätzen, nämlich in Form einer satzinitialen, reduzierten späten Positivierung (sog. Late Positivity) in den ereigniskorrelierten Potentialen der elektrophysiologischen Messung. Dieser erleichternde Einfluss der linguistischen Salienz wurde nicht durch die implizite, visuelle Manipulation der Aufmerksamkeit der StudienteilnehmerInnen auf einen visuell abgebildeten Referenten repliziert (Studie 2). In Studie 3 weist die explizite, intentionale Manipulation der Aufmerksamkeit der StudienteilnehmerInnen mittels der Blickbewegung einer (virtuellen) Person auf einen visuell abgebildeten Referenten jedoch auf eine satzinitiale Verarbeitungserleichterung in Form verkürzter Lesezeiten von SO- und OS-Sätzen hin. Dieser Effekt visueller Salienz ähnelte zwar dem Einfluss linguistischer Salienz während des satzinitialen Lesens, unterschied sich jedoch von dieser während der anschließenden Pronomeninterpretation. Zusammengefasst liefern die Ergebnisse dieser Dissertation Evidenz für einen signifikanten Einfluss linguistischer und visueller Salienz auf das Satzverständnis, wobei die kontextuelle Einbettung von Salienzmerkmalen eine entscheidende Rolle für die Integration von Information in die mentale Diskursrepräsentation spielt. KW - sentence processing KW - sentence comprehension KW - linguistic salience KW - visual salience KW - aboutness topic KW - German word order KW - information structure KW - discourse context KW - mental representation KW - Satzverarbeitung KW - Satzverständnis KW - linguistische Salienz KW - visuelle Salienz KW - Topik KW - Wortstellung im Deutschen KW - Informationsstruktur KW - Diskurskontext KW - mentale Repräsentation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443155 ER - TY - THES A1 - Hoang, Yen T1 - De novo binning strategy to analyze and visualize multi-dimensional cytometric data T1 - De novo Binning-Ansatz zur Untersuchung und Visualisierung von multidimensionalen Zytrometriedaten BT - engineering of combinatorial variables for supervised learning approaches N2 - Since half a century, cytometry has been a major scientific discipline in the field of cytomics - the study of system’s biology at single cell level. It enables the investigation of physiological processes, functional characteristics and rare events with proteins by analysing multiple parameters on an individual cell basis. In the last decade, mass cytometry has been established which increased the parallel measurement to up to 50 proteins. This has shifted the analysis strategy from conventional consecutive manual gates towards multi-dimensional data processing. Novel algorithms have been developed to tackle these high-dimensional protein combinations in the data. They are mainly based on clustering or non-linear dimension reduction techniques, or both, often combined with an upstream downsampling procedure. However, these tools have obstacles either in comprehensible interpretability, reproducibility, computational complexity or in comparability between samples and groups. To address this bottleneck, a reproducible, semi-automated cytometric data mining workflow PRI (pattern recognition of immune cells) is proposed which combines three main steps: i) data preparation and storage; ii) bin-based combinatorial variable engineering of three protein markers, the so called triploTs, and subsequent sectioning of these triploTs in four parts; and iii) deployment of a data-driven supervised learning algorithm, the cross-validated elastic-net regularized logistic regression, with these triploT sections as input variables. As a result, the selected variables from the models are ranked by their prevalence, which potentially have discriminative value. The purpose is to significantly facilitate the identification of meaningful subpopulations, which are most distinguish between two groups. The proposed workflow PRI is exemplified by a recently published public mass cytometry data set. The authors found a T cell subpopulation which is discriminative between effective and ineffective treatment of breast carcinomas in mice. With PRI, that subpopulation was not only validated, but was further narrowed down as a particular Th1 cell population. Moreover, additional insights of combinatorial protein expressions are revealed in a traceable manner. An essential element in the workflow is the reproducible variable engineering. These variables serve as basis for a clearly interpretable visualization, for a structured variable exploration and as input layers in neural network constructs. PRI facilitates the determination of marker levels in a semi-continuous manner. Jointly with the combinatorial display, it allows a straightforward observation of correlating patterns, and thus, the dominant expressed markers and cell hierarchies. Furthermore, it enables the identification and complex characterization of discriminating subpopulations due to its reproducible and pseudo-multi-parametric pattern presentation. This endorses its applicability as a tool for unbiased investigations on cell subsets within multi-dimensional cytometric data sets. N2 - Massen- und Durchflusszytometrie-Messungen ermöglichen die detaillierte Einteilung von Zellgruppen nach Eigenschaften vor allem in der Diagnostik und in der Grundlagenforschung anhand der Erfassung von biologischen Informationen auf Einzelzellebene. Sie unterstützen die detaillierte Analyse von komplexen, zellulären Zusammenhängen, um physiologische und pathophysiologische Prozesse zu erkennen, und funktionelle oder krankheitsspezifische Characteristika und rare Zellgruppen genauer zu spezifizieren und zu extrahieren. In den letzten Jahren haben zytometrische Technologien einen enormen Innovationssprung erfahren, sodass heutzutage bis zu 50 Proteine pro Zelle parallel gemessen werden können. Und das mit einem Durchsatz von Hunderttausenden bis mehreren Millionen von Zellen aus einer Probe. Bei der Zunahme der Messparameter steigen jedoch die Dimensionen der kombinierten Parameter exponentiell, sodass eine komplexe Kombinatorik entsteht, die mit konventionellen, manuellen Untersuchungen von bi-axialen Diagrammen nicht mehr durchführbar sind. Derzeit gibt es schon viele neue Datenanalyse-Ansätze, die vorranging auf Cluster- bzw. Dimensionsreduktionstechniken basieren und meist mit einem vorgeschalteten Downsampling in Kombination eingesetzt werden. Diese Tools produzieren aber komplexe Ergebnisse, die größtenteils nicht reproduzierbar sind oder Proben- und Gruppenvergleiche erschweren. Um dieses Problem anzugehen wurde in dieser Dissertation ein reproduzierbarer, halbautomatisierter Datenanalyse-Workflow namens PRI entwickelt, was für pattern recognition of immune cells (Mustererkennung von Immunzellen) steht. Dieser Workflow ist in drei Hauptteile untergliedert: die Datenvorbereitung und -Ablage; die Entwicklung innovativer, bin-basierter Merkmale von drei kombinierten Parametern namens TriploTs und dessen weiterführende Einteilung in vier gleich große TriploT-Areale; und die Anwendung von einem maschinellen Lernansatz basierend auf der Information von diesen Arealen. Als Ergebnis bekommt man eine Selektion der Areale, die am häufigsten von den überwachten Modellen ausgewählt wurden. Dies soll dem Wissenschaftler entscheidend dabei helfen, Zellpopulationen zu identifizieren, die am besten zwischen zwei Gruppen unterscheiden. Der vorgestellte Workflow PRI ist exemplarisch an einem kürzlich veröffentlichten Massenzytometrie-Datensatz validiert worden. Die von den Originalautoren hervorgehobene Zellpopulation konnte nicht nur identifiziert werden, sondern sogar wesentlich weiter spezifiziert werden. Außerdem wurden weitere Erkenntnisse von relevanten, kombinatorischen Proteinexpressionen festgestellt. Die Entwicklung der reproduzierbaren TriploTs führt dazu, dass sie als Basis für verständliche und leicht interpretierbare Visualisierungen, für eine strukturierte Erforschung der Daten mithilfe der Selektion der Areale, und für neuronale Netzwerkkonstrukte genutzt werden können. PRI ermöglicht eine optimierte, semi-kontinuierliche Bestimmung der Expressionsstufen, die die Identifizierung von dominant vorherrschenden und diskriminierenden Proteinen in Zellsubpopulationen wesentlich erleichtert. Darüberhinaus erlaubt es die intuitive Erfassung von korrelierenden Mustern durch die innovative, reproduzierbare Darstellung der Proteinkombinationen und hilft bei der Erforschung von Zellsubpopulationen. KW - machine learning KW - feature engineering KW - machinelles Lernen KW - Feature Engineering Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443078 ER - TY - THES A1 - Qin, Qing T1 - Chemical functionalization of porous carbon-based materials to enable novel modes for efficient electrochemical N2 fixation T1 - Chemische Funktionalisierung von porösen Materialien auf Kohlenstoffbasis zur Ermöglichung neuartiger Verfahren für eine effiziente elektrochemische N2-Fixierung N2 - The central motivation of the thesis was to provide possible solutions and concepts to improve the performance (e.g. activity and selectivity) of electrochemical N2 reduction reaction (NRR). Given that porous carbon-based materials usually exhibit a broad range of structural properties, they could be promising NRR catalysts. Therefore, the advanced design of novel porous carbon-based materials and the investigation of their application in electrocatalytic NRR including the particular reaction mechanisms are the most crucial points to be addressed. In this regard, three main topics were investigated. All of them are related to the functionalization of porous carbon for electrochemical NRR or other electrocatalytic reactions. In chapter 3, a novel C-TixOy/C nanocomposite has been described that has been obtained via simple pyrolysis of MIL-125(Ti). A novel mode for N2 activation is achieved by doping carbon atoms from nearby porous carbon into the anion lattice of TixOy. By comparing the NRR performance of M-Ts and by carrying out DFT calculations, it is found that the existence of (O-)Ti-C bonds in C-doped TixOy can largely improve the ability to activate and reduce N2 as compared to unoccupied OVs in TiO2. The strategy of rationally doping heteroatoms into the anion lattice of transition metal oxides to create active centers may open many new opportunities beyond the use of noble metal-based catalysts also for other reactions that require the activation of small molecules as well. In chapter 4, a novel catalyst construction composed of Au single atoms decorated on the surface of NDPCs was reported. The introduction of Au single atoms leads to active reaction sites, which are stabilized by the N species present in NDPCs. Thus, the interaction within as-prepared AuSAs-NDPCs catalysts enabled promising performance for electrochemical NRR. For the reaction mechanism, Au single sites and N or C species can act as Frustrated Lewis pairs (FLPs) to enhance the electron donation and back-donation process to activate N2 molecules. This work provides new opportunities for catalyst design in order to achieve efficient N2 fixation at ambient conditions by utilizing recycled electric energy. The last topic described in chapter 5 mainly focused on the synthesis of dual heteroatom-doped porous carbon from simple precursors. The introduction of N and B heteroatoms leads to the construction of N-B motives and Frustrated Lewis pairs in a microporous architecture which is also rich in point defects. This can improve the strength of adsorption of different reactants (N2 and HMF) and thus their activation. As a result, BNC-2 exhibits a desirable electrochemical NRR and HMF oxidation performance. Gas adsorption experiments have been used as a simple tool to elucidate the relationship between the structure and catalytic activity. This work provides novel and deep insights into the rational design and the origin of activity in metal-free electrocatalysts and enables a physically viable discussion of the active motives, as well as the search for their further applications. Throughout this thesis, the ubiquitous problems of low selectivity and activity of electrochemical NRR are tackled by designing porous carbon-based catalysts with high efficiency and exploring their catalytic mechanisms. The structure-performance relationships and mechanisms of activation of the relatively inert N2 molecules are revealed by either experimental results or DFT calculations. These fundamental understandings pave way for a future optimal design and targeted promotion of NRR catalysts with porous carbon-based structure, as well as study of new N2 activation modes. N2 - Die zentrale Motivation der Arbeit war es, mögliche Lösungen und Konzepte zur Verbesserung der Leistung (z.B. Aktivität und Selektivität) der elektrochemischen N2-Reduktionsreaktion (NRR) anzubieten. Da poröse Materialien auf Kohlenstoffbasis in der Regel ein breites Spektrum an strukturellen Eigenschaften aufweisen, könnten sie vielversprechende NRR-Katalysatoren sein. Daher sind das fortgeschrittene Design neuartiger poröser Materialien auf Kohlenstoffbasis und die Untersuchung ihrer Anwendung in der elektrokatalytischen NRR einschließlich der besonderen Reaktionsmechanismen die wichtigsten Punkte, die angegangen werden müssen. In diesem Zusammenhang wurden drei Hauptthemen untersucht. Alle von ihnen stehen im Zusammenhang mit der Funktionalisierung von porösem Kohlenstoff für elektrochemische NRR oder andere elektrokatalytische Reaktionen. In Kapitel 3 wurde ein neuartiger C-TixOy/C-Nanokomposit beschrieben, der durch einfache Pyrolyse von MIL-125(Ti) gewonnen wurde. Ein neuartiger Modus für die N2-Aktivierung wird durch Dotierung von Kohlenstoffatomen aus nahegelegenem porösem Kohlenstoff in das Aniongitter von TixOy erreicht. Durch den Vergleich der NRR-Leistung von M-Ts und die Durchführung von DFT-Berechnungen wird festgestellt, dass die Existenz von (O-)Ti-C-Bindungen in C-dotiertem TixOy die Fähigkeit zur Aktivierung und Reduktion von N2 im Vergleich zu unbesetzten OVs in TiO2 erheblich verbessern kann. Die Strategie, Heteroatome rational in das Aniongitter von Übergangsmetalloxiden zu dotieren, um aktive Zentren zu schaffen, kann viele neue Möglichkeiten eröffnen, die über den Einsatz von edelmetallbasierten Katalysatoren hinausgehen, auch für andere Reaktionen, die ebenfalls die Aktivierung von kleinen Molekülen erfordern. In Kapitel 4 wurde über eine neuartige Katalysatorkonstruktion aus Au-Einzelatomen berichtet, die auf der Oberfläche von NDPCs dekoriert sind. Die Einführung von Au-Einzelatomen führt zu aktiven Reaktionsstellen, die durch die in NDPCs vorhandenen N-Spezies stabilisiert werden. So ermöglichte die Interaktion innerhalb von hergestellten AuSAs-NDPCs-Katalysatoren eine vielversprechende Leistung für die elektrochemische NRR. Für den Reaktionsmechanismus können Au-Einzelstandorte und N- oder C-Spezies als frustrierte Lewis-Paare (FLPs) fungieren, um den Elektronenabgabe- und Rückgabeprozess zur Aktivierung von N2-Molekülen zu verbessern. Diese Arbeit bietet neue Möglichkeiten für das Design von Katalysatoren, um eine effiziente N2-Fixierung unter Umgebungsbedingungen durch die Nutzung recycelter elektrischer Energie zu erreichen. Das letzte in Kapitel 5 beschriebene Thema konzentrierte sich hauptsächlich auf die Synthese von dualem heteroatomdotiertem porösem Kohlenstoff aus einfachen Vorläufern. Die Einführung von N- und B-Heteroatomen führt zur Konstruktion von N-B-Motiven und frustrierten Lewis-Paaren in einer mikroporösen Architektur, die ebenfalls reich an Punktdefekten ist. Dies kann die Adsorptionskraft verschiedener Reaktanden (N2 und HMF) und damit deren Aktivierung verbessern. Infolgedessen weist BNC-2 eine wünschenswerte elektrochemische NRR- und HMF-Oxidationsleistung auf. Gasadsorptionsexperimente wurden als einfaches Werkzeug zur Aufklärung des Zusammenhangs zwischen Struktur und katalytischer Aktivität eingesetzt. Diese Arbeit liefert neue und tiefe Einblicke in das rationale Design und den Ursprung der Aktivität bei metallfreien Elektrokatalysatoren und ermöglicht eine physikalisch tragfähige Diskussion der aktiven Motive, sowie die Suche nach deren weiteren Anwendungen. Während dieser Arbeit, die allgegenwärtigen Probleme der niedrigen Selektivität und Aktivität der elektrochemischen NRR werden durch die Gestaltung poröser Katalysatoren auf Kohlenstoffbasis mit hoher Effizienz und die Erforschung ihrer katalytischen Mechanismen. Die Struktur-Leistungsbeziehungen und Aktivierungsmechanismen der relativ inerten N2-Moleküle werden entweder durch experimentelle Ergebnisse oder DFT-Berechnungen aufgezeigt. Diese grundlegenden Erkenntnisse ebnen den Weg für ein zukünftiges optimales Design und eine gezielte Förderung von NRR-Katalysatoren mit poröser Kohlenstoffstruktur, sowie für die Untersuchung neuer N2-Aktivierungsmodi. KW - N2 fixation KW - porous carbon-based materials KW - ammonia KW - selectivity KW - N2-Fixierung KW - porösen Materialien auf Kohlenstoffbasis KW - Ammoniak KW - Selektivität Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443397 ER - TY - THES A1 - Fuhr, Antonie T1 - Eine Hypothese über die Grundlagen von Moral und einige Implikationen T1 - A hypothesis of the basics of morality and some implications N2 - In der Dissertationsarbeit mit dem Titel „Eine Hypothese über die Grundlagen von Moral und einige Implikationen“ unternimmt die Autorin den Versuch, die anthropologischen Prämissen moralischen Handelns herauszuarbeiten. Es wird eine Hypothese aufgestellt und erläutert, die behauptet, dass moralisches Handeln nur dann verständlich wird, wenn der Handelnde erstens die Fähigkeit der Phantasie aufweist, zweitens auf Erfahrungen (mittels seines Gedächtnisses) zugreifen kann und durch Konversation mit anderen Personen interagierte und interagiert, denn nur auf der Basis dieser drei Grundlagen von Moral können sich diejenigen Fähigkeiten ent¬wickeln, die als Voraussetzungen moralischen Handeln gesehen werden müssen: Selbstbewusstsein, Freiheit, die Entwicklung eines Wir-Gefühls, die Genese eines moralischen Ideals und die Fähigkeit, sich im Entscheiden und Handeln nach diesem Ideal richten zu können. Außerdem werden in dieser Dissertation einige Implikationen dieser Hypothese auf individueller und zwischenmenschlicher Ebene diskutiert. N2 - In the dissertation entitled „A hypothesis about the basics of morality and some implications“ the author seeks to identify the anthropological premises of moral agency. A hypothesis is presented asserting that moral agency only can be understood, if the agent possesses the ability of imagination, the faculty to remember and interacts and interacted via conversation with other persons, because only based on these three conditions the development of the faculties is possible, that have to be seen as the requirements of moral agency: self-consciousness, freedom, a so called „Wir-Gefühl“, the genesis of a moral ideal and the ability, to comply with this ideal in deciding and acting. Furthermore, some interpersonal and individual implications of this hypothesis are discussed in this dissertation. KW - Moralphilosophie KW - Grundlagen KW - Anthropologie KW - Freiheit KW - morality KW - anthropology KW - freedom Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-443091 ER - TY - THES A1 - Rezaei, Mina T1 - Deep representation learning from imbalanced medical imaging N2 - Medical imaging plays an important role in disease diagnosis, treatment planning, and clinical monitoring. One of the major challenges in medical image analysis is imbalanced training data, in which the class of interest is much rarer than the other classes. Canonical machine learning algorithms suppose that the number of samples from different classes in the training dataset is roughly similar or balance. Training a machine learning model on an imbalanced dataset can introduce unique challenges to the learning problem. A model learned from imbalanced training data is biased towards the high-frequency samples. The predicted results of such networks have low sensitivity and high precision. In medical applications, the cost of misclassification of the minority class could be more than the cost of misclassification of the majority class. For example, the risk of not detecting a tumor could be much higher than referring to a healthy subject to a doctor. The current Ph.D. thesis introduces several deep learning-based approaches for handling class imbalanced problems for learning multi-task such as disease classification and semantic segmentation. At the data-level, the objective is to balance the data distribution through re-sampling the data space: we propose novel approaches to correct internal bias towards fewer frequency samples. These approaches include patient-wise batch sampling, complimentary labels, supervised and unsupervised minority oversampling using generative adversarial networks for all. On the other hand, at algorithm-level, we modify the learning algorithm to alleviate the bias towards majority classes. In this regard, we propose different generative adversarial networks for cost-sensitive learning, ensemble learning, and mutual learning to deal with highly imbalanced imaging data. We show evidence that the proposed approaches are applicable to different types of medical images of varied sizes on different applications of routine clinical tasks, such as disease classification and semantic segmentation. Our various implemented algorithms have shown outstanding results on different medical imaging challenges. N2 - Medizinische Bildanalyse spielt eine wichtige Rolle bei der Diagnose von Krankheiten, der Behandlungsplanung, und der klinischen Überwachung. Eines der großen Probleme in der medizinischen Bildanalyse ist das Vorhandensein von nicht ausbalancierten Trainingsdaten, bei denen die Anzahl der Datenpunkte der Zielklasse in der Unterzahl ist. Die Aussagen eines Modells, welches auf einem unbalancierten Datensatz trainiert wurde, tendieren dazu Datenpunkte in die Klasse mit der Mehrzahl an Trainingsdaten einzuordnen. Die Aussagen eines solchen Modells haben eine geringe Sensitivität aber hohe Genauigkeit. Im medizinischen Anwendungsbereich kann die Einordnung eines Datenpunktes in eine falsche Klasse Schwerwiegende Ergebnisse mit sich bringen. In die Nichterkennung eines Tumors Beispielsweise brigt ein viel höheres Risiko für einen Patienten, als wenn ein gesunder Patient zum Artz geschickt wird. Das Problem des Lernens unter Nutzung von nicht ausbalancierten Trainingsdaten wird erst seit Kurzem bei der Klassifizierung von Krankheiten, der Entdeckung von Tumoren und beider Segmentierung von Tumoren untersucht. In der Literatur wird hier zwischen zwei verschiedenen Ansätzen unterschieden: datenbasierte und algorithmische Ansätze. Die vorliegende Arbeit behandelt das Lernen unter Nutzung von unbalancierten medizinischen Bilddatensätzen mittels datenbasierter und algorithmischer Ansätze. Bei den datenbasierten Ansätzen ist es unser Ziel, die Datenverteilung durch gezieltes Nutzen der vorliegenden Datenbasis auszubalancieren. Dazu schlagen wir neuartige Ansätze vor, um eine ausgeglichene Einordnung der Daten aus seltenen Klassen vornehmen zu können. Diese Ansätze sind unter anderem synthesize minority class sampling, patient-wise batch normalization, und die Erstellung von komplementären Labels unter Nutzung von generative adversarial networks. Auf der Seite der algorithmischen Ansätze verändern wir den Trainingsalgorithmus, um die Tendenz in Richtung der Klasse mit der Mehrzahl an Trainingsdaten zu verringern. Dafür schlagen wir verschiedene Algorithmen im Bereich des kostenintensiven Lernens, Ensemble-Lernens und des gemeinsamen Lernens vor, um mit stark unbalancierten Trainingsdaten umgehen zu können. Wir zeigen, dass unsere vorgeschlagenen Ansätze für verschiedenste Typen von medizinischen Bildern, mit variierender Größe, auf verschiedene Anwendungen im klinischen Alltag, z. B. Krankheitsklassifizierung, oder semantische Segmentierung, anwendbar sind. Weiterhin haben unsere Algorithmen hervorragende Ergebnisse bei unterschiedlichen Wettbewerben zur medizinischen Bildanalyse gezeigt. KW - machine learning KW - deep learning KW - computer vision KW - imbalanced learning KW - medical image analysis KW - Maschinenlernen KW - tiefes Lernen KW - unbalancierter Datensatz KW - Computervision KW - medizinische Bildanalyse Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442759 ER - TY - THES A1 - Mandal, Sankalita T1 - Event handling in business processes T1 - Ereignisbehandlung in Geschäftsprozessen BT - flexible event subscription for business process enactment BT - flexibles Ereignisabonnement für die Durchführung von Geschäftsprozessen N2 - Business process management (BPM) deals with modeling, executing, monitoring, analyzing, and improving business processes. During execution, the process communicates with its environment to get relevant contextual information represented as events. Recent development of big data and the Internet of Things (IoT) enables sources like smart devices and sensors to generate tons of events which can be filtered, grouped, and composed to trigger and drive business processes. The industry standard Business Process Model and Notation (BPMN) provides several event constructs to capture the interaction possibilities between a process and its environment, e.g., to instantiate a process, to abort an ongoing activity in an exceptional situation, to take decisions based on the information carried by the events, as well as to choose among the alternative paths for further process execution. The specifications of such interactions are termed as event handling. However, in a distributed setup, the event sources are most often unaware of the status of process execution and therefore, an event is produced irrespective of the process being ready to consume it. BPMN semantics does not support such scenarios and thus increases the chance of processes getting delayed or getting in a deadlock by missing out on event occurrences which might still be relevant. The work in this thesis reviews the challenges and shortcomings of integrating real-world events into business processes, especially the subscription management. The basic integration is achieved with an architecture consisting of a process modeler, a process engine, and an event processing platform. Further, points of subscription and unsubscription along the process execution timeline are defined for different BPMN event constructs. Semantic and temporal dependencies among event subscription, event occurrence, event consumption and event unsubscription are considered. To this end, an event buffer with policies for updating the buffer, retrieving the most suitable event for the current process instance, and reusing the event has been discussed that supports issuing of early subscription. The Petri net mapping of the event handling model provides our approach with a translation of semantics from a business process perspective. Two applications based on this formal foundation are presented to support the significance of different event handling configurations on correct process execution and reachability of a process path. Prototype implementations of the approaches show that realizing flexible event handling is feasible with minor extensions of off-the-shelf process engines and event platforms. N2 - Das Prozessmanagement befasst sich mit der Modellierung, Ausführung, Überwachung, Analyse und Verbesserung von Geschäftsprozessen. Während seiner Ausführung kommuniziert der Prozess mit seiner Umgebung, um relevante Kontextinformationen in Form von Ereignissen zu erhalten. Der jüngste Fortschritt im Bereich Big Data und dem Internet der Dinge ermöglicht Smart Devices und Sensoren eine Vielzahl von Ereignissen zu generieren, welche gefiltert, gruppiert und kombiniert werden können, um Geschäftsprozesse zu triggern und vor anzutreiben. Der Industriestandard Business Process Model and Notation (BPMN) stellt mehrere Ereigniskonstrukte bereit, um die Interaktionsmöglichkeiten eines Prozesses mit seiner Umgebung zu erfassen. Beispielsweise können Prozesse durch Ereignisse gestartet, laufende Aktivitäten in Ausnahmefällen abgebrochen, Entscheidungen auf Basis der Ereignisinformationen getroffen, und alternative Ausführungspfade gewählt werden. Die Spezifikation solcher Interaktionen wird als Event Handling bezeichnet. Allerdings sind sich insbesondere in verteilten Systemen die Ereignisquellen des Zustands des Prozesses unbewusst. Daher werden Ereignisse unabhängig davon produziert, ob der Prozess bereit ist sie zu konsumieren. Die BPMN-Semantik sieht solche Situationen jedoch nicht vor, sodass die Möglichkeit besteht, dass das Auftreten von relevanten Ereignissen versäumt wird. Dies kann zu Verzögerungen oder gar Deadlocks in der Prozessauführung führen. Die vorliegende Dissertation untersucht die Mängel und Herausforderungen der Integration von Ereignissen und Geschäftsprozessen, insbesondere in Bezug auf das Subscription Management. Die grundlegende Integration wird durch eine Architektur erreicht, die aus einer Prozessmodellierungskomponente, einer Ausführungskomponente und einer Ereignisverarbeitungskomponente besteht. Ferner werden Points of Subscription and Unsubscription für verschiedene BPMN-Ereigniskonstrukte entlang der Zeitachse der Prozessausführung definiert. Semantische und temporale Abhängigkeiten zwischen der Subscription, dem Auftreten, dem Konsumieren und der Unsubscription eines Ereignisses werden betrachtet. In dieser Hinsicht wird ein Event Bufferdiskutiert, welcher mit Strategien zum Update des Puffers, zum Abruf der geeigneten Ereignisse für den laufenden Prozess, sowie zur Wiederverwendung von Ereignissen ausgestattet ist. Die Abbildung des Event Handling Modells in ein Petri-Netz versieht den beschriebenen Ansatz mit einer eindeutigen Semantik. Basierend auf diesem Formalismus werden zwei Anwendungen demonstriert, die die Relevanz verschiedener Konfigurationen des Event Handlings für eine korrekte Prozessausführung aufzeigen. Eine prototypische Implementierung des Ansatzes beweist dessen Umsetzbarkeit durch geringe Erweiterungen bestehender Software zur Prozessausführung und Ereignisverarbeitung. KW - business process managament KW - complex event processing KW - BPMN KW - event subscription KW - Geschäftsprozessmanagement KW - komplexe Ereignisverarbeitung KW - BPMN KW - Ereignisabonnement Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441700 ER - TY - THES A1 - Appiah-Dwomoh, Edem Korkor T1 - Postural control and back pain in adolescent athletes T1 - Posturale Kontrolle und Rückenschmerzen bei Nachwuchsathleten N2 - Back pain is a problem in adolescent athletes affecting postural control which is an important requirement for physical and daily activities whether under static or dynamic conditions. One leg stance and star excursion balance postural control tests are effective in measuring static and dynamic postural control respectively. These tests have been used in individuals with back pain, athletes and non-athletes without first establishing their reliabilities. In addition to this, there is no published literature investigating dynamic posture in adolescent athletes with back pain using the star excursion balance test. Therefore, the aim of the thesis was to assess deficit in postural control in adolescent athletes with and without back pain using static (one leg stance test) and dynamic postural (SEBT) control tests. Adolescent athletes with and without back pain participated in the study. Static and dynamic postural control tests were performed using one leg stance and SEBT respectively. The reproducibility of both tests was established. Afterwards, it was determined whether there was an association between static and dynamic posture using the measure of displacement of the centre pressure and reach distance respectively. Finally, it was investigated whether there was a difference in postural control in adolescent athletes with and without back pain using the one leg stance test and the SEBT. Fair to excellent reliabilities was recorded for the static (one leg stance) and dynamic (star excursion balance) postural control tests in the subjects of interest. No association was found between variables of the static and dynamic tests for the adolescent athletes with and without back pain. Also, no statistically significant difference was obtained between adolescent athletics with and without back pain using the static and dynamic postural control test. One leg stance test and SEBT can be used as measures of postural control in adolescent athletes with and without back pain. Although static and dynamic postural control might be related, adolescent athletes with and without back pain might be using different mechanisms in controlling their static and dynamic posture. Consequently, static and dynamic postural control in adolescent athletes with back pain was not different from those without back pain. These outcome measures might not be challenging enough to detect deficit in postural control in our study group of interest. N2 - Rückenschmerzen sind ein zunehmendes Problem bei Nachwuchsathleten und beeinflussen die statische und dynamische posturale Kontrolle, die eine wichtige Voraussetzung für sportliche als auch tägliche Aktivitäten darstellt. Der Stand auf einem Bein und der Star Excursion Balance Test (SEBT) sind effektive Tests zur Beurteilung der statischen bzw. dynamischen posturalen Kontrolle. Beide Tests wurden bereits bei Populationen mit Rückenschmerzen, Sportlern und Nicht-Sportlern angewandt, ohne vorherige Reliabilitätsmessung. Des Weiteren wurde bisher die dynamische posturale Kontrolle mittels des SEBT bei Nachwuchsathleten mit Rückenschmerzen nicht untersucht. Daher ist das Ziel dieser Arbeit die posturale Kontrolle von Nachwuchsathleten mit Rückenschmerzen mit Hilfe eines statischen (Einbeinstand) und eines dynamischen (SEBT) Tests zu beurteilen. Nachwuchsathleten mit und ohne Rückenschmerzen wurden mit Hilfe der beiden Tests untersucht. Die Reproduzierbarkeit beider Untersuchungen wurde durch vorhergehende Messungen sichergestellt. Anschließend wurde untersucht, ob es einen Zusammenhang zwischen der statischen und dynamischen posturalen Kontrolle gibt, indem die Abweichungen des Druckmittelpunktes (center of pressure) auf einer Kraftmessplatte mit der erreichten Reichweite beim SEBT verglichen wurden. Abschließend konnte untersucht werden ob es einen Unterschied in der posturalen Kontrolle zwischen Nachwuchsathleten mit und ohne Rückenschmerzen gibt. Es konnten moderate bis hervorragende Reliabilitätswerte für den statischen (Einbeinstand) und dynamischen (SEBT) Test der posturalen Kontrolle in der untersuchten Zielgruppe festgestellt werden. Es konnte kein Zusammenhang zwischen den Parametern des statischen und des dynamischen Tests bei Nachwuchsathleten mit und ohne Rückenschmerzen gefunden werden. Weiterhin gab es keinen signifikanten Unterschied zwischen den Parametern der statischen und dynamischen Haltungskontrolle in der beschriebenen Population. Der Einbeinstand auf der Kraftmessplatte und der SEBT können zur Beurteilung der Haltungskontrolle bei Nachwuchsathleten mit und ohne Rückenschmerzen eingesetzt werden. Der fehlende Zusammenhang zwischen den Parametern der statischen und dynamischen Haltungskontrolle könnte darauf zurückzuführen sein, dass verschiedene neuromuskuläre Mechanismen für die Regulierung der statischen und dynamischen Haltungskontrolle bei den Athleten verantwortlich sein könnten. Demzufolge gab es keinen Unterschied, weder in der statischen noch in der dynamischen posturalen Kontrolle, zwischen Nachwuchsathleten mit und ohne Rückenschmerzen. Anspruchsvollere Aufgaben sind nötig um die Defizite in der Haltungskontrolle von Nachwuchsathleten zu untersuchen. KW - postural control KW - adolescent athletes KW - back pain KW - one leg stance KW - star excursion balance test KW - posturale Kontrolle KW - Nachwuchsathleten KW - Rückenschmerzen KW - einbeiniger Standtest Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442692 ER - TY - THES A1 - Willig, Lisa T1 - Ultrafast magneto-optical studies of remagnetisation dynamics in transition metals T1 - Ultraschnelle Magneto-Optische Studien der Remagnetisierungsdynamik von Übergangsmetallen N2 - Ultrafast magnetisation dynamics have been investigated intensely for two decades. The recovery process after demagnetisation, however, was rarely studied experimentally and discussed in detail. The focus of this work lies on the investigation of the magnetisation on long timescales after laser excitation. It combines two ultrafast time resolved methods to study the relaxation of the magnetic and lattice system after excitation with a high fluence ultrashort laser pulse. The magnetic system is investigated by time resolved measurements of the magneto-optical Kerr effect. The experimental setup has been implemented in the scope of this work. The lattice dynamics were obtained with ultrafast X-ray diffraction. The combination of both techniques leads to a better understanding of the mechanisms involved in magnetisation recovery from a non-equilibrium condition. Three different groups of samples are investigated in this work: Thin Nickel layers capped with nonmagnetic materials, a continuous sample of the ordered L10 phase of Iron Platinum and a sample consisting of Iron Platinum nanoparticles embedded in a carbon matrix. The study of the remagnetisation reveals a general trend for all of the samples: The remagnetisation process can be described by two time dependences. A first exponential recovery that slows down with an increasing amount of energy absorbed in the system until an approximately linear time dependence is observed. This is followed by a second exponential recovery. In case of low fluence excitation, the first recovery is faster than the second. With increasing fluence the first recovery is slowed down and can be described as a linear function. If the pump-induced temperature increase in the sample is sufficiently high, a phase transition to a paramagnetic state is observed. In the remagnetisation process, the transition into the ferromagnetic state is characterised by a distinct transition between the linear and exponential recovery. From the combination of the transient lattice temperature Tp(t) obtained from ultrafast X-ray measurements and magnetisation M(t) gained from magneto-optical measurements we construct the transient magnetisation versus temperature relations M(Tp). If the lattice temperature remains below the Curie temperature the remagnetisation curve M(Tp) is linear and stays below the M(T) curve in equilibrium in the continuous transition metal layers. When the sample is heated above phase transition, the remagnetisation converges towards the static temperature dependence. For the granular Iron Platinum sample the M(Tp) curves for different fluences coincide, i.e. the remagnetisation follows a similar path irrespective of the initial laser-induced temperature jump. N2 - Ultraschnelle Magnetisierungsdynamiken wurden in den letzten zwei Jahrzehnten intensiv untersucht. Hingegen der Wiederherstellungsprozess der Magnetisierung nach einer ultraschnellen Demagnetisierung wird selten experimentell untersucht und im Detail diskutiert. Der Fokus dieser Arbeit liegt auf der Untersuchung der Magnetisierung auf langen Zeitskalen nach der Anregung durch einen Laserpuls. Dazu werden zwei ultraschnelle zeitaufgelöste Techniken verwendet, um die Relaxierung von dem magnetischen System und dem System des Gitters nach Anregung mit einem hochenergetischen ultrakurzen Laserpuls zu untersuchen. Das magnetische System wurde untersucht mithilfe von Messungen des zeitaufgelösten magneto-optischen Kerr Effekts. Der experimentelle Aufbau wurde im Rahmen dieser Arbeit entwickelt. Die Gitterdynamik wurde mittels ultraschneller Röntgendiffraktometrie aufgenommen. Die Kombination beider Techniken liefert ein besseres Verständnis von den Prozessen involviert in Magnetisierungsrelaxation aus einem Nicht-Gleichgewichtszustand. Drei unterschiedliche Probensysteme wurden im Rahmen dieser Arbeit untersucht: Dünne Nickel Schichten umgeben von nicht-magnetischen Schichten, eine kontinuierliche Schicht aus einer Eisen Platin Legierung und eine Probe bestehend aus Eisen Platin Nanopartikeln eingebettet in einer Kohlenstoffmatrix. Die Studie der Remagnetisierung zeigt einen generellen Trend für alle diese Systeme auf: Der Remagnetisierungsprozess kann mit zwei Zeitabhängikeiten beschrieben werden. Eine erste exponentielle Zeitabhängigkeit, die mit zunehmender Menge an absorbierter Energie verlangsamt wird bis ein lineares Verhalten beobachtet wird. Darauf folgend gibt es eine zweite exponentielle funktionale Abhängigkeit in der Zeit. Im Falle einer geringen Energieabsorption ist die erste Remagnetisierung schneller als die zweite. Mit steigender Fluenz wird die Remagnetisierung in der ersten Zeitabhängigkeit verlangsamt und kann als lineare Funktion beschrieben werden. Wenn der durch den Pump Puls induzierte Temperatursprung in der Probe ausreichend groß ist, wird ein Phasenübergang in die paramagnetische Phase beobachtet. In dem Remagnetisierungsprozess wird dieser Übergang durch einen deutlich sichtbaren Wechsel zwischen linearem und exponentiellen Verhalten sichtbar. Mithilfe der Kombination aus der von Rötngendaten gewonnener Gittertemperatur Tp(t) und der Magnetisierung M(t) erhalten wir die zeitliche Abhängigkeit der Magnetisierung von der Gittertemperatur M(Tp). Falls die Gittertemperatur unter der Curietemperatur bleibt, ist die Remagnetisierungskurve M(Tp) linear und bleibt unterhalb der statischen Gleichgewichtskurve M(T) für die kontinuierlichen Übergangsmetalle. Wenn die Probe über den Phasenübergang geheizt wird, nähert sich die Remagnetisierung der statischen Kurve an. Die transiente Remagnetisierungskurven M(Tp) der granularen Eisen Platin Probe folgen immer einem der statischen Magnetisierungskurve ähnlichen Verlauf, unabhängig von dem laser-induzierten Temperatursprung. KW - ultrafast dynamics KW - remagnetization KW - magnetization dynamics KW - transition metals KW - condensed matter KW - ultraschnelle Dynamik KW - magneto-optics KW - Magneto-Optik KW - Remagnetisierung KW - Magnetisierungsdynamik KW - Übergangsmetalle KW - kondensierte Materie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441942 ER - TY - THES A1 - Amirkhanyan, Aragats T1 - Methods and frameworks for GeoSpatioTemporal data analytics T1 - Methoden und Frameworks für geo-raumzeitliche Datenanalysen N2 - In the era of social networks, internet of things and location-based services, many online services produce a huge amount of data that have valuable objective information, such as geographic coordinates and date time. These characteristics (parameters) in the combination with a textual parameter bring the challenge for the discovery of geospatiotemporal knowledge. This challenge requires efficient methods for clustering and pattern mining in spatial, temporal and textual spaces. In this thesis, we address the challenge of providing methods and frameworks for geospatiotemporal data analytics. As an initial step, we address the challenges of geospatial data processing: data gathering, normalization, geolocation, and storage. That initial step is the basement to tackle the next challenge -- geospatial clustering challenge. The first step of this challenge is to design the method for online clustering of georeferenced data. This algorithm can be used as a server-side clustering algorithm for online maps that visualize massive georeferenced data. As the second step, we develop the extension of this method that considers, additionally, the temporal aspect of data. For that, we propose the density and intensity-based geospatiotemporal clustering algorithm with fixed distance and time radius. Each version of the clustering algorithm has its own use case that we show in the thesis. In the next chapter of the thesis, we look at the spatiotemporal analytics from the perspective of the sequential rule mining challenge. We design and implement the framework that transfers data into textual geospatiotemporal data - data that contain geographic coordinates, time and textual parameters. By this way, we address the challenge of applying pattern/rule mining algorithms in geospatiotemporal space. As the applicable use case study, we propose spatiotemporal crime analytics -- discovery spatiotemporal patterns of crimes in publicly available crime data. The second part of the thesis, we dedicate to the application part and use case studies. We design and implement the application that uses the proposed clustering algorithms to discover knowledge in data. Jointly with the application, we propose the use case studies for analysis of georeferenced data in terms of situational and public safety awareness. N2 - Heute ist die Zeit der sozialen Netzwerke, des Internets der Dinge und der Standortbezogenen Diensten (Location-Based services). Viele Online-Dienste erzeugen eine riesige Datenmenge, die wertvolle Informationen enthält, wie z. B. geographische Koordinaten und Datum sowie Zeit. Diese Informationen (Parameter) in Kombination mit einem Textparameter stellen die Herausforderung für die Entdeckung von geo-raumzeitlichem (geospatiotemporal) Wissen dar. Diese Herausforderung erfordert effiziente Methoden zum Clustering und Pattern-Mining in räumlichen, zeitlichen und textlichen Aspekten. In dieser Dissertation stellen wir uns der Herausforderung, Methoden und Frameworks für geo-raumzeitliche Datenanalysen bereitzustellen. Im ersten Schritt gehen wir auf die Herausforderungen der Geodatenverarbeitung ein: Datenerfassung, -Normalisierung, -Ortung und -Speicherung. Dieser Schritt ist der Grundstein für die nächste Herausforderung – das geographische Clustering. Es erfordert das Entwerfen einer Methode für das Online-Clustering georeferenzierter Daten. Dieser Algorithmus kann als Serverseitiger Clustering-Algorithmus für Online-Karten verwendet werden, die massive georeferenzierte Daten visualisieren. Im zweiten Schritt entwickeln wir die Erweiterung dieser Methode, die zusätzlich den zeitlichen Aspekt der Daten berücksichtigt. Dazu schlagen wir den Dichte und Intensitätsbasierten geo-raumzeitlichen Clustering-Algorithmus mit festem Abstand und Zeitradius vor. Jede Version des Clustering-Algorithmus hat einen eigenen Anwendungsfall, den wir in dieser Doktorarbeit zeigen. Im nächsten Kapitel dieser Arbeit betrachten wir die raumzeitlich Analyse aus der Perspektive der sequentiellen Regel-Mining-Herausforderung. Wir entwerfen und implementieren ein Framework, das Daten in textliche raumzeitliche Daten umwandelt. Solche Daten enthalten geographische Koordinaten, Zeit und Textparameter. Auf diese Weise stellen wir uns der Herausforderung, Muster- / Regel-Mining-Algorithmen auf geo-raumzeitliche Daten anzuwenden. Als Anwendungsfallstudie schlagen wir raumzeitliche Verbrechensanalysen vor – Entdeckung raumzeitlicher Muster von Verbrechen in öffentlich zugänglichen Datenbanken. Im zweiten Teil der Arbeit diskutieren wir über die Anwendung und die Fallstudien. Wir entwerfen und implementieren eine Anwendungssoftware, die die vorgeschlagene Clustering-Algorithmen verwendet, um das Wissen in Daten zu entdecken. Gemeinsam mit der Anwendungssoftware betrachten wir Anwendungsbeispiele für die Analyse georeferenzierter Daten im Hinblick auf das Situationsbewusstsein. KW - geospatial data KW - data analytics KW - clustering KW - situational awareness KW - Geodaten KW - Datenanalyse KW - Clustering KW - Situationsbewusstsein Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441685 ER - TY - THES A1 - Nagel, Oliver T1 - Amoeboid cells as a transport system for micro-objects T1 - Amöboide Zellen als Transportsystem für Mikroobjekte N2 - Due to advances in science and technology towards smaller and more powerful processing units, the fabrication of micrometer sized machines for different tasks becomes more and more possible. Such micro-robots could revolutionize medical treatment of diseases and shall support to work on other small machines. Nevertheless, scaling down robots and other devices is a challenging task and will probably remain limited in near future. Over the past decade the concept of bio-hybrid systems has proved to be a promising approach in order to advance the further development of micro-robots. Bio-hybrid systems combine biological cells with artificial components, thereby benefiting from the functionality of living biological cells. Cell-driven micro-transport is one of the most prominent applications in the emerging field of these systems. So far, micrometer sized cargo has been successfully transported by means of swimming bacterial cells. The potential of motile adherent cells as transport systems has largely remained unexplored. This thesis concentrates on the social amoeba Dictyostelium discoideum as a potential candidate for an amoeboid bio-hybrid transport system. The use of this model organism comes with several advantages. Due to the unspecific properties of Dictyostelium adhesion, a wide range of different cargo materials can be used for transport. As amoeboid cells exceed bacterial cells in size by one order of magnitude, also the size of an object carried by a single cell can also be much larger for an amoeba. Finally it is possible to guide the cell-driven transport based on the chemotactic behavior of the amoeba. Since cells undergo a developmentally induced chemotactic aggregation, cargo could be assembled in a self-organized manner into a cluster. It is also possible to impose an external chemical gradient to guide the amoeboid transport system to a desired location. To establish Dictyostelium discoideum as a possible candidate for bio-hybrid transport systems, this thesis will first investigate the movement of single cells. Secondly, the interaction of cargo and cells will be studied. Eventually, a conceptional proof will be conducted, that the cheomtactic behavior can be exploited either to transport a cargo self-organized or through an external chemical source. N2 - Durch die Fortschritte in Wissenschaft und Technik hin zu kleineren und leistungsfähigeren Prozessoren wird die Herstellung von Maschinen mit einer Größe von wenigen Mikrometern immer wahrscheinlicher. Solche Mikro-Roboter könnten sowohl die medizinische Behandlung von Krankheiten revolutionieren als auch dabei helfen andere kleine Maschinen zu bauen. Nichts desto trotz ist es eine komplizierte Aufgabe Roboter sowie andere Maschinen zu verkleinern und wird in naher Zukunft wohl nur begrenzt möglich sein. Im Verlauf des letzten Jahrzehnts hat sich das Konzept der Bio-Hybridsysteme als ein vielversprechender Ansatz entwickelt, um Mikro-Roboter weiter zu entwickeln. Bio-Hybridsysteme kombinieren biologische Zellen mit künstlichen Komponenten, um so einen Vorteil aus der Funktionalität lebender biologischer Zellen zu ziehen. Der zellgetriebene Mikro-Transport ist eine der bekanntesten Anwendungen in dem wachsenden Feld dieser Systeme. Bisher wurde mikrometergroße Fracht erfolgreich mit Hilfe von schwimmenden Bakterien transportiert. Das Potential beweglicher, adhärenter Zellen als Transportsystem blieb bisher weitgehend unerforscht. Diese Arbeit beschäftigt sich mit der sozialen Amöbe Dictyostelium discoideum als einen potentiellen Kandidaten für ein auf Amöben basiertes Bio-Hybridtransportsystem. Die Nutzung dieses Modellorganismus bringt einige Vorteile mit sich. Auf Grund der unspezifischen Adhäsion von Dictyostelium ist es möglich eine Vielzahl von verschiedenen Frachtmaterialien für den Transport zu nutzen. Da Amöben um eine Größenordnung größer sind als Bakterien, können auch die Objekte, die eine einzelne Amöbe transportieren kann um einiges größer sein, als bei einer einzelnen Bakterie. Desweiteren ist noch möglich den zellgetrieben Transport durch das chemotaktische Verhalten der Amöben zu steuern. Da die Zellen im Verlauf ihres Lebenszyklus’ eine entwicklungsinduzierte chemotaktische Aggregation durchlaufen, ist es möglich, die Fracht in einer selbstorganisierten Art und Weise in Aggregate zusammen zu führen. Es ist auch möglich einen externen chemotaktischen Stimulus zu generieren, um das auf Amöben basierende Transportsystem zu einer gewünschten Position zu lenken. Um Dictyostelium discoideum als denkbaren Kandidaten für ein Bio-Hybridtransportsystem zu etablieren, wird in dieser Arbeit zuerst die Bewegung einzelner Zellen untersucht. Als zweites wird die Interaktion von Zellen und Fracht studiert. Zum Schluss wird ein konzeptioneller Beweis geführt, dass das chemotaktische Verhalten der Zellen genutzt werden kann, um eine Fracht entweder selbstorganisiert oder mit Hilfe eines externen Stimulus zu transportieren. KW - bio-hybrid KW - dicytostelium KW - chemotaxsis KW - Bio-Hybrid KW - Dicytostelium KW - Chemotaxsis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442192 ER - TY - THES A1 - Kochlik, Bastian Max T1 - Relevance of biomarkers for the diagnosis of the frailty syndrome T1 - Die Bedeutung von Biomarkern für die Diagnose des Frailty-Syndroms BT - focus on parameters of muscle protein turnover, micronutrients and oxidative stress BT - 3-Methylhistidine, Mikronährstoffe und oxidativer Stress im Fokus N2 - Frailty and sarcopenia share some underlying characteristics like loss of muscle mass, low muscle strength, and low physical performance. Imaging parameters and functional examinations mainly assess frailty and sarcopenia criteria; however, these measures can have limitations in clinical settings. Therefore, finding suitable biomarkers that reflect a catabolic muscle state e.g. an elevated muscle protein turnover as suggested in frailty, are becoming more relevant concerning frailty diagnosis and risk assessment. 3-Methylhistidine (3-MH) and its ratios 3-MH-to-creatinine (3-MH/Crea) and 3 MH-to-estimated glomerular filtration rate (3-MH/eGFR) are under discussion as possible biomarkers for muscle protein turnover and might support the diagnosis of frailty. However, there is some skepticism about the reliability of 3-MH measures since confounders such as meat and fish intake might influence 3-MH plasma concentrations. Therefore, the influence of dietary habits and an intervention with white meat on plasma 3-MH was determined in young and healthy individuals. In another study, the cross-sectional associations of plasma 3-MH, 3-MH/Crea and 3-MH/eGFR with the frailty status (robust, pre-frail and frail) were investigated. Oxidative stress (OS) is a possible contributor to frailty development, and high OS levels as well as low micronutrient levels are associated with the frailty syndrome. However, data on simultaneous measures of OS biomarkers together with micronutrients are lacking in studies including frail, pre-frail and robust individuals. Therefore, cross-sectional associations of protein carbonyls (PrCarb), 3-nitrotyrosine (3-NT) and several micronutrients with the frailty status were determined. A validated UPLC-MS/MS (ultra-performance liquid chromatography tandem mass spectrometry) method for the simultaneous quantification of 3-MH and 1-MH (1 methylhistidine, as marker for meat and fish consumption) was presented and used for further analyses. Omnivores showed higher plasma 3-MH and 1-MH concentrations than vegetarians and a white meat intervention resulted in an increase in plasma 3-MH, 3 MH/Crea, 1-MH and 1-MH/Crea in omnivores. Elevated 3-MH and 3-MH/Crea levels declined significantly within 24 hours after this white meat intervention. Thus, 3-MH and 3-MH/Crea might be used as biomarker for muscle protein turnover when subjects did not consume meat 24 hours prior to blood samplings. Plasma 3-MH, 3-MH/Crea and 3-MH/eGFR were higher in frail individuals than in robust individuals. Additionally, these biomarkers were positively associated with frailty in linear regression models, and higher odds to be frail were found for every increase in 3 MH and 3-MH/eGFR quintile in multivariable logistic regression models adjusted for several confounders. This was the first study using 3-MH/eGFR and it is concluded that plasma 3-MH, 3-MH/Crea and 3-MH/eGFR might be used to identify frail individuals or individuals at higher risk to be frail, and that there might be threshold concentrations or ratios to support these diagnoses. Higher vitamin D3, lutein/zeaxanthin, γ-tocopherol, α-carotene, β-carotene, lycopene and β-cryptoxanthin concentrations and additionally lower PrCarb concentrations were found in robust compared to frail individuals in multivariate linear models. Frail subjects had higher odds to be in the lowest than in the highest tertile for vitamin D3 α-tocopherol, α-carotene, β-carotene, lycopene, lutein/zeaxanthin, and β cryptoxanthin, and had higher odds to be in the highest than in the lowest tertile for PrCarb than robust individuals in multivariate logistic regression models. Thus, a low micronutrient together with a high PrCarb status is associated with pre-frailty and frailty. N2 - Gebrechlichkeit (englisch: frailty) und Sarkopenie teilen einige zugrundeliegende Merkmale wie einen Verlust von Muskelmasse, eine geringe Muskelkraft und eine geringe körperliche Leistungsfähigkeit, welche durch einen erhöhten Muskelproteinumsatz entstehen können. Kriterien der Gebrechlichkeit und Sarkopenie werden hauptsächlich durch bildgebende Verfahren sowie funktionelle Untersuchungen gemessen, die in ihrer Durchführbarkeit im klinischen Alltag jedoch eingeschränkt sein können. Daher gewinnt das Finden geeigneter Biomarker zur Anzeige eines erhöhten Muskelproteinumsatzes (kataboler Muskelzustand) in Bezug auf Diagnose und Risikobewertung der Gebrechlichkeit zunehmend an Bedeutung. 3-Methylhistidin (3-MH) und die Verhältnisse 3-MH zu Kreatinin (3-MH/Crea) und 3-MH zu geschätzter glomerulärer Filtrationsrate (3-MH/eGFR) werden als solche möglichen Biomarker diskutiert und könnten folglich die Diagnose und Risikobewertung von Gebrechlichkeit unterstützen. Es herrscht jedoch eine gewisse Skepsis hinsichtlich der Zuverlässigkeit von 3-MH-Messungen, da 3-MH-Plasmakonzentrationen durch Fleisch- und Fischaufnahme beeinflusst werden können. Daher wurde der Einfluss von Ernährungsgewohnheiten (Mischkost oder vegetarisch) und einer Intervention mit Hähnchenfleisch auf Plasma-3-MH bei jungen und gesunden Personen untersucht. In einer weiteren Studie wurden die Querschnittsassoziationen von 3-MH, 3-MH/Crea und 3-MH/eGFR im Plasma mit dem Frailty-Status (robust, pre-frail und frail) untersucht. Oxidativer Stress (OS) ist ein potentieller Faktor der zur Entwicklung von Gebrechlichkeit beiträgt, und sowohl hohe OS-Konzentrationen als auch niedrige Mikronährstoffkonzentrationen sind mit Gebrechlichkeit assoziiert. Daten zu simultanen Messungen von OS und Mikronährstoffen in Personen aller drei Frailty-Kategorien (robust, pre-frail und frail) fehlen jedoch. Aus diesem Grund wurden Querschnittsassoziationen von Proteincarbonylen (PrCarb), 3-Nitrotyrosin (3-NT) und mehrerer fettlöslicher Mikronährstoffe mit dem Frailty-Status bestimmt. Eine validierte UPLC-MS/MS-Methode (ultra-performance liquid chromatography tandem mass spectrometry) zur simultanen Bestimmung von 3-MH und 1-MH (1 Methylhistidin als Marker für den Fleisch- und Fischkonsum) in Plasma wurde beschrieben und für die weiteren Analysen verwendet. Mischköstler wiesen höhere 3 MH- und 1-MH-Konzentrationen in Plasma auf als Vegetarier. Die Intervention mit Hähnchenfleisch führte zu einem Anstieg von Plasma 3-MH, 3-MH/Crea, 1-MH und 1 MH/Crea bei Mischköstlern. Diese erhöhten 3-MH- und 3-MH/Crea-Spiegel sanken innerhalb von 24 Stunden nach der Intervention signifikant ab. Folglich stellen 3-MH und 3-MH/Crea potentielle Biomarker für den Muskelproteinumsatz dar, wenn Personen für 24 Stunden vor der Blutentnahme kein Fleisch verzehrt haben. Gebrechliche Teilnehmer wiesen höhere Plasma 3-MH-, 3-MH/Crea- und 3 MH/eGFR-Werte auf als robuste Teilnehmer und zusätzlich waren diese Biomarker in linearen Regressionsmodellen positiv mit Gebrechlichkeit assoziiert. In multivariablen logistischen Regressionsmodellen (adjustiert für mehrere Confounder) waren gebrechliche Personen im Vergleich zu robusten Personen mit einer höheren Wahrscheinlichkeit in einer höheren 3-MH- und 3-MH/eGFR-Quintile. Diese erste Studie, die 3-MH/eGFR als Biomarker für Gebrechlichkeit untersucht hat, erlaubt die Schlussfolgerung, dass Plasma-3-MH, -3-MH/Crea und -3-MH/eGFR verwendet werden könnte, um gebrechliche Personen oder Personen mit einem erhöhten Frailty-Risiko zu identifizieren. Möglicherweise gibt es auch Schwellenwerte, die diese Diagnosen unterstützen können. In multivariaten Regressionsanalysen wiesen robuste Personen höhere Vitamin D3-, Lutein/Zeaxanthin-, γ-Tocopherol-, α-Carotin-, β-Carotin-, Lycopin- und β Cryptoxanthin-Konzentrationen sowie niedrigere PrCarb-Konzentrationen auf als gebrechliche Personen. Zudem waren in multinomialen logistischen Regressionsanalysen gebrechliche Personen mit einer höheren Wahrscheinlichkeit sowohl in der niedrigsten Vitamin D3-, α-Tocopherol-, α-Carotin-, β-Carotin-, Lycopin-, Lutein/Zeaxanthin- und β Cryptoxanthin-Tertil als auch im höchsten PrCarb-Tertil zu finden als robuste Personen. Es wird daher geschlussfolgert, dass niedrige Mikronährstoffkonzentrationen zusammen mit hohen PrCarb-Konzentrationen mit Gebrechlichkeit und dessen Vorstufe (pre-frailty) assoziiert sind. KW - biomarker KW - Biomarker KW - frailty KW - Frailty KW - micronutrients KW - Mikronährstoffe KW - oxidative stress KW - oxidativer Stress KW - 3-methylhistidine KW - 3-Methylhistidin KW - muscle protein turnover KW - Muskelproteinumsatz Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441186 ER - TY - THES A1 - Kehm, Richard T1 - The impact of metabolic stress and aging on functionality and integrity of pancreatic islets and beta-cells T1 - Der Einfluss von metabolischem Stress und Alterung auf die Funktionalität und Integrität von Langerhans-Inseln und β-Zellen N2 - The increasing age of worldwide population is a major contributor for the rising prevalence of major pathologies and disease, such as type 2 diabetes, mediated by massive insulin resistance and a decline in functional beta-cell mass, highly associated with an elevated incidence of obesity. Thus, the impact of aging under physiological conditions and in combination with diet-induced metabolic stress on characteristics of pancreatic islets and beta-cells, with the focus on functionality and structural integrity, were investigated in the present dissertation. Primarily induced by malnutrition due to chronic and excess intake of high caloric diets, containing large amounts of carbohydrates and fats, obesity followed by systemic inflammation and peripheral insulin resistance occurs over time, initiating metabolic stress conditions. Elevated insulin demands initiate an adaptive response by beta-cell mass expansion due to increased proliferation, but prolonged stress conditions drive beta-cell failure and loss. Aging has been also shown to affect beta-cell functionality and morphology, in particular by proliferative limitations. However, most studies in rodents were performed under beta-cell challenging conditions, such as high-fat diet interventions. Thus, in the first part of the thesis (publication I), a characterization of age-related alterations on pancreatic islets and beta-cells was performed by using plasma samples and pancreatic tissue sections of standard diet-fed C57BL/6J wild-type mice in several age groups (2.5, 5, 10, 15 and 21 months). Aging was accompanied by decreased but sustained islet proliferative potential as well as an induction of cellular senescence. This was associated with a progressive islet expansion to maintain normoglycemia throughout lifespan. Moreover, beta-cell function and mass were not impaired although the formation and accumulation of AGEs occurred, located predominantly in the islet vasculature, accompanied by an induction of oxidative and nitrosative (redox) stress. The nutritional behavior throughout human lifespan; however, is not restricted to a balanced diet. This emphasizes the significance to investigate malnutrition by the intake of high-energy diets, inducing metabolic stress conditions that synergistically with aging might amplify the detrimental effects on endocrine pancreas. Using diabetes-prone NZO mice aged 7 weeks, fed a dietary regimen of carbohydrate restriction for different periods (young mice - 11 weeks, middle-aged mice - 32 weeks) followed by a carbohydrate intervention for 3 weeks, offered the opportunity to distinguish the effects of diet-induced metabolic stress in different ages on the functionality and integrity of pancreatic islets and their beta-cells (publication II, manuscript). Interestingly, while young NZO mice exhibited massive hyperglycemia in response to diet-induced metabolic stress accompanied by beta-cell dysfunction and apoptosis, middle-aged animals revealed only moderate hyperglycemia by the maintenance of functional beta-cells. The loss of functional beta-cell mass in islets of young mice was associated with reduced expression of PDX1 transcription factor, increased endocrine AGE formation and related redox stress as well as TXNIP-dependent induction of the mitochondrial death pathway. Although the amounts of secreted insulin and the proliferative potential were comparable in both age groups, islets of middle-aged mice exhibited sustained PDX1 expression, almost regular insulin secretory function, increased capacity for cell cycle progression as well as maintained redox potential. The results of the present thesis indicate a loss of functional beta-cell mass in young diabetes-prone NZO mice, occurring by redox imbalance and induction of apoptotic signaling pathways. In contrast, aging under physiological conditions in C57BL/6J mice and in combination with diet-induced metabolic stress in NZO mice does not appear to have adverse effects on the functionality and structural integrity of pancreatic islets and beta-cells, associated with adaptive responses on changing metabolic demands. However, considering the detrimental effects of aging, it has to be assumed that the compensatory potential of mice might be exhausted at a later point of time, finally leading to a loss of functional beta-cell mass and the onset and progression of type 2 diabetes. The polygenic, diabetes-prone NZO mouse is a suitable model for the investigation of human obesity-associated type 2 diabetes. However, mice at advanced age attenuated the diabetic phenotype or do not respond to the dietary stimuli. This might be explained by the middle age of mice, corresponding to the human age of about 38-40 years, in which the compensatory mechanisms of pancreatic islets and beta cells towards metabolic stress conditions are presumably more active. N2 - Das steigende Alter der Weltbevölkerung ist ein wesentlicher Faktor für die zunehmende Prävalenz bedeutsamer Pathologien und Krankheiten, wie dem Typ-2-Diabetes, der durch eine massive Insulinresistenz und eine Abnahme der funktionellen Beta-Zellmasse hervorgerufen wird und in hohem Maße mit einem verstärkten Auftreten von Fettleibigkeit assoziiert ist. Daher wurde in der vorliegenden Dissertation der Einfluss der Alterung unter physiologischen Bedingungen und in Kombination mit ernährungs-bedingtem, metabolischem Stress auf die Eigenschaften von Langerhans-Inseln und Beta-Zellen, mit dem Schwerpunkt auf Funktionalität und strukturelle Integrität, untersucht. Primär induziert durch Fehlernährung infolge des chronischen und übermäßigen Konsums von kalorienreichen Diäten, die große Mengen an Kohlenhydraten und Fetten enthalten, kann Adipositas, gefolgt von systemischen Entzündungen und peripherer Insulinresistenz, im Laufe des Lebens entstehen und metabolische Stresszustände auslösen. Daraus resultiert ein erhöhter Insulinbedarf, der eine adaptive Reaktion durch die Vergrößerung der Beta-Zellmasse infolge gesteigerter Proliferation auslöst. Längere Stressbedingungen führen hingegen zu Schäden an und Verlust von Beta-Zellen. Es wurde zudem gezeigt, dass das Altern die Funktionalität und Morphologie von Beta-Zellen, insbesondere durch proliferative Limitationen, beeinflusst. Die meisten Studien in Nagetieren wurden jedoch unter erhöhten Stressbedingungen für Beta-Zellen, beispielsweise durch die Fütterung von Hochfett-Diäten, durchgeführt. Deshalb wurde im ersten Teil der Arbeit (Publikation I) eine Charakterisierung von altersbedingten Veränderungen auf die Langerhans-Inseln und Beta-Zellen unter Verwendung von Plasmaproben und Pankreasgewebeschnitten von C57BL/6J-Wildtyp-Mäusen verschiedener Altersgruppen (2,5; 5; 10; 15 und 21 Monate), die mit einer Standarddiät gefüttert wurden, durchgeführt. Das Altern ging mit einem reduzierten, jedoch anhaltenden Proliferationspotential der Langerhans-Inseln sowie einer Induktion der zellulären Seneszenz einher. Dies war mit einem fortschreitenden Wachstum der Langerhans-Inseln verbunden, um eine Normoglykämie während der gesamten Lebensdauer aufrechtzuerhalten. Zudem wurden die Beta-Zell-Masse und die Funktionalität nicht beeinträchtigt, obwohl eine Bildung und Akkumulation von AGEs, die vorwiegend im Gefäßsystem der Langerhans-Inseln lokalisiert und von einer Induktion von oxidativem und nitrosativem (redox) Stress begleitet war, auftrat. Das Ernährungsverhalten während der gesamten Lebensspanne ist jedoch nicht auf eine ausgewogene Ernährung beschränkt. Dies unterstreicht die Bedeutung der Untersuchung von Fehlernährung durch die Einnahme energiereicher Diäten, wodurch metabolische Stresszustände induziert werden, die synergistisch mit dem Altern schädigende Effekte auf das endokrine Pankreas verstärken können. Verwendet wurden 7 Wochen alte, zur Entwicklung von Typ-2-Diabetes neigende NZO-Mäuse, die unterschiedlich langen kohlenhydratrestriktiven Fütterungsperioden (junge Mäuse - 11 Wochen, Mäuse mittleren Alters - 32 Wochen), gefolgt von einer 3-wöchigen Kohlenhydratintervention ausgesetzt waren. Dadurch konnten die Auswirkungen von ernährungsbedingtem metabolischem Stress auf die Funktionalität und Integrität von Langerhans-Inseln und deren Beta-Zellen in verschiedenen Altersstufen untersucht werden (Publikation II, Manuskript). Interessanterweise zeigten junge NZO-Mäuse eine massive Hyperglykämie als Reaktion auf den ernährungsbedingten, metabolischen Stress was von Beta-Zelldysfunktion und Apoptose begleitet war. Tiere mittleren Alters zeigten hingegen nur eine moderate Hyperglykämie durch den Erhalt funktioneller Beta-Zellen. Der Verlust funktioneller Beta-Zellmasse in jungen Mäusen war mit einer verminderten Expression des PDX1-Transkriptionsfaktors, einer erhöhten endokrinen AGE-Bildung und damit verbundenem Redox Stress sowie einer TXNIP-abhängigen Induktion des mitochondrialen Apoptosewegs verbunden. Obwohl die Mengen an sekretiertem Insulin sowie das Proliferationspotential in beiden Altersgruppen vergleichbar waren, zeigten die Langerhans-Inseln der Mäuse im mittleren Alter eine anhaltende PDX1-Expression, eine nahezu reguläre Insulinsekretionsfunktion, eine erhöhte Kapazität für das Fortschreiten des Zellzyklus sowie einen Erhalt des Redoxpotentials. Die Ergebnisse der vorliegenden Arbeit zeigen einen Verlust funktioneller Beta-Zellmasse bei jungen, diabetogenen NZO-Mäusen, der durch ein Redox-Ungleichgewicht und die Induktion apoptotischer Signalwege verursacht wurde. Im Gegensatz dazu scheint das Altern unter physiologischen Bedingungen bei C57BL/6J-Mäusen und in Kombination mit ernährungsbedingtem metabolischem Stress bei NZO-Mäusen keine nachteiligen Auswirkungen auf die Funktionalität und strukturelle Integrität von Langerhans und Beta-Zellen zu haben, was mit adaptiven Reaktionen auf wechselnde Stoffwechsel-anforderungen assoziiert war. In Anbetracht der negativen Auswirkungen der Alterung muss jedoch berücksichtigt werden, dass das Kompensationsverhalten von Mäusen zu einem späteren Zeitpunkt erschöpft sein könnte, was schließlich zu einem Verlust der funktionellen Beta-Zellmasse und dem Auftreten und Fortschreiten von Typ-2-Diabetes führt. Die polygene, zu Typ-2-Diabetes neigende NZO-Maus ist ein geeignetes Modell für die Untersuchung von mit Adipositas-assoziiertem Typ-2-Diabetes beim Menschen. Mäuse im fortgeschrittenen Alter zeigten jedoch einen verminderten diabetischen Phänotyp oder reagierten nicht auf die diätetischen Reize. Dies könnte durch das mittlere Alter der Mäuse erklärt werden, das dem menschlichen Alter von etwa 38 bis 40 Jahren entspricht, in dem die Kompensationsmechanismen von Langerhans-Inseln und Beta-Zellen gegenüber metabolischen Stressbedingungen möglicherweise aktiver sind. KW - Alterung KW - aging KW - Beta-Zelle KW - beta-cell KW - metabolischer Stress KW - metabolic stress Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441099 ER - TY - THES A1 - Grafe, Marianne Erika T1 - Analysis of supramolecular assemblies of NE81, the first lamin protein in a non-metazoan organism T1 - Analyse von supramolekularen Komplexen von NE81, dem ersten Lamin in einem nicht-metazoischen Organismus N2 - Lamine sind Proteine an der inneren Kernhülle und bilden zusammen mit verbundenen Proteinen die nukleäre Lamina. Dieses Netzwerk sorgt für die Stabilität des Zellkerns und unterstützt die Organisation des Zell-Zytoskeletts. Zusätzlich sind Lamine und ihre verbundenen Proteine in viele Prozesse wie Genregulation und Zelldifferenzierung involviert. Bis 2012 war der Stand der Forschung, dass nur bei mehrzelligen Organismen eine nukleäre Lamina zu finden ist. NE81 ist das erste lamin-ähnliche Protein, das in einem nicht-mehrzelligen Organismus (Dictyostelium discoideum) entdeckt wurde. Es hat viele Eigenschaften und Strukturmerkmale mit Laminen gemeinsam. Dazu zählt der dreiteilige Aufbau des Proteins, eine Phosphorylierungsstelle für ein Zellzyklus-abhängiges Enzym, ein Kernlokalisationssignal, wodurch das Protein in den Kern transportiert wird, sowie eine C-terminale Sequenz zur Verankerung des Proteins in der Kernhülle. In dieser Arbeit wurden verschiedene Methoden zur vereinfachten Untersuchung von Laminstrukturen getestet, um zu zeigen, dass sich NE81 wie bereits bekannte Lamin-Proteine verhält und supramolekulare Netzwerke aus Laminfilamenten bildet. Zur Analyse der Struktur supramolekularer Anordnungen wurde das Protein durch Entfernen des Kernlokalisationssignals auf der äußeren Kernhülle von Dictyostelium gebildet. Die anschließende Untersuchung der Oberfläche der Kerne mit einem Rasterelektronenmikroskop zeigte, dass NE81 Strukturen in der Größe von Laminen bildet, allerdings nicht in regelmäßigen filamentösen Anordnungen. Um die Entstehung der Laminfilamente zu untersuchen, wurde lösliches NE81 aus Dictyostelium aufgereinigt und mit verschiedenen mikroskopischen Methoden untersucht. Dabei wurde festgestellt, dass NE81 unter Niedrigsalz-Bedingungen dünne, fadenförmige Strukturen und Netzwerke ausbildet, die denen von Säugetier-Laminen sehr ähnlich sind. Die Mutation der Phosphorylierungsstelle von NE81 zu einer imitierenden dauerhaften Phosphorylierung von NE81 in der Zelle, zeigte zunächst ein gelöstes Protein, das überraschenderweise unter Blaulichtbestrahlung der Zelle wieder lamin-ähnliche Anordnungen formte. Die Ergebnisse dieser Arbeit zeigen, dass NE81 echte Laminstrukturen ausbilden kann und hebt Dictyostelium als Nicht-Säugetier-Modellorganismus mit einer gut charakterisierten Kernhülle, mit allen relevanten, aus tierischen Zellen bekannten Proteinen, hervor. N2 - Nuclear lamins are nucleus-specific intermediate filaments forming a network located at the inner nuclear membrane of the nuclear envelope. They form the nuclear lamina together with proteins of the inner nuclear membrane regulating nuclear shape and gene expression, among others. The amoebozoan Dictyostelium NE81 protein is a suitable candidate for an evolutionary conserved lamin protein in this non-metazoan organism. It shares the domain organization of metazoan lamins and is fulfilling major lamin functions in Dictyostelium. Moreover, field-emission scanning electron microscopy (feSEM) images of NE81 expressed on Xenopus oocytes nuclei revealed filamentous structures with an overall appearance highly reminiscent to that of metazoan Xenopus lamin B2. For the classification as a lamin-like or a bona fide lamin protein, a better understanding of the supramolecular NE81 structure was necessary. Yet, NE81 carrying a large N-terminal GFP-tag turned out as unsuitable source for protein isolation and characterization; GFP-NE81 expressed in Dictyostelium NE81 knock-out cells exhibited an abnormal distribution, which is an indicator for an inaccurate assembly of GFP-tagged NE81. Hence, a shorter 8×HisMyc construct was the tag of choice to investi-gate formation and structure of NE81 assemblies. One strategy was the structural analysis of NE81 in situ at the outer nuclear membrane in Dictyostelium cells; NE81 without a func-tional nuclear localization signal (NLS) forms assemblies at the outer face of the nucleus. Ultrastructural feSEM pictures of NE81ΔNLS nuclei showed a few filaments of the expected size but no repetitive filamentous structures. The former strategy should also be established for metazoan lamins in order to facilitate their structural analysis. However, heterologously expressed Xenopus and C. elegans lamins showed no uniform localization at the outer nucle-ar envelope of Dictyostelium and hence, no further ultrastructural analysis was undertaken. For in vitro assembly experiments a Dictyostelium mutant was generated, expressing NE81 without the NLS and the membrane-anchoring isoprenylation site (HisMyc-NE81ΔNLSΔCLIM). The cytosolic NE81 clusters were soluble at high ionic strength and were purified from Dictyostelium extracts using Ni-NTA Agarose. Widefield immunofluorescence microscopy, super-resolution light microscopy and electron microscopy images of purified NE81 showed its capability to form filamentous structures at low ionic strength, as described previously for metazoan lamins. Introduction of a phosphomimetic point mutation (S122E) into the CDK1-consensus sequence of NE81 led to disassembled NE81 protein in vivo, which could be reversibly stimulated to form supramolecular assemblies by blue light exposure. The results of this work reveal that NE81 has to be considered a bona fide lamin, since it is able to form filamentous assemblies. Furthermore, they highlight Dictyostelium as a non-mammalian model organism with a well-characterized nuclear envelope containing all rele-vant protein components known in animal cells. KW - lamin KW - NE81 KW - Dictyostelium KW - nuclear envelope KW - nuclear lamina KW - expansion microscopy KW - Lamin KW - NE81 KW - Dictyostelium KW - Kernhülle KW - nukleäre Lamina KW - Expansions-Mikroskopie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441802 ER - TY - THES A1 - Rector, Michael V. T1 - The acute effect of exercise on flow-mediated dilation in young people with cystic fibrosis T1 - Der akute Effekt des Trainings auf den Fluss vermittelte Dilatation bei jungen Menschen mit Mukoviszidose N2 - Introduction: Cystic fibrosis (CF) is a genetic disease which disrupts the function of an epithelial surface anion channel, CFTR (cystic fibrosis transmembrane conductance regulator). Impairment to this channel leads to inflammation and infection in the lung causing the majority of morbidity and mortality. However, CF is a multiorgan disease affecting many tissues, including vascular smooth muscle. Studies have revealed young people with cystic fibrosis lacking inflammation and infection still demonstrate vascular endothelial dysfunction, measured per flow-mediated dilation (FMD). In other disease cohorts, i.e. diabetic and obese, endurance exercise interventions have been shown improve or taper this impairment. However, long-term exercise interventions are risky, as well as costly in terms of time and resources. Nevertheless, emerging research has correlated the acute effects of exercise with its long-term benefits and advocates the study of acute exercise effects on FMD prior to longitudinal studies. The acute effects of exercise on FMD have previously not been examined in young people with CF, but could yield insights on the potential benefits of long-term exercise interventions. The aims of these studies were to 1) develop and test the reliability of the FMD method and its applicability to study acute exercise effects; 2) compare baseline FMD and the acute exercise effect on FMD between young people with and without CF; and 3) explore associations between the acute effects of exercise on FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. Methods: Thirty young volunteers (10 people with CF, 10 non-CF and 10 non-CF active matched controls) between the ages of 10 and 30 years old completed blood draws, pulmonary function tests, maximal exercise capacity tests and baseline FMD measurements, before returning approximately 1 week later and performing a 30-min constant load training at 75% HRmax. FMD measurements were taken prior, immediately after, 30 minutes after and 1 hour after constant load training. ANOVAs and repeated measures ANOVAs were employed to explore differences between groups and timepoints, respectively. Linear regression was implemented and evaluated to assess correlations between FMD and demographic characteristics, physical activity levels, lung function, maximal exercise capacity or inflammatory hsCRP levels. For all comparisons, statistical significance was set at a p-value of α < 0.05. Results: Young people with CF presented with decreased lung function and maximal exercise capacity compared to matched controls. Baseline FMD was also significantly decreased in the CF group (CF: 5.23% v non-CF: 8.27% v non-CF active: 9.12%). Immediately post-training, FMD was significantly attenuated (approximately 40%) in all groups with CF still demonstrating the most minimal FMD. Follow-up measurements of FMD revealed a slow recovery towards baseline values 30 min post-training and improvements in the CF and non-CF active groups 60 min post-training. Linear regression exposed significant correlations between maximal exercise capacity (VO2 peak), BMI and FMD immediately post-training. Conclusion: These new findings confirm that CF vascular endothelial dysfunction can be acutely modified by exercise and will aid in underlining the importance of exercise in CF populations. The potential benefits of long-term exercise interventions on vascular endothelial dysfunction in young people with CF warrants further investigation. N2 - Einleitung: Mukoviszidose (CF) ist eine genetische Erkrankung, die die Funktion eines Epithelien Oberflächenanionenkanals, CFTR (cystic fibrosis transmembrane conductance regulator), stört. Eine Beeinträchtigung dieses Kanals führt zu Entzündungen und Infektionen in der Lunge, die den Großteil der Morbidität und Mortalität verursachen. CF ist jedoch eine Multiorganerkrankung, die viele Gewebe einschließlich vaskulärer glatter Muskeln betrifft. Studien haben gezeigt, dass junge Menschen mit Mukoviszidose, die keine Entzündung und Infektion aufweisen, immer noch eine vaskuläre Dysfunktion aufweisen, gemessen anhand der durchflussbedingten Dilatation (FMD). In anderen Krankheitskohorten, u.a. Diabetes und Fettleibigkeit, wurde gezeigt, dass Ausdauersporteingriffe diese Beeinträchtigungen verbessern oder reduzieren. Langfristige Bewegungseingriffe sind jedoch riskant und kostenintensiv in Bezug auf Zeit und Ressourcen. Nichtsdestotrotz hat die aufkommende Forschung die akuten Auswirkungen von körperlicher Bewegung mit ihren langfristigen Vorteilen korreliert und befürwortet die Untersuchung akuter Bewegungseffekte auf FMD vor longitudinalen Studien. Die akuten Auswirkungen von körperlicher Bewegung auf FMD wurden bisher bei jungen Menschen mit Mukoviszidose nicht untersucht, konnten jedoch Erkenntnisse über die potenziellen Vorteile langfristiger Bewegungseingriffe liefern. Die Ziele dieser Studien waren, 1) die Zuverlässigkeit der FMD-Methode und ihre Anwendbarkeit zu entwickeln, um akute Übungseffekte zu untersuchen; 2) Vergleich der Grundlinien-FMD und der Akutübungswirkung bei FMD zwischen Jugendlichen mit und ohne CF; und 3) Zusammenhänge zwischen den akuten Auswirkungen von körperlicher Bewegung auf FMD und demographischen Merkmalen, der körperlichen Aktivität, der Lungenfunktion, der maximalen körperlichen Belastbarkeit oder den entzündlichen hsCRP-Spiegeln zu untersuchen. Methoden: Dreißig junge Freiwillige (10 CF-Patienten, 10 gesunde und 10 aktive, gesunde Kontrollpersonen) im Alter von 10 bis 30 Jahren führten zuvor Blutabnahmen, Lungenfunktionstests, maximale Belastungstests und Grundlinien-FMD-Messungen durch Rückkehr etwa 1 Woche später und Durchführung eines 30-minütigen Dauerlasttrainings bei 75% HFmax durch. FMD-Messungen wurden vor, unmittelbar nach, 30 Minuten nach und 1 Stunde nach konstantem Belastungstraining durchgeführt. ANOVAs und ANOVAs mit wiederholten Messungen wurden verwendet, um Unterschiede zwischen Gruppen bzw. Zeitpunkten zu untersuchen. Die lineare Regression wurde implementiert und evaluiert, um Korrelationen zwischen FMD und demographischen Merkmalen, körperlichen Aktivitätsniveaus, Lungenfunktion, maximaler Belastungskapazität oder inflammatorischen hsCRP-Spiegeln zu bestimmen. Für alle Vergleiche wurde die statistische Signifikanz auf einen p-Wert von α < 0,05 eingestellt. Ergebnisse: Jugendliche mit Mukoviszidose zeigten eine verminderte Lungenfunktion und maximale Belastbarkeit im Vergleich zu Kontrollpersonen. Baseline FMD (%) war auch in der CF-Gruppe (CF: 5.23% v nicht-CF: 8.27% v nicht-CF-aktive: 9.12%) signifikant verringert. Unmittelbar nach dem Training war die FMD in allen Gruppen mit CF, die immer noch die minimalste FMD aufwiesen, signifikant abgeschwächt (~40%). Follow-up-Messungen von FMD zeigte eine langsame Erholung in Richtung Baseline-Werte 30 Minuten nach dem Training und Verbesserungen in der CF-und nicht-CF-aktive Gruppen 60 Minuten nach dem Training. Die lineare Regression zeigte signifikante Korrelationen zwischen maximaler Belastungsfähigkeit (VO2-Peak), BMI und FMD unmittelbar nach dem Training. Feststellung: Diese neuen Ergebnisse bestätigen, dass die vaskuläre Dysfunktion der CF durch sportliche Betätigung akut verändert werden kann und dazu beitragen wird, die Bedeutung von Bewegung in CF-Populationen zu unterstreichen. Die potenziellen Vorteile von Langzeitübungsinterventionen bei vaskulärer Dysfunktion bei jungen CF-Patienten rechtfertigen weitere Untersuchungen. KW - cystic fibrosis KW - flow-mediated dilation KW - vascular dysfunction KW - exercise KW - Mukoviszidose KW - Fluss vermittelte Dilatation KW - vaskuläre Dysfunktion KW - Sporttraining Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-438938 ER - TY - THES A1 - Bieri, Pascal T1 - Topmanager im Kreuzfeuer ihrer Dilemmata T1 - Top managers in the crossfire of their dilemmas BT - Ursachen, Bewältigungsstrategien und Resultate von empfundenen Dilemmata im Habitat der Schweizer Topmanager sowie das Kontinuum derer Typen in Bezug auf Dilemmata-Arten BT - causes, coping strategies and results of perceived dilemmas in the habitat of Swiss top managers as well as the continuum of their types in relation to species of dilemmas N2 - Die vorliegende Forschungsarbeit untersucht den Umgang mit Dilemmata von Topmanagern. Dilemmata sind ein alltägliches Geschäft im Topmanagement. Die entsprechenden Akteure sind daher immer wieder mit diesen konfrontiert und mit ihnen umzugehen, gehört gewissermaßen zu ihrer Berufsbeschreibung. Hinzu kommen Dilemmata im nicht direkt geschäftlichen Bereich, wie zum Beispiel jene zwischen Familien- und Arbeitszeit. Doch stellt dieses Feld ein kaum untersuchtes Forschungsgebiet dar. Während Dilemmata in anderen Bereichen eine zunehmende Aufmerksamkeit erfuhren, wurden deren Besonderheiten im Topmanagement genauso wenig differenziert betrachtet wie zugehörige Umgangsweisen. Theorie und Praxis stellen bezüglich Dilemmata von Topmanagern vor allem einen Gegensatz dar, beziehungsweise fehlt es an einer theoretischen Fundierung der Empirie. Diesem Umstand wird mittels dieser Studie begegnet. Auf der Grundlage einer differenzierten und breiten Erfassung von Theorien zu Dilemmata, so diese auch noch nicht auf Topmanager bezogen wurden, und einer empirischen Erhebung, die im Mittelpunkt dieser Arbeit stehen, soll das Feld Dilemmata von Topmanagern der Forschung geöffnet werden. Empirische Grundlage sind vor allem narrative Interviews mit Topmanagern über ihre Dilemmata-Wahrnehmung, ausgemachte Ursachen, Umgangsweisen und Resultate. Dies erlaubt es, Topmanagertypen sowie Dilemmata-Arten, mit denen sie konfrontiert sind oder waren, analytisch herauszuarbeiten. Angesichts der Praxisrelevanz von Dilemmata von Topmanagern wird jedoch nicht nur ein theoretisches Modell zu dieser Thematik erarbeitet, es werden auch Reflexionen auf die Praxis in Form von Handlungsempfehlungen vorgenommen. Schließlich gilt es, die allgemeine Theorie zu Dilemmata, ohne konkreten Bezug zu Topmanagern, mit den theoretischen Erkenntnissen dieser Studie auf empirischer Basis zu kontrastieren. Dabei wird im Rahmen der empirischen Erfassung und Auswertung dem Ansatz der Grounded-Theory-Methodologie gefolgt. N2 - This scientific study examines the handling of dilemmas of top managers. Handling dilemmas is daily business of top managers, again and again they are confronted with various dilemmas. But handling dilemmas is not only part of the job description of top managers, they also must handle dilemmas out of their direct business, as between family and business time. But this area has not been focused on in studies so far; while dilemmas in general have been broadly studied and were in the focus of attention in different scientific areas, they and their handling have not been studied in connection with top managers. Here, theory and practice are far away from each other; it lacks a theoretical base for the empirical handling of dilemmas of top managers. This circumstance is tackled by this study, which is based on a broad and differentiated discussion of theories about dilemmas, even though they are not directly linked to top management. What follows is an empirical study as centre of this work to bring the field of dilemma of top managers into scientific focus, based on narrative interviews with top managers. With the interviews it is possible to analyze the perception of dilemmas of top managers, see causes of dilemmas, ways to handle them and their results. Building on this, types of top managers can be distinguished from each other as well as kinds of dilemmas they are confronted with respectively have been confronted with. Considering the relevance of the topic of dilemmas for the practice of top managers, in the end not only a theoretical model shall be developed based on the empirical data, but reflections towards practice shall be undertaken in form of recommended procedures. Finally, the covered general theory about dilemmas, without explicit connection to top managers, is to be contrasted with the theoretical insights based on the empiricism of this study. Behind the empirical analysis here stands a Grounded Theory Methodology approach. KW - Topmanager KW - Dilemmata KW - Dilemma KW - Topmanager Typen KW - Dilemmata Arten KW - Ursachen KW - Bewältigungsstrategien KW - Resultate KW - Kontinuum KW - top manager KW - dilemma KW - dilemmas KW - top manager types KW - dilemmas species KW - causes KW - coping strategies KW - results KW - continuum Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441062 ER - TY - THES A1 - Riemer, Janine T1 - Synthese und Charakterisierung selektiver Fluoroionophore für intra- und extrazelluläre Bestimmungen von Kalium- und Natrium-Ionen T1 - Synthesis and characterization of selective fluoroionophores for intra- and extracellular determinations of potassium and sodium ions N2 - Im Rahmen dieser Dissertation konnten neue Kalium- und Natrium-Ionen Fluoreszenzfarbstoffe von der Klasse der Fluoroionophore synthetisiert und charakterisiert werden. Sie bestehen aus einem N Phenylazakronenether als Ionophor und unterschiedlichen Fluorophoren und sind über einen π-konjugierten 1,2,3-Triazol-1,4-diyl Spacer verbunden. Dabei lag der Fokus während ihrer Entwicklung darauf, diese in ihrer Sensitivität, Selektivität und in ihren photophysikalischen Eigenschaften so zu funktionalisieren, dass sie für intra- bzw. extrazelluläre Konzentrationsbestimmungen geeignet sind. Durch Variation der in ortho Position der N-Phenylazakronenether befindlichen Alkoxy-Gruppen und der fluorophoren Gruppe der Fluoroionophore konnte festgestellt werden, dass die Sensitivität und Selektivität für Kalium- bzw. Natrium-Ionen jeweils durch eine bestimmte Isomerie der 1,2,3-Triazol-1,4-diyl-Einheit erhöht wird. Des Weiteren wurde gezeigt, dass durch eine erhöhte Einschränkung der N,N-Diethylamino-Gruppe des Fluorophors eine Steigerung der Fluoreszenzquantenausbeute und eine Verschiebung des Emissionsmaximums auf über 500 nm erreicht werden konnte. Die Einführung einer Isopropoxy-Gruppe an einem N-Phenylaza-[18]krone-6-ethers resultierte dabei in einem hoch selektiven Kalium-Ionen Fluoroionophor und ermöglichte eine in vitro Überwachung von 10 – 80 mM Kalium-Ionen. Die Substitution einer Methoxy-Gruppe an einem N-Phenylaza-[15]krone-5-ether kombiniert mit unterschiedlich N,N-Diethylamino-Coumarinen lieferte hingegen zwei Natrium-Ionen Fluoroionophore, die für die Überwachung von intra- bzw. extrazellulären Natrium-Ionen Konzentrationen geeignet sind. In einem weiteren Schritt wurden N-Phenylaza-[18]krone-6-ether mit einem Fluorophor, basierend auf einem [1,3]-Dioxolo[4,5-f][1,3]benzodioxol-(DBD)-Grundgerüst, funktionalisiert. Die im Anschluss durchgeführten spektroskopischen Untersuchungen ergaben, dass die Isopropoxy-Gruppe in ortho Position des N-Phenylaza-[18]krone-6-ether in einen für extrazelluläre Kalium-Ionen Konzentrationen selektiven Fluoroionophor resultierte, der die Konzentrationsbestimmungen über die Fluoreszenzintensität und -lebensdauer ermöglicht. In einem abschließenden Schritt konnte unter Verwendung eines Pyrens als fluorophore Gruppe ein weiterer für extrazelluläre Kalium-Ionen Konzentrationen geeigneter Fluoroionophor entwickelt werden. Die Bestimmung der Kalium-Ionen Konzentration erfolgte hierbei anhand der Fluoreszenzintensitätsverhältnisse bei zwei Emissionswellenlängen. Insgesamt konnten 17 verschiedene neue Fluoroionophore für die Bestimmung von Kalium- bzw. Natrium-Ionen synthetisiert und charakterisiert werden. Sechs dieser neuen Moleküle ermöglichen in vitro Messungen der intra- oder extrazellulären Kalium- und Natrium-Ionen Konzentrationen und könnten zukünftig für in vivo Konzentrationsmessungen verwendet werden. N2 - In this thesis, new potassium and sodium ion fluorescent probes from the class of fluoroionophores were synthesized and characterized. They consist of an N-phenylazacrown lariat ether and several fluorophores, connected through a π-conjugated 1,2,3-triazole-1,4-diyl spacer. The focus of their development was to optimize their sensitivity, selectivity and their photophysical properties, making them suitable for detecting intra- or extracellular ion levels. Variation of the alkoxy groups in the ortho position of the N-phenylazacrown lariat ether and the fluorophoric group of the fluoroionophores showed that the sensitivity and selectivity for potassium or sodium ions was preferred by a specific isomerism of the 1,2,3-triazole-1,4-diyl unit. Furthermore it was possible to show that an increased hindrance of the N,N-diethylamino group of the fluorophore led to a higher fluorescence quantum yield and a shift of the emission maximum to over 500 nm. The introduction of an isopropoxy group to an N phenylaza-[18]crown-6 lariat ether resulted in a highly selective potassium ion fluoroionophore suitable for in vitro monitoring of potassium ion levels (10 – 80 mM). However, a substitution of a methoxy group on an N-phenylaza-[15] crown-5 lariat ether combined with different degrees of hindrance of N,N diethylamino coumarins gave sodium ion fluoroionophores which are suitable for monitoring intracellular and extracellular sodium ion levels. In a following step N-phenylaza-[18]crown-6 lariat ethers were functionalized with a fluorophore, which was based on a [1,3]-dioxolo[4,5-f [1,3]benzodioxole (DBD) backbone. Following spectroscopic studies it was shown that an isopropoxy group in the ortho position of the N-phenylaza-[18]crown-6 lariat ether resulted in a selective fluoroionophore for extracellular potassium ion levels, which allows measurements of the fluorescence intensity and -lifetime. In a final step an additional fluoroionophore, suitable for extracellular potassium ion levels, was developed by using a pyrene as the fluorophoric group. This fluoroionophore was used to measure potassium ion levels by analyzing the fluorescence intensity ratios at two emission wavelengths. In this work 17 new fluoroionophores were synthesized and characterized. Six of these novel molecules allow in vitro measurements of intra- or extracellular potassium and sodium ion levels and could be used for in vivo concentration measurements in the future. KW - Fluoroionophore KW - fluoroionophore KW - intra- und extrazellulär KW - intra- and extracellular KW - Kalium- und Natrium-Ionen KW - potassium and sodium ions Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441932 ER - TY - THES A1 - Debsharma, Tapas T1 - Cellulose derived polymers T1 - Polymere aus Cellulose BT - synthesis of functional and degradable polymers from cellulose N2 - Plastics, such as polyethylene, polypropylene, and polyethylene terephthalate are part of our everyday lives in the form of packaging, household goods, electrical insulation, etc. These polymers are non-degradable and create many environmental problems and public health concerns. Additionally, these polymers are produced from finite fossils resources. With the continuous utilization of these limited resources, it is important to look towards renewable sources along with biodegradation of the produced polymers, ideally. Although many bio-based polymers are known, such as polylactic acid, polybutylene succinate adipate or polybutylene succinate, none have yet shown the promise of replacing conventional polymers like polyethylene, polypropylene and polyethylene terephthalate. Cellulose is one of the most abundant renewable resources produced in nature. It can be transformed into various small molecules, such as sugars, furans, and levoglucosenone. The aim of this research is to use the cellulose derived molecules for the synthesis of polymers. Acid-treated cellulose was subjected to thermal pyrolysis to obtain levoglucosenone, which was reduced to levoglucosenol. Levoglucosenol was polymerized, for the first time, by ring-opening metathesis polymerization (ROMP) yielding high molar mass polymers of up to ~150 kg/mol. The poly(levoglucosenol) is thermally stable up to ~220 ℃, amorphous, and is exhibiting a relatively high glass transition temperature of ~100 ℃. The poly(levoglucosenol) can be converted to a transparent film, resembling common plastic, and was found to degrade in a moist acidic environment. This means that poly(levoglucosenol) may find its use as an alternative to conventional plastic, for instance, polystyrene. Levoglucosenol was also converted into levoglucosenyl methyl ether, which was polymerized by cationic ring-opening metathesis polymerization (CROP). Polymers were obtained with molar masses up to ~36 kg/mol. These polymers are thermally stable up to ~220 ℃ and are semi-crystalline thermoplastics, having a glass transition temperature of ~35 ℃ and melting transition of 70-100 ℃. Additionally, the polymers underwent cross-linking, hydrogenation and thiol-ene click chemistry. N2 - Kunststoffe wie Polyethylen, Polypropylen und Polyethylenterephthalat sind ein großer Bestandteil unseres Alltags und finden Verwendung unter anderem als Verpackungsmaterialien, Haushaltswaren und Elektroisolierungen. Diese Polymere werden aus fossilen Ressourcen hergestellt, sind nicht abbaubar und verursachen nicht nur viele Umweltprobleme sondern können auch zu Gesundheitsschäden führen. Aufgrund dessen muss die Verwendung von erneuerbaren Ressourcen geachtet werden, wobei die hergestellten Polymere im Idealfall komplett biologisch abbaubar sind. Obwohl viele biobasierte Polymere, wie Polymilchsäure, Polybutylensuccinatadipat oder Polybutylensuccinat, bekannt sind, hat noch keines das Potential gezeigt, herkömmliche Polymere zu ersetzen. Cellulose ist einer der am häufigsten in der Natur produzierten nachwachsenden Rohstoffe und kann in verschiedene kleine organische Moleküle wie Zucker (Saccharide), Furan und auch Levoglucosenon umgewandelt werden. Ziel dieser Arbeit ist die Verwendung von Levoglucosenon als Monomer für die Synthese von Polymeren. Säurebehandelte Cellulose wurde einer thermischen Pyrolyse unterzogen, um Levoglucosenon zu erhalten, das dann weiter zu Levoglucosenol reduziert wurde. Das Levoglucosenol wurde zum ersten Mal erfolgreich über eine Ringöffnungsmetathese-Polymerisation (ROMP) polymerisiert. Die Molmassen der hergestellten Polymere erreichten Werte von bis zu ~150 kg/mol. Die thermische Analyse von Poly(levoglucosenol) zeigt, dass es bis zu einer Temperatur von ~220 ℃ stabil ist, eine Glasübergangstemperatur bei ~100 ℃ hat und ein amorphes Polymer ist. Weiterhin kann das Poly(levoglucosenol) in feuchter saurer Umgebung in kurzer Zeit abgebaut werden. Aufgrund dieser Eigenschaften kann Poly(levoglucosenol) als Alternative zu konventionellem Kunststoff, wie z.B. Polystyrol, eingesetzt werden kann. Levoglucosenol wurde weiter in Levoglucosenylmethylether umgewandelt. Levoglucosenylmethylether kann mit kationischer Ringöffnungs-Polymerisation (CROP) polymerisiert werden. Es wurden Polymere mit Molmassen von bis zu ~36 kg/mol hergestellt. Die Polymere weisen eine thermische Stabilität bis zu einer Temperatur von ~220 °C auf. Es handelt sich bei den hergestellten Poly(levoglucosenylmethylethern) um teilkristalline Thermoplaste, deren Glasüberganstemperatur bei ~35 °C und der Schmelzbereich bei 70-100 °C liegt. Die Doppelbindungen des Levoglucosenylmethylethers wurden genutzt um das Polymer zu vernetzen und zu funktionalisieren. KW - biomass valorization KW - levoglucosenol KW - ring-opening polymerization KW - degradable polymer KW - sustainable chemistry KW - Biomasseverwertung KW - Levoglucosenol KW - ringöffnende Polymerisation KW - abbaubares Polymer KW - nachhaltige Chemie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441312 ER - TY - THES A1 - Meinig, Michael T1 - Bedrohungsanalyse für militärische Informationstechnik T1 - Threat analysis for military information technology N2 - Risiken für Cyberressourcen können durch unbeabsichtigte oder absichtliche Bedrohungen entstehen. Dazu gehören Insider-Bedrohungen von unzufriedenen oder nachlässigen Mitarbeitern und Partnern, eskalierende und aufkommende Bedrohungen aus aller Welt, die stetige Weiterentwicklung der Angriffstechnologien und die Entstehung neuer und zerstörerischer Angriffe. Informationstechnik spielt mittlerweile in allen Bereichen des Lebens eine entscheidende Rolle, u. a. auch im Bereich des Militärs. Ein ineffektiver Schutz von Cyberressourcen kann hier Sicherheitsvorfälle und Cyberattacken erleichtern, welche die kritischen Vorgänge stören, zu unangemessenem Zugriff, Offenlegung, Änderung oder Zerstörung sensibler Informationen führen und somit die nationale Sicherheit, das wirtschaftliche Wohlergehen sowie die öffentliche Gesundheit und Sicherheit gefährden. Oftmals ist allerdings nicht klar, welche Bedrohungen konkret vorhanden sind und welche der kritischen Systemressourcen besonders gefährdet ist. In dieser Dissertation werden verschiedene Analyseverfahren für Bedrohungen in militärischer Informationstechnik vorgeschlagen und in realen Umgebungen getestet. Dies bezieht sich auf Infrastrukturen, IT-Systeme, Netze und Anwendungen, welche Verschlusssachen (VS)/Staatsgeheimnisse verarbeiten, wie zum Beispiel bei militärischen oder Regierungsorganisationen. Die Besonderheit an diesen Organisationen ist das Konzept der Informationsräume, in denen verschiedene Datenelemente, wie z. B. Papierdokumente und Computerdateien, entsprechend ihrer Sicherheitsempfindlichkeit eingestuft werden, z. B. „STRENG GEHEIM“, „GEHEIM“, „VS-VERTRAULICH“, „VS-NUR-FÜR-DEN-DIENSTGEBRAUCH“ oder „OFFEN“. Die Besonderheit dieser Arbeit ist der Zugang zu eingestuften Informationen aus verschiedenen Informationsräumen und der Prozess der Freigabe dieser. Jede in der Arbeit entstandene Veröffentlichung wurde mit Angehörigen in der Organisation besprochen, gegengelesen und freigegeben, so dass keine eingestuften Informationen an die Öffentlichkeit gelangen. Die Dissertation beschreibt zunächst Bedrohungsklassifikationsschemen und Angreiferstrategien, um daraus ein ganzheitliches, strategiebasiertes Bedrohungsmodell für Organisationen abzuleiten. Im weiteren Verlauf wird die Erstellung und Analyse eines Sicherheitsdatenflussdiagramms definiert, welches genutzt wird, um in eingestuften Informationsräumen operationelle Netzknoten zu identifizieren, die aufgrund der Bedrohungen besonders gefährdet sind. Die spezielle, neuartige Darstellung ermöglicht es, erlaubte und verbotene Informationsflüsse innerhalb und zwischen diesen Informationsräumen zu verstehen. Aufbauend auf der Bedrohungsanalyse werden im weiteren Verlauf die Nachrichtenflüsse der operationellen Netzknoten auf Verstöße gegen Sicherheitsrichtlinien analysiert und die Ergebnisse mit Hilfe des Sicherheitsdatenflussdiagramms anonymisiert dargestellt. Durch Anonymisierung der Sicherheitsdatenflussdiagramme ist ein Austausch mit externen Experten zur Diskussion von Sicherheitsproblematiken möglich. Der dritte Teil der Arbeit zeigt, wie umfangreiche Protokolldaten der Nachrichtenflüsse dahingehend untersucht werden können, ob eine Reduzierung der Menge an Daten möglich ist. Dazu wird die Theorie der groben Mengen aus der Unsicherheitstheorie genutzt. Dieser Ansatz wird in einer Fallstudie, auch unter Berücksichtigung von möglichen auftretenden Anomalien getestet und ermittelt, welche Attribute in Protokolldaten am ehesten redundant sind. N2 - Risks to cyber resources can arise from unintentional or deliberate threats. These include insider threats from dissatisfied or negligent employees and partners, escalating and emerging threats from around the world, the evolving nature of attack technologies, and the emergence of new and destructive attacks. Information technology now plays a decisive role in all areas of life, including the military. Ineffective protection of cyber resources can facilitate security incidents and cyberattacks that disrupt critical operations, lead to inappropriate access, disclosure, alteration or destruction of sensitive information, and endanger national security, economic welfare and public health and safety. However, it is often unclear which threats are present and which of the critical system resources are particularly at risk. In this dissertation different analysis methods for threats in military information technology are proposed and tested in real environments. This refers to infrastructures, IT systems, networks and applications that process classified information/state secrets, such as in military or governmental organizations. The special characteristic of these organizations is the concept of classification zones in which different data elements, such as paper documents and computer files, are classified according to their security sensitivity, e.g. „TOP SECRET“, „SECRET“, „CONFIDENTIAL“, „RESTRICTED“ or „UNCLASSIFIED“. The peculiarity of this work is the access to classified information from different classification zones and the process of releasing it. Each publication created during the work was discussed, proofread and approved by members of the organization, so that no classified information is released to the public. The dissertation first describes threat classification schemes and attacker strategies in order to derive a holistic, strategy-based threat model for organizations. In the further course, the creation and analysis of a security data flow diagram is defined, which is used to identify operational network nodes in classification zones, which are particularly endangered due to the threats. The special, novel representation makes it possible to understand permitted and prohibited information flows within and between these classification zones. Based on the threat analysis, the message flows of the operational network nodes are analyzed for violations of security policies and the results are presented anonymously using the security data flow diagram. By anonymizing the security data flow diagrams, it is possible to exchange information with external experts to discuss security problems. The third part of the dissertation shows how extensive log data of message flows can be examined to determine whether a reduction in the amount of data is possible. The rough set theory from the uncertainty theory is used for this purpose. This approach is tested in a case study, also taking into account possible anomalies, and determines which attributes are most likely to be redundant in the protocol data. KW - Informationsraum KW - classification zone KW - Bedrohungsmodell KW - threat model KW - Informationsflüsse KW - information flows KW - sichere Datenflussdiagramme (DFDsec) KW - secure data flow diagrams (DFDsec) KW - Informationsraumverletzungen KW - classification zone violations KW - grobe Protokolle KW - rough logs KW - Bedrohungsanalyse KW - threat analysis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441608 ER - TY - THES A1 - Knöchel, Jane T1 - Model reduction of mechanism-based pharmacodynamic models and its link to classical drug effect models T1 - Modellreduktion von mechanistischen pharmacodynamischen Modellen und deren Verbindung zu klassischen Wirkstoff-Effekt-Modellen N2 - Continuous insight into biological processes has led to the development of large-scale, mechanistic systems biology models of pharmacologically relevant networks. While these models are typically designed to study the impact of diverse stimuli or perturbations on multiple system variables, the focus in pharmacological research is often on a specific input, e.g., the dose of a drug, and a specific output related to the drug effect or response in terms of some surrogate marker. To study a chosen input-output pair, the complexity of the interactions as well as the size of the models hinders easy access and understanding of the details of the input-output relationship. The objective of this thesis is the development of a mathematical approach, in specific a model reduction technique, that allows (i) to quantify the importance of the different state variables for a given input-output relationship, and (ii) to reduce the dynamics to its essential features -- allowing for a physiological interpretation of state variables as well as parameter estimation in the statistical analysis of clinical data. We develop a model reduction technique using a control theoretic setting by first defining a novel type of time-limited controllability and observability gramians for nonlinear systems. We then show the superiority of the time-limited generalised gramians for nonlinear systems in the context of balanced truncation for a benchmark system from control theory. The concept of time-limited controllability and observability gramians is subsequently used to introduce a state and time-dependent quantity called the input-response (ir) index that quantifies the importance of state variables for a given input-response relationship at a particular time. We subsequently link our approach to sensitivity analysis, thus, enabling for the first time the use of sensitivity coefficients for state space reduction. The sensitivity based ir-indices are given as a product of two sensitivity coefficients. This allows not only for a computational more efficient calculation but also for a clear distinction of the extent to which the input impacts a state variable and the extent to which a state variable impacts the output. The ir-indices give insight into the coordinated action of specific state variables for a chosen input-response relationship. Our developed model reduction technique results in reduced models that still allow for a mechanistic interpretation in terms of the quantities/state variables of the original system, which is a key requirement in the field of systems pharmacology and systems biology and distinguished the reduced models from so-called empirical drug effect models. The ir-indices are explicitly defined with respect to a reference trajectory and thereby dependent on the initial state (this is an important feature of the measure). This is demonstrated for an example from the field of systems pharmacology, showing that the reduced models are very informative in their ability to detect (genetic) deficiencies in certain physiological entities. Comparing our novel model reduction technique to the already existing techniques shows its superiority. The novel input-response index as a measure of the importance of state variables provides a powerful tool for understanding the complex dynamics of large-scale systems in the context of a specific drug-response relationship. Furthermore, the indices provide a means for a very efficient model order reduction and, thus, an important step towards translating insight from biological processes incorporated in detailed systems pharmacology models into the population analysis of clinical data. N2 - Die kontinuierliche Erforschung von biologischen Prozessen hat zur Entwicklung umfangreicher, mechanistischer systembiologischer Modelle von pharmakologisch relevanten Netzwerken beigetragen. Während diese Modelle in der Regel darauf ausgelegt sind, die Auswirkung von Stimuli oder Störungen auf die Systemdynamik zu untersuchen, liegt der Fokus in der pharmakologis- chen Forschung häufig auf einer bestimmten Kontrolle, z.B. der Dosis eines Wirkstoffes, und einer bestimmten Ausgangsgröße, welche in Bezug steht zu dem Wirkstoff-Effekt oder das Ansprechen auf einen Wirkstoff über einen Surrogatmarker. Die Untersuchung und ein einfaches Verständnis einer spezifischen Eingabe-Ausgabe-Beziehung wird durch die Komplexität der Interaktionen sowie der Größe des Modells erschwert. Das Ziel dieser vorliegenden Arbeit ist die Entwicklung eines mathematischen Ansatzes, insbesondere eines Modellreduktionsverfahrens, der es ermöglicht, (i) die Bedeutung der verschiedenen Zustandsvariablen für eine gegebene Eingabe-Ausgabe-Beziehung zu quantifizieren, und (ii) die Dynamik des Systems auf seine wesentlichen Merkmale zu reduzieren, während gleichzeitig die physiologische Interpretierbarkeit von Zustandsvariablen sowie eine Parameterschätzung im Rahmen von einer statistischen Analyse klinischer Daten ermöglicht wird. Unter Verwendung eines kontrolltheoretischen Settings entwickeln wir eine Modellreduktionstechnik, indem wir vorerst einen neuartigen Typ von zeitlich begrenzten Kontrolllierbarkeits- und Beobachtbarkeitsgramian für nichtlineare Systeme definieren. Anschließend zeigen wir die Überlegenkeit der zeitlich begrenzten verallgemeinerten Gramian für nichtlineare Systeme im Kontext von Balanced Truncation am Beispiel eines Benchmark-Systems aus der Kontrolltheorie. Wir nutzten das Konzept der zeitlich begrenzten Kontrolllierbarkeits- und Beobachtbarkeitsgramian, um eine neue Zustands- und zeitabhängige Größe, die als Input-Response (IR-) Index bezeichnet wird, einzuführen. Dieser Index quantifiziert die Bedeutung von Zustandsvariablen zu einem bestimmten Zeitpunkt für eine bestimmte Eingabe-Ausgabe-Beziehung. Schließlich verknüpfen wir unseren Ansatz mit der Sensitivitätsanalyse und ermöglichen so erstmals die Verwendung von Sensitivitätskoeffizienten im Rahmen der Reduktion des Zustandsraumes. Wir erhalten die sensitivitätsbasierten IR-Indizes als Produkt zweier Sensitivitätskoeffizienten. Dies ermöglicht nicht nur eine effizientere Berechnung, sondern auch eine klare Unterscheidung, inwieweit die Eingabe eine Zustandsvariable beeinflusst und inwieweit eine Zustandsvariable die Ausgabe beeinflusst. Mit Hilfe der IR-Indizes erhalten wir einen Einblick in den koordinierten Ablauf der Aktivierung von spezifischen Zustandsvariablen für eine ausgewählte Eingabe-Ausgabe-Beziehung. Unser entwickeltes Modellreduktionsverfahren resultiert in reduzierten Modelle, welche eine mechanistische Interpretation hinsichtlich der Originalgrößen und Zustandsvariablen des Ursprungssystems zulassen. Dies war eine wichtige Anforderung an das Verfahren von Seiten der Systempharmakologie und -biologie. Die reduzierten Modelle unterscheiden sich damit wesentlich von den so genannten empirischen Wirkstoff-Effekt-Modellen. Die IR-Indizes sind explizit in Bezug auf eine Referenzlösung definiert und damit vom Anfangszustand abhängig (dies ist ein wichtiges Merkmal der Indizes). Wir zeigen anhand eines Beispiels aus dem Bereich der Systempharmakologie, dass die reduzierten Modelle sehr aussagekräftig sind, um (genetische) Mängel in bestimmten physiologischen Einheiten festzustellen. Der Vergleich unseres neuartigen Modellreduktionsverfahrens mit den bereits vorhandenen Verfahren zeigt dessen Überlegenheit. Der neuartige IR-Index als Maß für die Wichtigkeit von Zustandsvariablen bietet ein leistungsfähiges mathematisches Werkzeug zum Verständnis und der Analyse der komplexen Dynamik von großen Systemen im Kontext einer bestimmten Wirkstoff-Effekt-Beziehung. Darüber hinaus sind die Indizes eine wichtige Grundlage für das eingeführte und sehr effiziente Modellreduktionsverfahren. Insgesamt stellt dies einen wichtigen Schritt zur Nutzung von Erkenntnissen über biologische Prozesse in Form von detaillierten systempharmakologischen Modellen in der Populationsanalyse klinischer Daten dar. KW - model order reduction KW - control theory KW - large-scale mechanistic systems KW - systems pharmacology KW - Modellreduktion KW - Kontrolltheorie KW - komplexe mechanistische Systeme KW - Systempharmakologie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440598 ER - TY - THES A1 - Hanschmann, Raffael Tino T1 - Stalling the engine? EU climate politics after the ‘Great Recession’ T1 - Den Motor abgewürgt? EU-Klimapolitik nach der Großen Rezession BT - investigating the impact of economic shocks on EU climate policy-making in three case studies BT - eine Untersuchung des Einflusses von Wirtschaftskrisen auf Prozesse in der EU-Klimapolitik in drei Fallstudien N2 - This dissertation investigates the impact of the economic and fiscal crisis starting in 2008 on EU climate policy-making. While the overall number of adopted greenhouse gas emission reduction policies declined in the crisis aftermath, EU lawmakers decided to introduce new or tighten existing regulations in some important policy domains. Existing knowledge about the crisis impact on EU legislative decision-making cannot explain these inconsistencies. In response, this study develops an actor-centred conceptual framework based on rational choice institutionalism that provides a micro-level link to explain how economic crises translate into altered policy-making patterns. The core theoretical argument draws on redistributive conflicts, arguing that tensions between ‘beneficiaries’ and ‘losers’ of a regulatory initiative intensify during economic crises and spill over to the policy domain. To test this hypothesis and using social network analysis, this study analyses policy processes in three case studies: The introduction of carbon dioxide emission limits for passenger cars, the expansion of the EU Emissions Trading System to aviation, and the introduction of a regulatory framework for biofuels. The key finding is that an economic shock causes EU policy domains to polarise politically, resulting in intensified conflict and more difficult decision-making. The results also show that this process of political polarisation roots in the industry that is the subject of the regulation, and that intergovernmental bargaining among member states becomes more important, but also more difficult in times of crisis. N2 - Diese Dissertation untersucht den Einfluss der in 2008 beginnenden globalen Wirtschaftskrise auf die Prozesse der EU-Klimapolitik. Während die Zahl der verabschiedeten Gesetze zur Treibhausgasreduktion nach Krisenausbruch insgesamt sank, entschieden die EU-Gesetzgeber, in mehreren wichtigen Politikfeldern neue Regulierungen einzuführen oder existierende zu verschärfen. Bestehendes Wissen zum Einfluss der Krise auf EU-Gesetzgebungsprozesse kann diese Inkonsistenzen nicht erklären. Daher entwickelt diese Arbeit ein auf Rational-Choice-Institutionalismus basierendes konzeptionelles Gerüst, das auf der Mikro-Ebene eine kausale Verbindung zwischen Wirtschaftskrise und veränderten Politikprozessen herstellt. Das zentrale theoretische Argument beruht auf Verteilungskonflikten innerhalb der regulierten Wirtschaftsbranchen: Die Spannung zwischen „Nutznießern“ und „Verlierern“ einer geplanten Regulierung intensiviert sich in Krisenzeiten und setzt sich im politischen Raum fort. Diese Hypothese wird an drei Fallstudien mittels sozialer Netzwerkanalyse getestet. Die drei Fallstudien untersuchen politische Entscheidungsprozesse in den folgenden EU-Politikfeldern: Kohlenstoffdioxid-Emissionsgrenzen für PKW, die Ausweitung des Emissionshandels auf Flugverkehr und die Einführung eines Regulierungsrahmens für Biokraftstoffe. Die wichtigste Erkenntnis der Untersuchung ist, dass makroökonomische Schocks eine Polarisierung der politischen Interessen innerhalb eines Politikfeldes auslösen, dadurch Konflikte intensivieren und letztlich Entscheidungsfindungen erschweren. Die Ergebnisse zeigen zudem, dass dieser Polarisierungsprozess in der regulierten Wirtschaftsbranche wurzelt. Außerdem werden Verhandlungen zwischen den Regierungen der Mitgliedsstaaten in Krisenzeiten wichtiger, aber auch schwieriger.  KW - EU KW - European Union KW - policy-making KW - network analysis KW - policy preferences KW - economic crisis KW - crisis KW - climate KW - climate change KW - climate policy KW - climate politics KW - environmental policy KW - EU KW - Europäische Union KW - Politikgestaltung KW - Netzwerkanalyse KW - Politikpräferenzen KW - Wirtschaftskrise KW - Krise KW - Klima KW - Klimawandel KW - Klimapolitik KW - Umweltpolitik Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-440441 ER -