TY - THES A1 - Ehrig, Sebastian T1 - 3D curvature and its role on tissue organization N2 - Shape change is a fundamental process occurring in biological tissues during embryonic development and regeneration of tissues and organs. This process is regulated by cells that are constrained within a complex environment of biochemical and physical cues. The spatial constraint due to geometry has a determining role on tissue mechanics and the spatial distribution of force patterns that, in turn, influences the organization of the tissue structure. An understanding of the underlying principles of tissue organization may have wide consequences for the understanding of healing processes and the development of organs and, as such, is of fundamental interest for the tissue engineering community. This thesis aims to further our understanding of how the collective behaviour of cells is influenced by the 3D geometry of the environment. Previous research studying the role of geometry on tissue growth has mainly focused either on flat surfaces or on substrates where at least one of the principal curvatures is zero. In the present work, tissue growth from MC3T3-E1 pre-osteoblasts was investigated on surfaces of controlled mean curvature. One key aspect of this thesis was the development of substrates of controlled mean curvature and their visualization in 3D. It was demonstrated that substrates of controlled mean curvature suitable for cell culture can be fabricated using liquid polymers and surface tension effects. Using these substrates, it was shown that the mean surface curvature has a strong impact on the rate of tissue growth and on the organization of the tissue structure. It was thereby not only demonstrated that the amount of tissue produced (i.e. growth rates) by the cells depends on the mean curvature of the substrate but also that the tissue surface behaves like a viscous fluid with an equilibrium shape governed by the Laplace-Young-law. It was observed that more tissue was formed on highly concave surfaces compared to flat or convex surfaces. Motivated by these observations, an analytical model was developed, where the rate of tissue growth is a function of the mean curvature, which could successfully describe the growth kinetics. This model was also able to reproduce the growth kinetics of previous experiments where tissues have been cultured in straight-sided prismatic pores. A second part of this thesis focuses on the tissue structure, which influences the mechanical properties of the mature bone tissue. Since the extracellular matrix is produced by the cells, the cell orientation has a strong impact on the direction of the tissue fibres. In addition, it was recently shown that some cell types exhibit collective alignment similar to liquid crystals. Based on this observation, a computational model of self-propelled active particles was developed to explore in an abstract manner how the collective behaviour of cells is influenced by 3D curvature. It was demonstrated that the 3D curvature has a strong impact on the self-organization of active particles and gives, therefore, first insights into the principles of self-organization of cells on curved surfaces. N2 - Formänderung ist ein fundamentaler Vorgang während der embryonalen Entwicklung und der Regeneration von Geweben und Organen. Dieser Prozess wird von Zellen reguliert die in einer komplexen Umgebung von biochemischen und physikalischen Signalen eingebettet sind. Die räumliche Begrenzung der Zellen führt dabei zu Unterschieden in der Gewebemechanik und der räumlichen Verteilung von Kräften und hat damit einen Einfluss auf die Organisation der Gewebestruktur. Ein Verständnis der Organisationsprozesse von Geweben hat weitreichende Konsequenzen im Hinblick auf das Verständnis von Heilungsprozessen und der Entwicklung von Organen bis hin zu medizinischen Anwendungen wie der Entwicklung von Implantaten. Die vorliegende Arbeit zielt auf ein besseres Verständnis wie das kollektive Verhalten von Gewebezellen von der dreidimensionalen Krümmung der Umgebung beeinflusst wird. Die bisherige Forschung war bislang limitiert auf flache Oberflächen oder auf Substrate in denen zumindest eine der beiden Hauptkrümmungen Null ist. In dieser Arbeit wurde daher das Gewebewachstum von MC3T3-E1 Pre-Osteoblasten auf Oberflächen mit konstanter mittlerer Krümmung studiert. Ein wichtiger Teil der Arbeit war die Entwicklung von Substraten mit kontrollierter mittlerer Krümmung und deren Visualisierung in 3D. Es wurde gezeigt, dass sich die Oberflächen- spannung von Polymerlösungen nutzen lässt um eben solche Substrate zu erzeugen. Mit Hilfe dieser Substrate wurde gezeigt, dass die mittlere Krümmung der Oberfläche einen entscheidenden Einfluss auf die Wachstumsrate und die Organisation der Gewebestruktur hat. Es konnte nicht nur gezeigt werden dass die Menge an gebildetem Gewebe von der mittleren Krümmung abhängig ist, sondern auch dass die Oberfläche des Gewebes sich dabei wie eine Flüssigkeit verhält und dem Laplace-Young Gesetz folgt. Es wurde beobachtet dass sich mehr Gewebe auf konkaven als auf flachen oder konvexen Oberflächen gebildet hat. Basierend auf diesen Beobachtungen wurde ein analytisches Modell entwickelt, welches die Wachstumsrate als Funktion der mittleren Krümmung beschreibt und mit Hilfe dessen sich das Gewebewachstum erfolgreich beschreiben lässt. Dieses Modell kann auch die Ergebnisse früherer Arbeiten reproduzieren, in denen Gewebe in prismatischen Poren kultiviert wurden. Ein weiterer Teil der Arbeit befasste sich mit der Struktur des Gewebes, welche einen Einfluss auf die späteren mechanischen Eigenschaften des maturierten Knochengewebes hat. Da die extrazelluläre Matrix des Gewebes von den Zellen gebildet wird, hat die Orientierung der Zellen einen entscheidenden Einfluss auf die Ausrichtung der Gewebefasern. Außerdem wurde vor kurzem gezeigt, dass sich manche Zellen wie Flüssigkristalle anordnen können. Basierend auf dieser Beobachtung wurde ein Computermodell aktiver Partikel entwickelt, mit dessen Hilfe sich der Einfluss des kollektiven Verhaltens der Zellen auf dreidimensional gekrümmten Oberflächen abstrahieren lässt. Es konnte dabei gezeigt werden, dass die dreidimensionale Krümmung einen entscheidenden Einfluss auf die Selbstorganisation dieser Partikel hat und gibt damit erste Einblicke in ein mögliches Organisationsverhalten von Zellen auf 3D Oberflächen. KW - biophysics KW - tissue engineering KW - mechanobiology Y1 - 2017 ER - TY - THES A1 - Håkansson, Nils T1 - A Dark Matter line search using 3D-modeling of Cherenkov showers below 10 TeV with VERITAS T1 - Die Suche nach Dunkler Materie mit VERITAS durch Liniensuche und 3D Modellierung von Cherenkov-Schauern unter 10 TeV N2 - Dark matter, DM, has not yet been directly observed, but it has a very solid theoretical basis. There are observations that provide indirect evidence, like galactic rotation curves that show that the galaxies are rotating too fast to keep their constituent parts, and galaxy clusters that bends the light coming from behind-lying galaxies more than expected with respect to the mass that can be calculated from what can be visibly seen. These observations, among many others, can be explained with theories that include DM. The missing piece is to detect something that can exclusively be explained by DM. Direct observation in a particle accelerator is one way and indirect detection using telescopes is another. This thesis is focused on the latter method. The Very Energetic Radiation Imaging Telescope Array System, V ERITAS, is a telescope array that detects Cherenkov radiation. Theory predicts that DM particles annihilate into, e.g., a γγ pair and create a distinctive energy spectrum when detected by such telescopes, e.i., a monoenergetic line at the same energy as the particle mass. This so called ”smoking-gun” signature is sought with a sliding window line search within the sub-range ∼ 0.3 − 10 TeV of the VERITAS energy range, ∼ 0.01 − 30 TeV. Standard analysis within the VERITAS collaboration uses Hillas analysis and look-up tables, acquired by analysing particle simulations, to calculate the energy of the particle causing the Cherenkov shower. In this thesis, an improved analysis method has been used. Modelling each shower as a 3Dgaussian should increase the energy recreation quality. Five dwarf spheroidal galaxies were chosen as targets with a total of ∼ 224 hours of data. The targets were analysed individually and stacked. Particle simulations were based on two simulation packages, CARE and GrISU. Improvements have been made to the energy resolution and bias correction, up to a few percent each, in comparison to standard analysis. Nevertheless, no line with a relevant significance has been detected. The most promising line is at an energy of ∼ 422 GeV with an upper limit cross section of 8.10 · 10^−24 cm^3 s^−1 and a significance of ∼ 2.73 σ, before trials correction and ∼ 1.56 σ after. Upper limit cross sections have also been calculated for the γγ annihilation process and four other outcomes. The limits are in line with current limits using other methods, from ∼ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1. Future larger telescope arrays, like the upcoming Cherenkov Telescope Array, CTA, will provide better results with the help of this analysis method. N2 - Dunkle Materie, DM, wurde noch nicht direkt beobachtet, aber die Theorie ist sehr solide. Es gibt Beobachtungen, die als indirekte Beweise gelten, z.B. galaktische Rotationskurven, die besagen, dass Galaxien zu schnell rotieren um ohne eine zusätzliche Massenkomponente zusammenhalten zu können, oder elliptische Zwerggalaxien, die massereicher sind als die sichtbare Materie vermuten lässt. Diese Beobachtungen könnten z.B. mit dem Vorhandensein von DM erkärt werden, aber bis jetzt fehlt die Beobachtung eines Phänomens, das ausschließlich durch DM erklärt werden kann. Eine Möglichkeit wäre die Beobachtung einer speziellen Energiesignatur durch Teleskope, welche das Thema der vorliegenden Arbeit ist. Das Very Energetic Radiation Imaging Telescope Array System, VERITAS, ist ein Teleskoparray für Cherenkov-Strahlung. Entsprechend der Theorie sollten Teilchen dunkler Materie annihilieren und z.B. ein γγ Paar bilden. Dieses sollte im Teleskop eine spezielle Energiesignatur hinterlassen, nämlich eine monoenergetische Linie bei einer Energie, die der Teilchenmasse entspricht. Diese ”smoking-gun” Signatur wird mit einer sliding window Liniensuche bei Energien < 10TeV gesucht. In der VERITAS Kollaboration werden standardm¨aßig eine Hillas-Analyse und Nachschlagetabellen aus Teilchensimulationen verwendet, um die Energie des Teilchens zu berechnen, das den Cherenkov-Schauer verursacht hat. Hier wird eine verbesserte Analysemethode verwendet. Dabei wird jeder Schauer als 3D-Gaußkurve modelliert, was die Qualität der Energierekonstruktion erheblich verbessern sollte. Dafur wurden funf elliptische Zwerggalaxien beobachtet und einzeln sowie insgesamt analysiert, insgesamt ~ 224 h Beobachtungszeit. Dabei werden zwei verschiedene Teilchensimulationsprogramme verwendet, CARE und GrISU. In dieser Arbeit wurde die Energieauflösung und die Bias-Korrektur um einige Prozent gegen¨uber der Standardanalyse verbessert. Es wurde jedoch keine signifikante Linie detektiert. Die vielversprechendste Linie befindet sich bei einer Energie von ~ 422GeV und hat einen Querschnitt von 8.10·10^−24 cm^3 s^−1 und ein Signifikanzlevel von ~ 2.73 σ bzw. 1.56σ vor bzw. nach statistischer Korrektur. Außerdem wurden obere Grenzwerte fur verschiedene Annihilierungsprozesse berechnet. Sie stimmen mit anderen aktuellen Grenzwerten überein (~ 8.56 · 10^−26 − 6.61 · 10^−23 cm^3s^−1). Zukünftig werden mehr Beobachtungsdaten und neue Teleskoparrays, wie das Cherenkov Telescope Array, CTA, mit Hilfe dieser Analysemethode bessere Ergebnisse ermöglichen. KW - Dark Matter KW - line search KW - VERITAS KW - 3D-modeling KW - Cherenkov showers KW - Dunkler Materie KW - Line Suche KW - VERITAS KW - 3D Modellierung KW - Cherenkov-Schauern Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397670 ER - TY - THES A1 - Beyhl, Thomas T1 - A framework for incremental view graph maintenance T1 - Ein Framework für die inkrementelle Wartung von Sichten auf Graphen N2 - Nowadays, graph data models are employed, when relationships between entities have to be stored and are in the scope of queries. For each entity, this graph data model locally stores relationships to adjacent entities. Users employ graph queries to query and modify these entities and relationships. These graph queries employ graph patterns to lookup all subgraphs in the graph data that satisfy certain graph structures. These subgraphs are called graph pattern matches. However, this graph pattern matching is NP-complete for subgraph isomorphism. Thus, graph queries can suffer a long response time, when the number of entities and relationships in the graph data or the graph patterns increases. One possibility to improve the graph query performance is to employ graph views that keep ready graph pattern matches for complex graph queries for later retrieval. However, these graph views must be maintained by means of an incremental graph pattern matching to keep them consistent with the graph data from which they are derived, when the graph data changes. This maintenance adds subgraphs that satisfy a graph pattern to the graph views and removes subgraphs that do not satisfy a graph pattern anymore from the graph views. Current approaches for incremental graph pattern matching employ Rete networks. Rete networks are discrimination networks that enumerate and maintain all graph pattern matches of certain graph queries by employing a network of condition tests, which implement partial graph patterns that together constitute the overall graph query. Each condition test stores all subgraphs that satisfy the partial graph pattern. Thus, Rete networks suffer high memory consumptions, because they store a large number of partial graph pattern matches. But, especially these partial graph pattern matches enable Rete networks to update the stored graph pattern matches efficiently, because the network maintenance exploits the already stored partial graph pattern matches to find new graph pattern matches. However, other kinds of discrimination networks exist that can perform better in time and space than Rete networks. Currently, these other kinds of networks are not used for incremental graph pattern matching. This thesis employs generalized discrimination networks for incremental graph pattern matching. These discrimination networks permit a generalized network structure of condition tests to enable users to steer the trade-off between memory consumption and execution time for the incremental graph pattern matching. For that purpose, this thesis contributes a modeling language for the effective definition of generalized discrimination networks. Furthermore, this thesis contributes an efficient and scalable incremental maintenance algorithm, which updates the (partial) graph pattern matches that are stored by each condition test. Moreover, this thesis provides a modeling evaluation, which shows that the proposed modeling language enables the effective modeling of generalized discrimination networks. Furthermore, this thesis provides a performance evaluation, which shows that a) the incremental maintenance algorithm scales, when the graph data becomes large, and b) the generalized discrimination network structures can outperform Rete network structures in time and space at the same time for incremental graph pattern matching. N2 - Heutzutage werden Graphdatenmodelle verwendet um Beziehungen zwischen Entitäten zu speichern und diese Beziehungen später abzufragen. Jede Entität im Graphdatenmodell speichert lokal die Beziehungen zu anderen verknüpften Entitäten. Benutzer stellen Suchanfragen um diese Entitäten und Beziehungen abzufragen und zu modifizieren. Dafür machen Suchanfragen Gebrauch von Graphmustern um alle Teilgraphen in den Graphdaten zu finden, die über bestimmte Graphstrukturen verfügen. Diese Teilgraphen werden Graphmusterübereinstimmung (Match) genannt. Allerdings ist diese Suche nach Matches NP-vollständig für Teilgraphisomorphie. Daher können Suchanfragen einer langen Antwortzeit unterliegen, wenn die Anzahl von Entitäten und Beziehungen in den Graphdaten oder -mustern ansteigt. Eine Möglichkeit die Antwortzeiten von Suchanfragen zu verbessern ist Matches für komplexe Suchanfragen in sogenannten Sichten über die Graphdaten für spätere Suchanfragen bereitzuhalten. Allerdings müssen diese Sichten mittels einer inkrementellen Suche nach Matches gewartete werden um sie konsistent zu den sich ändernden Graphdaten zu halten. Diese Wartung ergänzt Teilgraphen, die Graphmuster erfüllen, in den Sichten und entfernt Teilgraphen, die Graphmuster nicht mehr erfüllen, aus den Sichten. Aktuelle Ansätze für die inkrementelle Suche nach Matches verwenden Rete Netzwerke. Rete Netzwerke sind sogenannte Discrimination Networks, die alle Matches für bestimmte Suchanfragen aufzählen und warten, indem sie ein Netzwerk aus einzelnen Teilgraphmustern anwenden, die zusammen eine vollständige Suchanfrage ergeben. Das Netzwerk speichert für jedes Teilgraphmuster welche Teilgraphen das Teilgraphmuster erfüllen. Daher haben Rete Netzwerke einen hohen Speicherverbrauch, da sie alle Zwischenergebnisse speichern müssen. Jedoch sind es gerade diese gespeicherten Zwischenergebnisse, die es dem Rete Netzwerk ermöglichen die gespeicherten Zwischenergebnisse effizient zu warten, da diese Zwischenergebnisse für das Auffinden neuer Matches ausgenutzt werden. Allerdings existieren andere Arten von Discrimination Networks, die hinsichtlich Speicher- und Zeitverbrauch effizienter sind, aber derzeit nicht für die inkrementelle Suche nach Matches verwendet werden. Diese Doktorarbeit wendet eine verallgemeinerte Art von Discrimination Networks an. Diese verallgemeinerte Art ermöglicht es die Balance zwischen Speicher- und Zeitverbrauch für die inkrementelle Suche nach Matches zu steuern. Dafür stellt diese Arbeit eine Modellierungssprache vor, die es ermöglicht verallgemeinerte Arten von Discrimination Networks effektiv zu spezifizieren. Darauf aufbauend stellt diese Arbeit einen inkrementellen Algorithmus vor, der die gespeicherten Matches effizient und skalierbar wartet. Abschließend stellt diese Arbeit eine Evaluierung vor, die aufzeigt dass die Modellierungssprache eine effektive Spezifikation von verallgemeinerten Discrimination Networks erlaubt. Außerdem zeigt die Evaluierung, dass a) der inkrementelle Wartungsalgorithmus für große Graphdaten skaliert und b) die Netzwerkstrukturen von verallgemeinerten Discrimination Networks im Vergleich zu den Netzwerkstrukturen von Rete Netzwerken im Speicher- und Zeitverbrauch für die inkrementelle Suche nach Matches effizienter sein können. KW - incremental graph pattern matching KW - discrimination networks KW - Rete networks KW - Gator networks KW - model-driven software engineering KW - inkrementelle Graphmustersuche KW - Discrimination Networks KW - Rete Netzwerk KW - Gator Netzwerk KW - modellgetriebene Softwareentwicklung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405929 ER - TY - THES A1 - Reike, Dennis T1 - A look behind perceptual performance in numerical cognition T1 - Ein Blick hinter die perzeptuellen Leistungen numerischer Kognition N2 - Recognizing, understanding, and responding to quantities are considerable skills for human beings. We can easily communicate quantities, and we are extremely efficient in adapting our behavior to numerical related tasks. One usual task is to compare quantities. We also use symbols like digits in numerical-related tasks. To solve tasks including digits, we must to rely on our previously learned internal number representations. This thesis elaborates on the process of number comparison with the use of noisy mental representations of numbers, the interaction of number and size representations and how we use mental number representations strategically. For this, three studies were carried out. In the first study, participants had to decide which of two presented digits was numerically larger. They had to respond with a saccade in the direction of the anticipated answer. Using only a small set of meaningfully interpretable parameters, a variant of random walk models is described that accounts for response time, error rate, and variance of response time for the full matrix of 72 digit pairs. In addition, the used random walk model predicts a numerical distance effect even for error response times and this effect clearly occurs in the observed data. In relation to corresponding correct answers error responses were systematically faster. However, different from standard assumptions often made in random walk models, this account required that the distributions of step sizes of the induced random walks be asymmetric to account for this asymmetry between correct and incorrect responses. Furthermore, the presented model provides a well-defined framework to investigate the nature and scale (e.g., linear vs. logarithmic) of the mapping of numerical magnitude onto its internal representation. In comparison of the fits of proposed models with linear and logarithmic mapping, the logarithmic mapping is suggested to be prioritized. Finally, we discuss how our findings can help interpret complex findings (e.g., conflicting speed vs. accuracy trends) in applied studies that use number comparison as a well-established diagnostic tool. Furthermore, a novel oculomotoric effect is reported, namely the saccadic overschoot effect. The participants responded by saccadic eye movements and the amplitude of these saccadic responses decreases with numerical distance. For the second study, an experimental design was developed that allows us to apply the signal detection theory to a task where participants had to decide whether a presented digit was physically smaller or larger. A remaining question is, whether the benefit in (numerical magnitude – physical size) congruent conditions is related to a better perception than in incongruent conditions. Alternatively, the number-size congruency effect is mediated by response biases due to numbers magnitude. The signal detection theory is a perfect tool to distinguish between these two alternatives. It describes two parameters, namely sensitivity and response bias. Changes in the sensitivity are related to the actual task performance due to real differences in perception processes whereas changes in the response bias simply reflect strategic implications as a stronger preparation (activation) of an anticipated answer. Our results clearly demonstrate that the number-size congruency effect cannot be reduced to mere response bias effects, and that genuine sensitivity gains for congruent number-size pairings contribute to the number-size congruency effect. Third, participants had to perform a SNARC task – deciding whether a presented digit was odd or even. Local transition probability of irrelevant attributes (magnitude) was varied while local transition probability of relevant attributes (parity) and global probability occurrence of each stimulus were kept constantly. Participants were quite sensitive in recognizing the underlying local transition probability of irrelevant attributes. A gain in performance was observed for actual repetitions of the irrelevant attribute in relation to changes of the irrelevant attribute in high repetition conditions compared to low repetition conditions. One interpretation of these findings is that information about the irrelevant attribute (magnitude) in the previous trial is used as an informative precue, so that participants can prepare early processing stages in the current trial, with the corresponding benefits and costs typical of standard cueing studies. Finally, the results reported in this thesis are discussed in relation to recent studies in numerical cognition. N2 - Das Erkennen, Verstehen und Verwenden von Mengen sind beachtliche menschliche Fähigkeiten. Die Kommunikation numerischer Information fällt uns leicht, zudem beeinflussen numerische Informationen unser Handeln. Eine typische numerische Aufgabe ist der Mengenvergleich. Um solche Mengen zu beschreiben verwenden wir Ziffern als Symbole zur Bildung von Zahlen. Um Zahlen zu vergleichen, müssen wir auf die zuvor erlernte interne Zahlenrepräsentationen zurückgreifen. In dieser Dissertation werden drei Studien vorgestellt. Diese betrachten den Prozess des Zahlenvergleichs, die Interaktion numerischer und physikalischer Repräsentation und die strategische Nutzung numerischer Repräsentationen. In der ersten Studie sollten Versuchspersonen so schnell wie möglich die größere von zwei präsentierten Zahlen angeben. Sie sollten mit einer Sakkade in Richtung der größeren Zahl antworten. Eine Variante von Random Walk Modellen mit einem sparsamen Set an interpretierbaren Parameter wurde verwendet um die Reaktionszeit, die Fehlerrate und die Varianz der Reaktionszeit zu beschreiben. Auch für Fehlerzeiten sagt dieses Modell einen numerischen Distanzeffekt vorher, der sich in den Daten robust zeigt. Außerdem sind Fehlerzeiten schneller als korrespondierende Reaktionszeiten richtiger Antworten. Diese Asymmetrie lässt sich durch eine schiefe Schrittgrößenverteilung erklären, welche nicht zu den üblichen Standardannahmen von Random Walk Modellen gehört. Das vorgestellte Modell liefert einen definierten Rahmen um die Art und Skalierung (z.B. linear vs. logarithmisch) numerischer Repräsentationen zu untersuchen, wobei die Ergebnisse klar für eine logarithmische Skalierung sprechen. Abschließend wird ein Ausblick gegeben, wie dieses Modell helfen kann, komplexe Befunde (z.B. Geschwindigkeit vs. Genauigkeit) in Studien zu erklären, die Zahlenvergleiche als etabliertes Werkzeug verwenden. Außerdem beschreiben wir einen neuen okulomotorischen Effekt, den sakkadischen Overschoot Effekt. Für die zweite Studie wurde ein experimentelles Design entwickelt, das es ermöglicht die Signalentdeckungstheorie zu verwenden. Hierbei sollten Versuchspersonen die physikalische Größe von Ziffern beurteilen. Eine offene Frage ist, ob der Leistungsgewinn in (numerisch - physikalisch) kongruenten Bedingungen auf eine verbesserte Wahrnehmung oder auf einen numerisch induzierten Antwortbias zurückzuführen ist. Die Signalentdeckungstheorie ist das perfekte Werkzeug um zwischen diesen beiden Erklärungen zu unterscheiden. Dabei werden zwei Parameter beschrieben, die Sensitivität und der Antwortbias. Unsere Ergebnisse demonstrieren, dass der Zahlen-Größen Effekt nicht auf einen einfachen Antwortbias zurückzuführen ist. Vielmehr tragen wahre Sensitivitätsgewinne in kongruenten Bedingungen zur Entstehung des Zahlen-Größen Effekts bei. In der dritten Studie sollten die Versuchspersonen eine SNARC Aufgabe durchführen, wobei sie angeben sollten ob eine präsentierte Zahl gerade oder ungerade ist. Die lokale Wiederholungswahrscheinlichkeit des irrelevanten Attributes (Magnitude) wurde zwischen Versuchspersonen variiert. Die Versuchspersonen waren sensitiv für diese Wiederholungswahrscheinlichkeiten. Ein Leistungsgewinn zeigte sich bei tatsächlichen Wiederholungen des irrelevanten Attributes in der Bedingung mit hoher Wiederholungswahrscheinlichkeit des irrelevanten Attributes. Eine mögliche Interpretation ist, dass Informationen aus dem Vortrial als eine Art Hinweis betrachtet werden, so dass die Versuchspersonen im aktuellen Trial frühe Prozessstufen vorbereiten können, was zu entsprechenden Gewinnen und Kosten führt. Die in dieser Dissertation berichteten Ergebnisse werden abschließend diskutiert und in Relation zu aktuellen Studien im Bereich der numerischen Kognition gesetzt. KW - numerical cognition KW - mental number representation KW - numerische Kognition KW - mentale Zahlenrepräsentation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407821 ER - TY - THES A1 - Horn, Juliane T1 - A modelling framework for exploration of a multidimensional factor causing decline in honeybee health BT - towards a better understanding how forage availability in agricultural landscapes affects honeybee colony persistence Y1 - 2017 ER - TY - THES A1 - Lin, Huijuan T1 - Acceleration and Amplification of Biomimetric Actuation BT - the Empty Pore Matters Y1 - 2017 ER - TY - THES A1 - Martin, Thorsten T1 - Advances in spatial econometrics and the political economy of local housing supply T1 - Anwendungen in der Regionalökonometrie und die politische Ökonomie der lokalen Wohnraumversorgung BT - essays in regional and political economics BT - Aufsätze der Regionalökonomie und der politischen Ökonomie N2 - This cumulative dissertation consists of five chapters. In terms of research content, my thesis can be divided into two parts. Part one examines local interactions and spillover effects between small regional governments using spatial econometric methods. The second part focuses on patterns within municipalities and inspects which institutions of citizen participation, elections and local petitions, influence local housing policies. N2 - Diese kumulative Dissertation besteht aus fünf Kapiteln und kann inhaltlich zweigeteilt betrachtet werden. Im ersten Teil werden lokale Interaktionen und Übertragungseffekte zwischen kleinen regionalen Verwaltungseinheiten unter Verwendung von regionalökonometrischer Methoden untersucht. Der zweite Teil untersucht Zusammenhänge innerhalb von Gemeinden und untersucht welche Instrumentarien lokaler Politikbeteiligung, Kommunalwahlen und lokale Bürgerbegehren, einen Einfluss auf die örtliche Wohnungspolitik haben. KW - spatial econometrics KW - political economics KW - regional economics KW - public economics KW - Regionalökonometrie KW - politische Ökonomie KW - Regionalökonomie KW - Finanzwissenschaften Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406836 ER - TY - THES A1 - Graja, Antonia T1 - Aging-related changes of progenitor cell function and microenvironment impair brown adipose tissue regeneration Y1 - 2017 ER - TY - THES A1 - Wambura, Frank Joseph T1 - Analysis of anthropogenic impacts on water resources in the Wami River basin, Tanzania Y1 - 2017 ER - TY - THES A1 - Diez Cocero, Mercedes T1 - Analysis of Rubisco - carbonic anhydrase fusions in tobacco as an approach to reduce photorespiration Y1 - 2017 ER - TY - THES A1 - Diez Cocero, Mercedes T1 - Analysis of Rubisco – carbonic anhydrase fusions in tobacco as an approach to reduce photorespiration N2 - Rubisco catalyses the first step of CO2 assimilation into plant biomass. Despite its crucial role, it is notorious for its low catalytic rate and its tendency to fix O2 instead of CO2, giving rise to a toxic product that needs to be recycled in a process known as photorespiration. Since almost all our food supply relies on Rubisco, even small improvements in its specificity for CO2 could lead to an improvement of photosynthesis and ultimately, crop yield. In this work, we attempted to improve photosynthesis by decreasing photorespiration with an artificial CCM based on a fusion between Rubisco and a carbonic anhydrase (CA). A preliminary set of plants contained fusions between one of two CAs, bCA1 and CAH3, and the N- or C-terminus of RbcL connected by a small flexible linker of 5 amino acids. Subsequently, further fusion proteins were created between RbcL C-terminus and bCA1/CAH3 with linkers of 14, 23, 32, and 41 amino acids. The transplastomic tobacco plants carrying fusions with bCA1 were able to grow autotrophically even with the shortest linkers, albeit at a low rate, and accumulated very low levels of the fusion protein. On the other hand, plants carrying fusions with CAH3 were autotrophic only with the longer linkers. The longest linker permitted nearly wild-type like growth of the plants carrying fusions with CAH3 and increased the levels of fusion protein, but also of smaller degradation products. The fusion of catalytically inactive CAs to RbcL did not cause a different phenotype from the fusions with catalytically active CAs, suggesting that the selected CAs were not active in the fusion with RbcL or their activity did not have an effect on CO2 assimilation. However, fusions to RbcL did not abolish RbcL catalytic activity, as shown by the autotrophic growth, gas exchange and in vitro activity measurements. Furthermore, Rubisco carboxylation rate and specificity for CO2 was not altered in some of the fusion proteins, suggesting that despite the defect in RbcL folding or assembly caused by the fusions, the addition of 60-150 amino acids to RbcL does not affect its catalytic properties. On the contrary, most growth defects of the plants carrying RbcL-CA fusions are related to their reduced Rubisco content, likely caused by impaired RbcL folding or assembly. Finally, we found that fusions with RbcL C-terminus were better tolerated than with the N-terminus, and increasing the length of the linker relieved the growth impairment imposed by the fusion to RbcL. Together, the results of this work constitute considerable relevant findings for future Rubisco engineering. N2 - Rubisco katalysiert den ersten Schritt der CO2-Assimilierung. Trotz seiner bedeutenden Rolle, zeichnet sich Rubisco durch eine niedrige katalytische Geschwindigkeit aus. Außerdem, entsteht bei der Bindung von O2 anstatt CO2 ein toxisches Zwischenprodukt, welches in einem Prozess, genannt Photorespiration, aufbereitet wird. Da fast die gesamte Nahrungsmittelversorgung auf der Aktivität von Rubisco basiert, könnten schon kleine Verbesserungen in der Spezifität für CO2 zu einem großen Effekt in der Photosysntheserate und letztendlich größeren Ernteerträgen führen. In dieser Arbeit wurde versucht die Effizienz der Photosynthese zu verbessern, indem ein künstlicher CO2 konzentrierender Mechanismus aus einer Fusion von RbcL und einer Carboanhydrase (CA) gebildet wird. Als Vorversuch wurden je bCA1 und CAH3 an Rubiscos C- beziehungsweise N-Terminus mittels eines kleinen, flexiblen Linkers aus 5 Aminosäuren fusioniert. Anschließend wurden weitere Fusionsproteine zwischen dem C-Terminus von RbcL und bCA1/CAH3 mittels Linkern von 14, 23, 32 und 41 Aminosäuren Länge in Chloroplasten von Tabak eingebracht. Die entstandenen transplastomischen Pflanzen mit bCA1-Fusionen waren trotz ihres sehr langsamen Wachstums dazu fähig schon bei kurzen Linkern autotroph zu wachsen und geringe Mengen an Fusionsproteinen zu akkumulieren. Pflanzen mit CAH3 Fusionsproteinen hingegen waren nur mit längeren Linkern autotroph, zeigten aber dafür ähnliche Wachstumsraten zum Wildtyp bei Nutzung des längsten Linkers. Außerdem enthielten diese Pflanzen größere Mengen an Fusionsproteinen aber auch eine erhöhte Anreicherung von kleineren Abbauprodukten. Bei den in dieser Arbeit gewählten CA als Fusionsprotein mit RbcL konnte im Vergleich mit katalytisch inaktiven Varianten kein Effekt auf die CO2-Assimilierung gefunden werden. Wie das autotroph Wachstum sowie die Gaswechsel- und in-vitro-Aktivitätsmessungen zeigen, haben die Fusionen allerdings nicht die katalytische Aktivität von Rubisco blockiert. Ebenso verhielt sich die Carboxylierungsrate von Rubisco und deren Spezifität für CO2 unverändert. Dies weist darauf hin, dass trotz Rubiscos Faltungs- oder Assemblierungsdefekten das Anfügen von 60-150 Aminosäure an den C-Terminus von RbcL nicht die katalytische Leistung des Enzyms beeinträchtigt. Im Gegenteil, die Wachstumsdefekte waren durch die geringe Menge an Rubisco begründet, vermutlich verursacht durch Defekte in der Faltung oder Assemblierung von RbcL. Schlussendlich konnten wichtige Erkenntnisse für zukünftige gentechnische Veränderungen von Rubisco gemacht werden: Fusionen mit dem C-Terminus von RbcL wurden besser toleriert als mit dem N-Terminus und längere Linker verringerten die von der Fusion ausgelösten Wachstumsdefekte. KW - Rubisco KW - fusion Y1 - 2017 ER - TY - THES A1 - Bajdzienko, Krzysztof T1 - Analysis of Target of Rapamycin (Tor) induced changes of the Arabidopsis thaliana proteome using sub-cellular resolution Y1 - 2017 ER - TY - THES A1 - Ussath, Martin Georg T1 - Analytical approaches for advanced attacks Y1 - 2017 ER - TY - THES A1 - Schmidt, Silke Regina T1 - Analyzing lakes in the time frequency domain T1 - Analyse von Seen in der Zeit-Frequenz-Domäne N2 - The central aim of this thesis is to demonstrate the benefits of innovative frequency-based methods to better explain the variability observed in lake ecosystems. Freshwater ecosystems may be the most threatened part of the hydrosphere. Lake ecosystems are particularly sensitive to changes in climate and land use because they integrate disturbances across their entire catchment. This makes understanding the dynamics of lake ecosystems an intriguing and important research priority. This thesis adds new findings to the baseline knowledge regarding variability in lake ecosystems. It provides a literature-based, data-driven and methodological framework for the investigation of variability and patterns in environmental parameters in the time frequency domain. Observational data often show considerable variability in the environmental parameters of lake ecosystems. This variability is mostly driven by a plethora of periodic and stochastic processes inside and outside the ecosystems. These run in parallel and may operate at vastly different time scales, ranging from seconds to decades. In measured data, all of these signals are superimposed, and dominant processes may obscure the signals of other processes, particularly when analyzing mean values over long time scales. Dominant signals are often caused by phenomena at long time scales like seasonal cycles, and most of these are well understood in the limnological literature. The variability injected by biological, chemical and physical processes operating at smaller time scales is less well understood. However, variability affects the state and health of lake ecosystems at all time scales. Besides measuring time series at sufficiently high temporal resolution, the investigation of the full spectrum of variability requires innovative methods of analysis. Analyzing observational data in the time frequency domain allows to identify variability at different time scales and facilitates their attribution to specific processes. The merit of this approach is subsequently demonstrated in three case studies. The first study uses a conceptual analysis to demonstrate the importance of time scales for the detection of ecosystem responses to climate change. These responses often occur during critical time windows in the year, may exhibit a time lag and can be driven by the exceedance of thresholds in their drivers. This can only be detected if the temporal resolution of the data is high enough. The second study applies Fast Fourier Transform spectral analysis to two decades of daily water temperature measurements to show how temporal and spatial scales of water temperature variability can serve as an indicator for mixing in a shallow, polymictic lake. The final study uses wavelet coherence as a diagnostic tool for limnology on a multivariate high-frequency data set recorded between the onset of ice cover and a cyanobacteria summer bloom in the year 2009 in a polymictic lake. Synchronicities among limnological and meteorological time series in narrow frequency bands were used to identify and disentangle prevailing limnological processes. Beyond the novel empirical findings reported in the three case studies, this thesis aims to more generally be of interest to researchers dealing with now increasingly available time series data at high temporal resolution. A set of innovative methods to attribute patterns to processes, their drivers and constraints is provided to help make more efficient use of this kind of data. N2 - See-Ökosysteme sind eine der bedrohtesten Ressourcen der Hydrosphäre. Sie reagieren besonders sensibel auf Veränderungen des Klimas und auf Einflüsse durch Landnutzung, da verschiedene Prozesse im gesamten Einzugsgebiet auf sie einwirken. Daher ist es von besonderer Dringlichkeit, die verschiedenen Prozess-Dynamiken in See-Ökosystemen besser zu verstehen. Die hier vorliegende Doktorarbeit hat zum Ziel, das bestehende Wissen bezüglich der verschiedenen einwirkenden Prozesse in See-Ökosystemen zu erweitern. Die Arbeit stellt ein Forschungsdesign zur Diskussion, das eine Literatur-basierte und auf empirischen Erhebungen beruhende Analyse von Variabilität und Mustern in großen Datensätzen verschiedener Umweltparameter im Zeit-Frequenz-Raum ermöglicht. Umweltparameter sind häufig charakterisiert durch eine hohe zeitliche Dynamik. Diese Variabilität steht im Zentrum dieser Arbeit. Sie wird durch eine Fülle an periodischen und stochastischen Prozessen innerhalb und außerhalb des Ökosystems getrieben. Diese Prozesse können gleichzeitig und auf sehr unterschiedlichen Zeitskalen, von Sekunden bis hin zu Dekaden, ablaufen. In Messdaten überlagern sich alle diese Signale, und dominante Prozesse können die Signale anderer Prozesse verschleiern, insbesondere wenn Mittelwerte über längere Zeiträume analysiert werden. Dominante Signale werden oft durch Prozesse auf längeren Zeitskalen verursacht, wie z. B. saisonale Zyklen. Diese sind im Allgemeinen in der limnologischen Literatur gut dokumentiert. See-Ökosysteme werden allerdings von Prozessen auf allen Zeitskalen beeinflusst. Insbesondere biologische, chemische und physikalische Prozesse operieren in kürzeren Zeitrahmen. Die Variabilität, die über solche Prozesse in See-Ökosysteme eingebracht wird, ist bisher weit weniger gut erforscht. Neben der Notwendigkeit, Umweltparameter in hoher zeitlicher Auflösung zu messen, erfordert die Untersuchung der kompletten Bandbreite an Variabilität innovative Analysemethoden. Die Berücksichtigung der Zeit-Frequenz-Domäne kann dabei helfen, Dynamiken auf verschiedenen Zeitskalen zu identifizieren und daraus bestimmte Prozesse abzuleiten. Diese Arbeit zeigt die Vorzüge dieser Herangehensweise anhand von drei Fallstudien auf. Die erste Studie zeigt die Bedeutung von Zeitskalen für die Erfassung von Ökosystem-Reaktionen auf klimatische Veränderungen. Diese ereignen sich oft während kritischer Zeitfenster im Jahresverlauf und können durch die Überschreitung von Schwellenwerten in den treibenden Variablen, unter Umständen zeitlich verzögert, verursacht sein. Solche Zusammenhänge können nur erfasst werden, wenn die zeitliche Auflösung der Daten hoch genug ist. In der zweiten Studie wird die Spektralanalyse, basierend auf der Fast Fourier Transformation, auf einen Datensatz täglicher Messungen der Wassertemperatur über zwanzig Jahre hinweg angewendet. Es wird gezeigt, wie zeitliche und räumliche Skalen der Variabilität der Wassertemperatur als Indikator für Mischprozesse in einem polymiktischen See dienen können. In der dritten Studie wird die Wavelet Coherence als Diagnose-Werkzeug für einen multivariaten, hochfrequenten Datensatz genutzt. Dieser wurde zwischen dem Einsetzen einer Eisbedeckung und einer Sommerblüte von Cyanobakteriern in einem polymiktischen See im Jahr 2009 erhoben. Synchronizitäten zwischen limnologischen und meteorologischen Zeitreihen in schmalen Frequenz-Bändern wurden genutzt, um vorherrschende limnologische Prozesse zu identifizieren und analytisch zu trennen. Neben den neuen empirischen Erkenntnissen, die in den drei Fallstudien präsentiert werden, zielt diese Doktorarbeit darauf ab, Forscher*innen, Behörden und politischen Entscheidungsträger*innen eine Grundlage zu liefern, die hohe zeitliche Auflösung der heute vielfach verfügbaren Monitoring-Datensätze effizienter zu nutzen. Innovative Methoden sollen dabei helfen, Muster in den Daten Prozessen zuzuordnen und die entsprechenden Treiber und Limitationen zu identifizieren. KW - variability KW - time scale KW - wavelet KW - coherence KW - spectral analysis KW - time series analysis KW - polymictic lakes KW - process identification KW - Variabilität KW - Zeitskala KW - Spektralanalyse KW - Zeitreihenanalyse KW - polymiktische Seen KW - Prozessidentifikation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406955 ER - TY - THES A1 - Paape, Dario L. J. F. T1 - Antecedent complexity effects on ellipsis processing T1 - Einflüsse der Antezedenskomplexität auf die Verarbeitung von Ellipsen N2 - This dissertation explores whether the processing of ellipsis is affected by changes in the complexity of the antecedent, either due to added linguistic material or to the presence of a temporary ambiguity. Murphy (1985) hypothesized that ellipsis is resolved via a string copying procedure when the antecedent is within the same sentence, and that copying longer strings takes more time. Such an account also implies that the antecedent is copied without its structure, which in turn implies that recomputing its syntax and semantics may be necessary at the ellipsis gap. Alternatively, several accounts predict null effects of antecedent complexity, as well as no reparsing. These either involve a structure copying mechanism that is cost-free and whose finishing time is thus independent of the form of the antecedent (Frazier & Clifton, 2001), treat ellipsis as a pointer into content-addressable memory with direct access (Martin & McElree, 2008, 2009), or assume that one structure is ‘shared’ between antecedent and gap (Frazier & Clifton, 2005). In a self-paced reading study on German sluicing, temporarily ambiguous garden-path clauses were used as antecedents, but no evidence of reparsing in the form of a slowdown at the ellipsis site was found. Instead, results suggest that antecedents which had been reanalyzed from an initially incorrect structure were easier to retrieve at the gap. This finding that can be explained within the framework of cue-based retrieval parsing (Lewis & Vasishth, 2005), where additional syntactic operations on a structure yield memory reactivation effects. Two further self-paced reading studies on German bare argument ellipsis and English verb phrase ellipsis investigated if adding linguistic content to the antecedent would increase processing times for the ellipsis, and whether insufficiently demanding comprehension tasks may have been responsible for earlier null results (Frazier & Clifton, 2000; Martin & McElree, 2008). It has also been suggested that increased antecedent complexity should shorten rather than lengthen retrieval times by providing more unique memory features (Hofmeister, 2011). Both experiments failed to yield reliable evidence that antecedent complexity affects ellipsis processing times in either direction, irrespectively of task demands. Finally, two eye-tracking studies probed more deeply into the proposed reactivation-induced speedup found in the first experiment. The first study used three different kinds of French garden-path sentences as antecedents, with two of them failing to yield evidence for reactivation. Moreover, the third sentence type showed evidence suggesting that having failed to assign a structure to the antecedent leads to a slowdown at the ellipsis site, as well as regressions towards the ambiguous part of the sentence. The second eye-tracking study used the same materials as the initial self-paced reading study on German, with results showing a pattern similar to the one originally observed, with some notable differences. Overall, the experimental results are compatible with the view that adding linguistic material to the antecedent has no or very little effect on the ease with which ellipsis is resolved, which is consistent with the predictions of cost-free copying, pointer-based approaches and structure sharing. Additionally, effects of the antecedent’s parsing history on ellipsis processing may be due to reactivation, the availability of multiple representations in memory, or complete failure to retrieve a matching target. N2 - Diese Dissertation untersucht, ob die Verarbeitung elliptischer Strukturen von Veränderungen der Komplexität des Antezedens beeinflusst wird, entweder durch zusätzliches linguistisches Material oder durch die Präsenz einer temporären Ambiguität. Murphy (1985) stellte die Hypothese auf, dass Ellipsen durch das Kopieren von Zeichenketten aufgelöst werden, sofern das Antezedens sich im selben Satz befindet, und dass das Kopieren längerer Zeichenketten mehr Zeit in Anspruch nimmt. Ein solcher Ansatz impliziert auch, dass das Antezedens ohne seine Struktur kopiert wird, was wiederum impliziert, dass seine Struktur und Semantik an der Auslassungsstelle möglicherweise erneut berechnet werden müssen. Alternativ existieren mehrere Ansätze, die Nulleffekte der Antezedenskomplexität sowie keine strukturelle Neuberechnung vorhersagen. Diese Ansätze involvieren entweder einen Mechanismus, der die bestehende Struktur kostenfrei überträgt und dessen Latenz von der Form des Antezedens unabhängig ist (Frazier & Clifton, 2001), behandeln die Ellipse als Verweis in einen inhaltsadressierbaren Gedächtnisspeicher (Martin & McElree, 2008, 2009) oder nehmen an, dass die Struktur des Antezedens mit der Ellipse "geteilt" wird (Frazier & Clifton, 2005). In einer Self-Paced Reading-Studie mit deutschen Sluicing-Strukturen wurden temporär ambige Garden Path-Sätze als Antezedenten verwendet, es konnte aber keine Evidenz für strukturelle Neuberechnung in Form höherer Lesezeiten am Punkt der Ellipse gefunden werden. Stattdessen zeigte sich, dass Antezedenten, deren ursprünglich inkorrekt zugewiesene Strukturen reanalysiert worden waren, am Punkt der Ellipse leichter abzurufen waren. Dieses Resultat kann im Kontext des Cue-Based Retrieval Parsing (Lewis & Vasishth, 2005) erklärt werden, wo zusätzliche syntaktische Operationen auf einer Struktur zur Stärkung der assoziierten Gedächtnisspur führen. Zwei weitere Self-Paced Reading-Studien zu deutschen Bare Argument-Ellipsen und englischen VP-Ellipsen sollten ausloten, ob zusätzliches linguistisches Material im Antezedens zu längeren Verarbeitungszeiten für die Ellipse führen würde und ob zu wenig fordernde Verständnistests der Grund für frühere Nullresultate waren (Frazier & Clifton, 2000; Martin & McElree, 2008). Auch gibt es die Theorie, dass erhöhte Komplexität des Antezedens Abrufzeiten verkürzen und nicht verlangsamen sollte, da mehr einzigartige Gedächtnismerkmale zur Verfügung stehen (Hofmeister, 2011). Beide Experimente lieferten keine Evidenz für einen Einfluss der Antezedenskomplexität auf die Verarbeitungszeit der Ellipse in die eine oder in die andere Richtung, unabhängig von der Aufgabenschwierigkeit. Schließlich wurde in zwei Eyetracking-Studien der in der ersten Studie beschriebene Reaktivierungseffekt genauer betrachtet. Die erste dieser Studien verwendete drei verschiedene Typen von Garden Path-Strukturen im Französischen als Antezedenten, von denen zwei keine Evidenz für Reaktivierung zeigten. Darüber hinaus zeigte die dritte getestete Struktur Evidenz dafür, dass eine Verlangsamung am Punkt der Ellipse sowie Regressionen zum Antezedens auftreten, wenn dem Antezedens anfänglich keine Struktur zugewiesen wurde. Die zweite Eyetracking-Studie verwendete dieselben deutschen Materialen wie die ursprüngliche Self-Paced Reading-Studie, mit größtenteils ähnlichen Resultaten und einigen beachtenswerten Abweichungen. Insgesamt sind die experimentellen Ergebnisse mit der Ansicht kompatibel, dass das Hinzufügen von linguistischen Material zum Antezedens keine oder nur sehr minimale Effekte auf die Verarbeitungszeit der Ellipse hat, was mit den Vorhersagen auf Basis eines kostenfreien Kopiermechanismus, eines inhaltsadressierten Gedächtnisspeichers oder einer "geteilten" Struktur übereinstimmt. Effekte, die sich aus der Verarbeitungsgeschichte des Antezedens ergeben, sind möglicherweise auf Reaktivierung, das Vorhandensein mehrerer Gedächtnisspuren oder ein komplettes Scheitern des Gedächtnisabrufs zurückzuführen. KW - ellipsis KW - antecedent complexity KW - psycholinguistics KW - task demands KW - garden path KW - Ellipse KW - Psycholinguistik KW - Temporäre Ambiguität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411689 ER - TY - THES A1 - Tyree, Susan T1 - Arc expression in the parabrachial nucleus following taste stimulation T1 - Arc-Expression im Nucleus parabrachialis nach Geschmacksstimulation N2 - Researchers have made many approaches to study the complexities of the mammalian taste system; however molecular mechanisms of taste processing in the early structures of the central taste pathway remain unclear. More recently the Arc catFISH (cellular compartment analysis of temporal activity by fluorescent in situ hybridisation) method has been used in our lab to study neural activation following taste stimulation in the first central structure in the taste pathway, the nucleus of the solitary tract. This method uses the immediate early gene Arc as a neural activity marker to identify taste-responsive neurons. Arc plays a critical role in memory formation and is necessary for conditioned taste aversion memory formation. In the nucleus of the solitary tract only bitter taste stimulation resulted in increased Arc expression, however this did not occur following stimulation with tastants of any other taste quality. The primary target for gustatory NTS neurons is the parabrachial nucleus (PbN) and, like Arc, the PbN plays an important role in conditioned taste aversion learning. The aim of this thesis is to investigate Arc expression in the PbN following taste stimulation to elucidate the molecular identity and function of Arc expressing, taste- responsive neurons. Naïve and taste-conditioned mice were stimulated with tastants from each of the five basic taste qualities (sweet, salty, sour, umami, and bitter), with additional bitter compounds included for comparison. The expression patterns of Arc and marker genes were analysed using in situ hybridisation (ISH). The Arc catFISH method was used to observe taste-responsive neurons following each taste stimulation. A double fluorescent in situ hybridisation protocol was then established to investigate possible neuropeptide genes involved in neural responses to taste stimulation. The results showed that bitter taste stimulation induces increased Arc expression in the PbN in naïve mice. This was not true for other taste qualities. In mice conditioned to find an umami tastant aversive, subsequent umami taste stimulation resulted in an increase in Arc expression similar to that seen in bitter-stimulated mice. Taste-responsive Arc expression was denser in the lateral PbN than the medial PbN. In mice that received two temporally separated taste stimulations, each stimulation time-point showed a distinct population of Arc-expressing neurons, with only a small population (10 – 18 %) of neurons responding to both stimulations. This suggests that either each stimulation event activates a different population of neurons, or that Arc is marking something other than simple cellular activation, such as long-term cellular changes that do not occur twice within a 25 minute time frame. Investigation using the newly established double-FISH protocol revealed that, of the bitter-responsive Arc expressing neuron population: 16 % co-expressed calcitonin RNA; 17 % co-expressed glucagon-like peptide 1 receptor RNA; 17 % co-expressed hypocretin receptor 1 RNA; 9 % co-expressed gastrin-releasing peptide RNA; and 20 % co-expressed neurotensin RNA. This co-expression with multiple different neuropeptides suggests that bitter-activated Arc expression mediates multiple neural responses to the taste event, such as taste aversion learning, suppression of food intake, increased heart rate, and involves multiple brain structures such as the lateral hypothalamus, amygdala, bed nucleus of the stria terminalis, and the thalamus. The increase in Arc-expression suggests that bitter taste stimulation, and umami taste stimulation in umami-averse animals, may result in an enhanced state of Arc- dependent synaptic plasticity in the PbN, allowing animals to form taste-relevant memories to these aversive compounds more readily. The results investigating neuropeptide RNA co- expression suggest the amygdala, bed nucleus of the stria terminalis, and thalamus as possible targets for bitter-responsive Arc-expressing PbN neurons. N2 - Trotz vielfältiger experimenteller Ansätze, die Komplexität des Geschmackssystems der Säugetiere zu erforschen, bleiben viele molekulare Mechanismen der Geschmacksverarbeitung in den frühen Strukturen der zentralen Geschmacksbahn unklar. Kürzlich wurde in unserem Labor die Arc catFISH-Methode (cellular compartment analysis of temporal activity by fluorescent in situ hybridisation) angewandt, um die neuronale Aktivierung nach Geschmacksstimulation in der ersten zentralnervösen Struktur der Geschmacksbahn, dem Nucleus tractus solitarii (NTS) zu untersuchen. Diese Methode nutzt das Immediate-early-Gen Arc als neuronalen Aktivitätsmarker, um geschmacksverarbeitende Neurone zu identifizieren. Arc spielt eine wichtige Rolle bei der Gedächtnisbildung und ist notwendig für die Ausprägung konditionierter Geschmacksaversionen. Im NTS führten nur Bitterstimuli zu einer erhöhten Arc- Expression, jedoch nicht Stimuli der anderen Geschmacksqualitäten. Das primäre Projektionsziel für geschmacksverarbeitende NTS-Neurone ist der Nucleus parabrachialis (PbN). Wie Arc, spielt dieser eine wichtige Rolle bei der Ausbildung konditionierter Geschmacksaversionen. Das Ziel dieser Arbeit ist, die Expression von Arc im PbN nach Geschmacksstimulation zu untersuchen, um die molekulare Identität der Arc- exprimierenden, geschmacksverarbeitenden Neurone aufzuklären. Naive und konditionierte Mäuse wurden mit Geschmacksstoffen der fünf Geschmacksqualitäten (süß, salzig, sauer, umami und bitter) stimuliert, wobei zum Vergleich mehrere Bitterstoffe verwendet wurden. Die Expression von Arc und ausgewählter Markergene wurde per In- situ-Hybridisierung (ISH) analysiert. Die Arc catFISH-Methode wurde eingesetzt, um geschmacksverarbeitende Neuronen zu untersuchen, die durch den jeweiligen Geschmacksstimulus aktiviert wurden. Ein Fluoreszenz-in-situ-Hybridisierungs-Protokoll (FISH) mit zwei RNA-Sonden wurde etabliert, um den Einfluss von Neuropeptiden in der neuronalen Verarbeitung von Geschmacksinformation zu untersuchen. Die Ergebnisse zeigen, dass in unkonditionierten Mäusen nur Bitterstimuli zu einer erhöhten Arc-Expression im PbN führen, nicht jedoch Stimuli anderer Geschmacksqualitäten. Bei Mäusen, die konditioniert wurden, einen Umami-Stimulus zu vermeiden, führt die nachfolgende Stimulation mit diesem Geschmacksstoff zu einer erhöhten Arc-Expression, die der in bitterstimulierten Mäusen vergleichbar ist. Die geschmacksinduzierte Arc-Expression ist im lateralen PbN stärker konzentriert als im medialen PbN. Bei Mäusen, die im Abstand von 25 min zwei Geschmackstimulationen erhielten, führt jede der Stimulationen zu einer Erregung eigenen Population von Arc- exprimierenden Neuronen. Nur ein geringer Anteil (10 - 18 %) reagiert auf beide Stimuli. Dies deutet darauf hin, dass entweder jeder Stimulationsvorgang eine eigene Neuronenpopulation aktiviert oder dass Arc nicht als einfacher Aktivitätsmarker zu verstehen ist, sondern vielmehr als Marker für längerfristige neuronale Veränderungen, die nicht zweimal innerhalb des 25-minütigen Zeitrahmens des Experiments auftreten. Die Ergebnisse des neu etablierten Doppel-FISH-Protokolls zeigen, dass von den Neuronen mit Arc-Expression nach Bitterstimulation: 16 % Calcitonin-RNA koexprimieren; 17 % Glucagon-like-peptide-1-receptor-RNA koexprimieren; 17 % Hypocretin-receptor-1-RNA koexprimieren; 9 % Gastrin-releasing-peptide-RNA koexprimieren; und 20 % Neurotensin-RNA koexprimieren. Diese Koexpression mit verschiedenen Neuropeptiden deutet darauf hin, dass die bitterinduzierte Arc-Expression an verschiedenen neuralen Prozessen beteiligt ist, die durch Geschmacksstimulation hervorgerufen werden. Darunter sind das Erlernen von Geschmacksaversion, reduzierte Nahrungsaufnahme und gesteigerte Herzfrequenz. Außerdem deutet dies darauf hin, dass an diesen Prozessen mehrere V Hirnstrukturen, wie lateraler Hypothalamus, Amygdala, Nucleus interstitialis striae terminalis und Thalamus beteiligt sind. Die erhöhte Arc-Expression deutet darauf hin, dass Stimulation mit Bitterstoffen und die Stimulation mit einem Umami-Stimulus bei umami vermeidenden Tieren zu einer erhöhten Arc-abhängigen neuronalen Plastizität führt. Dies könnte den Tieren ermöglichen, geschmacksbezogene Erinnerungen bezüglich aversiver Stimuli zu formen. Die Ergebnisse der Koexpression von Arc und Neuropeptiden legen die Amygdala, den Nucleus interstitialis striae terminalis und den Thalamus als mögliche Projektionsziele der Arc- exprimierenden PbN-Neurone nahe. KW - taste processing KW - Geschmackssystems KW - parabrachial nucleus KW - Nucleus parabrachialis Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396600 ER - TY - THES A1 - Kellermann, Patric T1 - Assessing natural risks for railway infrastructure and transportation in Austria T1 - Bewertung von Naturrisiken für Eisenbahninfrastruktur und -betrieb in Österreich N2 - Natural hazards can have serious societal and economic impacts. Worldwide, around one third of economic losses due to natural hazards are attributable to floods. The majority of natural hazards are triggered by weather-related extremes such as heavy precipitation, rapid snow melt, or extreme temperatures. Some of them, and in particular floods, are expected to further increase in terms of frequency and/or intensity in the coming decades due to the impacts of climate change. In this context, the European Alps areas are constantly disclosed as being particularly sensitive. In order to enhance the resilience of societies to natural hazards, risk assessments are substantial as they can deliver comprehensive risk information to be used as a basis for effective and sustainable decision-making in natural hazards management. So far, current assessment approaches mostly focus on single societal or economic sectors – e.g. flood damage models largely concentrate on private-sector housing – and other important sectors, such as the transport infrastructure sector, are widely neglected. However, transport infrastructure considerably contributes to economic and societal welfare, e.g. by ensuring mobility of people and goods. In Austria, for example, the national railway network is essential for the European transit of passengers and freights as well as for the development of the complex Alpine topography. Moreover, a number of recent experiences show that railway infrastructure and transportation is highly vulnerable to natural hazards. As a consequence, the Austrian Federal Railways had to cope with economic losses on the scale of several million euros as a result of flooding and other alpine hazards. The motivation of this thesis is to contribute to filling the gap of knowledge about damage to railway infrastructure caused by natural hazards by providing new risk information for actors and stakeholders involved in the risk management of railway transportation. Hence, in order to support the decision-making towards a more effective and sustainable risk management, the following two shortcomings in natural risks research are approached: i) the lack of dedicated models to estimate flood damage to railway infrastructure, and ii) the scarcity of insights into possible climate change impacts on the frequency of extreme weather events with focus on future implications for railway transportation in Austria. With regard to flood impacts to railway infrastructure, the empirically derived damage model Railway Infrastructure Loss (RAIL) proved expedient to reliably estimate both structural flood damage at exposed track sections of the Northern Railway and resulting repair cost. The results show that the RAIL model is capable of identifying flood risk hot spots along the railway network and, thus, facilitates the targeted planning and implementation of (technical) risk reduction measures. However, the findings of this study also show that the development and validation of flood damage models for railway infrastructure is generally constrained by the continuing lack of detailed event and damage data. In order to provide flood risk information on the large scale to support strategic flood risk management, the RAIL model was applied for the Austrian Mur River catchment using three different hydraulic scenarios as input as well as considering an increased risk aversion of the railway operator. Results indicate that the model is able to deliver comprehensive risk information also on the catchment level. It is furthermore demonstrated that the aspect of risk aversion can have marked influence on flood damage estimates for the study area and, hence, should be considered with regard to the development of risk management strategies. Looking at the results of the investigation on future frequencies of extreme weather events jeopardizing railway infrastructure and transportation in Austria, it appears that an increase in intense rainfall events and heat waves has to be expected, whereas heavy snowfall and cold days are likely to decrease. Furthermore, results indicate that frequencies of extremes are rather sensitive to changes of the underlying thresholds. It thus emphasizes the importance to carefully define, validate, and — if needed — to adapt the thresholds that are used to detect and forecast meteorological extremes. For this, continuous and standardized documentation of damaging events and near-misses is a prerequisite. Overall, the findings of the research presented in this thesis agree on the necessity to improve event and damage documentation procedures in order to enable the acquisition of comprehensive and reliable risk information via risk assessments and, thus, support strategic natural hazards management of railway infrastructure and transportation. N2 - Naturgefahren haben zum Teil gravierende Auswirkungen auf die Gesellschaft und die Wirtschaft der betroffenen Region. Weltweit sind etwa ein Drittel der finanziellen Verluste durch Naturereignisse auf Hochwasser zurückzuführen. Die Schäden an Eisenbahninfrastruktur haben dabei oft großen Anteil am Gesamtschaden. Hochwasser und andere Naturgefahren werden häufig durch Extremwetterereignisse, wie etwa Starkniederschläge oder Extremtemperaturen, ausgelöst. Im Zuge des Klimawandels rechnet man für die kommenden Jahrzehnte mit einer Zunahme in der Anzahl bzw. der Schwere einiger Naturereignisse. Mit dem Ziel, die gesellschaftliche Widerstandsfähigkeit gegenüber Naturereignissen zu erhöhen, setzt man zur Gewinnung von Risikoinformationen auf sogenannte Naturrisikoanalysen. Die gegenwärtige Praxis konzentriert sich dabei meist auf die Analyse für einzelne Wirtschaftssektoren, wie etwa den Immobiliensektor. Der Transportsektor und insbesondere die Eisenbahninfrastruktur werden trotz der tragenden Rollen für die Wirtschaftskraft einer Gesellschaft jedoch weitgehend vernachlässigt. Zahlreiche Naturereignisse der letzten Jahrzehnte zeigten allerdings, dass Eisenbahninfrastruktur generell sehr schadensanfällig gegenüber Naturgefahren ist. Ziel dieser Doktorarbeit ist es, das Management von Naturgefahren für den Schienensektor in Österreich durch die Bereitstellung von neuen Risikoinformationen zu unterstützen. Hierzu wurde zum einen ein neuartiges Schadenmodell zur Schätzung von Hochwasserschäden an Eisenbahninfrastruktur entwickelt. Zum anderen wurde unter Verwendung von regionalen Klimamodellen die klimawandelbedingte Änderung der Häufigkeiten von Extremwetter¬ereignissen in Österreich untersucht und mögliche Auswirkungen auf den Eisenbahnbetrieb abgeleitet. Die Forschungsergebnisse zeigen, dass das entwickelte Hochwasserschadenmodell „RAIL“ in der Lage ist, potenzielle Schadenschwerpunkte entlang von Bahnlinien für großräumige Eisenbahnnetze zu identifizieren und damit einen wertvollen Beitrag für die gezielte Planung und Errichtung von technischen Hochwasserschutzmaßnahmen leisten kann. Ferner liefert die Untersuchung der Häufigkeitsentwicklung von Extremwetterereignissen bis zum Jahr 2040 wichtige Einblicke in die zukünftigen Herausforderungen für den Bahnbetrieb im Kontext des Klimawandels. Um aus zukünftigen Naturereignissen lernen zu können und somit ein tieferes Verständnis von Naturgefahrenprozessen und deren Auswirkungen auf Eisenbahninfrastruktur und –betrieb zu erlangen, wird die (Weiter-)Entwicklung und Anwendung von standardisierten Ereignis- und Schadendokumentationsverfahren empfohlen. KW - natural risks KW - damage modeling KW - railway infrastructure KW - Naturrisiken KW - Schadensmodellierung KW - Eisenbahninfrastruktur Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-103877 ER - TY - THES A1 - Schmidt, Katja T1 - Assessing, testing, and implementing socio-cultural valuation methods to operationalise ecosystem services in land use management T1 - Berücksichtigung, Überprüfung und Implentierung sozio-kultureller Bewertungsmethoden für die Operationalisierung von Ökosystemleistungen im Landschaftsmanagement N2 - Ecosystem services (ESs) are defined as the contributions that ecosystems make to human wellbeing and are increasingly being used as an approach to explore the importance of ecosystems for humans through their valuation. Although value plurality has been recognised long before the mainstreaming of ESs research, socio-cultural valuation is still underrepresented in ESs assessments. It is the central goal of this PhD dissertation to explore the ability of socio-cultural valuation methods for the operationalisation of ESs research in land management. To address this, I formulated three research objectives that are briefly outlined below and relate to the three studies conducted during this dissertation. The first objective relates to the assessment of the current role of socio-cultural valuation in ESs research. Human values are central to ESs research yet non-monetary socio-cultural valuation methods have been found underrepresented in the field of ESs science. In regard to the unbalanced consideration of value domains and conceptual uncertainties, I perform a systematic literature review aiming to answer the research question: To what extent have socio-cultural values been addressed in ESs assessments. The second objective aims to test socio-cultural valuation methods of ESs and their relevance for land use preferences by exploring their methodological opportunities and limitations. Socio-cultural valuation methods have only recently become a focus in ESs research and therefore bear various uncertainties in regard to their methodological implications. To overcome these uncertainties, I analysed responses to a visitor survey. The research questions related to the second objective were: What are the implications of different valuation methods for ESs values? To what extent are land use preferences explained by socio-cultural values of ESs? The third objective addressed in this dissertation is the implementation of ESs research into land management through socio-cultural valuation. Though it is emphasised that the ESs approach can assist decision making, there is little empirical evidence of the effect of ESs knowledge on land management. I proposed a way to implement transdisciplinary, spatially explicit research on ESs by answering the following research questions: Which landscape features underpinning ESs supply are considered in land management? How can participatory approaches accounting for ESs be operationalised in land management? The empirical research resulted in five main findings that provide answers to the research questions. First, this dissertation provides evidence that socio-cultural values are an integral part of ESs research. I found that they can be assessed for provisioning, regulating, and cultural services though they are linked to cultural services to a greater degree. Socio-cultural values have been assessed by monetary and non-monetary methods and their assessment is effectively facilitated by stakeholder participation. Second, I found that different methods of socio-cultural valuation revealed different information. Whereas rating revealed a general value of ESs, weighting was found more suitable to identify priorities across ESs. Value intentions likewise differed in the distribution of values, generally implying a higher value for others than for respondents themselves. Third, I showed that ESs values were distributed similarly across groups with differing land use preferences. Thus, I provided empirical evidence that ESs values and landscape values should not be used interchangeably. Fourth, I showed which landscape features important for ESs supply in a Scottish regional park are not sufficiently accounted for in the current management strategy. This knowledge is useful for the identification of priority sites for land management. Finally, I provide an approach to explore how ESs knowledge elicited by participatory mapping can be operationalised in land management. I demonstrate how stakeholder knowledge and values can be used for the identification of ESs hotspots and how these hotspots can be compared to current management priorities. This dissertation helps to bridge current gaps of ESs science by advancing the understanding of the current role of socio-cultural values in ESs research, testing different methods and their relevance for land use preferences, and implementing ESs knowledge into land management. If and to what extent ESs and their values are implemented into ecosystem management is mainly the choice of the management. An advanced understanding of socio-cultural valuation methods contributes to the normative basis of this management, while the proposal for the implementation of ESs in land management presents a practical approach of how to transfer this type of knowledge into practice. The proposed methods for socio-cultural valuation can support guiding land management towards a balanced consideration of ESs and conservation goals. N2 - Das Konzept der Ökosystemleistungen (ÖSL) wird in der Wissenschaft seit einigen Jahren vermehrt verwendet, um die Beiträge von Ökosystemen zum menschlichen Wohlbefinden zu bewerten. Das Konzept der ÖSL sieht vor, dass dabei viele verschiedene Wertkategorien gleichberechtigt zum Tragen kommen. Dazu gehören etwa ökonomische, ökologische und sozio-kulturelle Werte, die zu integrieren sind. Diesem Anspruch zum Trotz wird jedoch bislang der Bereich der sozio-kulturellen Werte zugunsten monetärer Werte in der Wissenschaft weitgehend vernachlässigt. Zudem müssen Wege gefunden werden, das Wissen über ÖSL und deren Werte in der Landschafts- und Raumplanung umzusetzen und damit praktisch nutzbar zu machen. Es ist das Ziel der vorliegenden Dissertation, die Eignung von sozio-kulturellen Bewertungsmethoden für die Operationalisierung von ÖSL in Landschafts- und Raumplanung zu untersuchen. Hierfür wurden drei Forschungsschwerpunkte verfolgt. (1) Es wurde untersucht, inwieweit gegenwärtige ÖSL-Bewertungsstudien sozio-kulturelle Werte berücksichtigen. (2) Verschiedene sozio-kulturelle Bewertungsmethoden für ÖSL wurden daraufhin geprüft, inwieweit sie geeignet sind, die Landschaftspräferenzen unterschiedlicher Nutzergruppen offenzulegen und (3) wurde ein Ansatz entwickelt, um die ÖSL-Forschung in die Landschafts- und Raumplanung zu implementieren. (1) Mittels einer Literaturanalyse konnte gezeigt werden, dass sozio-kulturelle Werte bei der Bewertung von produktiven, regulierenden und kulturellen ÖSL erhoben werden, wobei ein engerer Zusammenhang zwischen sozio-kulturellen Werten und kulturellen ÖSL festgestellt wurde. Zwischen sozio-kulturellen Werten und kulturellen Leistungen konnten einige Überlappungen aber auch zahlreiche Unterschiede aufgezeigt werden, was auf eine Trennung der beiden Bereiche hinweist. Darüber hinaus konnte gezeigt werden, dass sich nicht-monetäre Bewertungsmethoden besonders für die Erhebung sozio-kultureller Werte eignen wobei auch monetäre Bewertungsmethoden sozio-kulturelle Werte erfassen, vor allem mittels simulierter Marktansätze (z.B. Zahlungsbereitschaft, Choice Experimente). Die Arbeit zeigte zudem, dass Studien, welche Stakeholder oder die Öffentlichkeit beteiligten, häufiger ebenfalls sozio-kulturelle Werte erhoben. (2) Bei einer Besucherbefragung in einem schottischen Regionalpark führten unterschiedliche Methoden zu unterschiedlichen Ergebnissen. Die Bewertung von ÖSL auf einer 5-Punkteskala führte zu einer allgemeinen Einschätzung über die Wichtigkeit der verschiedenen ÖSL während eine Gewichtung der Leistungen (Verteilung von insgesamt 100 Punkten auf 9 ÖSL) eine relative Einschätzung über die Wichtigkeit der ÖSL und deren Prioritäten ermöglichte. Verschiedene Werteintentionen lieferten ähnlich unterschiedliche Ergebnisse, wobei persönliche Werte differenzierter und allgemein höher ausfielen als gesellschaftliche Werte. Zudem konnte gezeigt werden, dass sozio-kulturelle Werte für ÖSL ähnlich zwischen fünf Gruppen mit unterschiedlichen Landschaftspräferenzen verteilt waren. Die Arbeit liefert demnach empirische Belege dafür, dass es sich bei ÖSL und Landschaftspräferenzen um zwei Konzepte handelt, die nicht untereinander austauschbar sind. (3) Für die Entwicklung eines Ansatzes zur Implementierung von ÖSL-Forschung in die Landschafts- und Raumplanung wurde ein Methodenmix verwendet. Es wurden Ergebnisse eines Stakeholderworkshops verwendet bei dem ÖSL von Stakeholdern kartiert wurden. Mittels dieser Kartierung wurden Landschaftseigenschaften untersucht, die eine besondere Bedeutung für die Bereitstellung der ÖSL haben. Es wurde weiterhin untersucht, inwieweit diese Landschaftseigenschaften im derzeitigen Management Plan priorisiert werden. Die Diskrepanz zwischen Landschaftseigenschaften, die zentral für die Bereitstellung von ÖSL sind, und denen, die derzeit im Management Plan berücksichtigt werden, kann Aufschluss über mögliche Zielkonflikte geben und kann zudem dabei helfen, künftige Planungsprioritäten festzulegen, etwa indem Vorranggebiete für bestimmte ÖSL ausgewiesen werden. Diese Arbeit untersucht die Eignung von sozio-kulturellen Bewertungsmethoden für die Operationalisierung von ÖSL in Landschafts- und Raumplanung. In diesem Zusammenhang liefert die Arbeit neue Erkenntnisse darüber, inwiefern derzeit sozio-kulturellen Werten in ÖSL-Bewertungsstudien berücksichtigt werden. Sie zeigt Möglichkeiten und Grenzen von verschiedenen anerkannten sozio-kulturellen Bewertungsmethoden auf und ermöglicht ein besseres Verständnis über deren Abgrenzung zu Landschaftspräferenzen. Schließlich präsentiert diese Arbeit einen komplexen methodischen Ansatz, um ÖSL-Forschung in die Landschafts- und Raumplanung zu integrieren. KW - non-monetary valuation KW - participatory mapping KW - PPGIS KW - landscape preferences KW - nicht-monetäre Bewertung KW - PPGIS KW - Landschaftspräferenzen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411049 ER - TY - THES A1 - Peldszus, Andreas T1 - Automatic recognition of argumentation structure in short monological texts N2 - The aim of this thesis is to develop approaches to automatically recognise the structure of argumentation in short monological texts. This amounts to identifying the central claim of the text, supporting premises, possible objections, and counter-objections to these objections, and connecting them correspondingly to a structure that adequately describes the argumentation presented in the text. The first step towards such an automatic analysis of the structure of argumentation is to know how to represent it. We systematically review the literature on theories of discourse, as well as on theories of the structure of argumentation against a set of requirements and desiderata, and identify the theory of J. B. Freeman (1991, 2011) as a suitable candidate to represent argumentation structure. Based on this, a scheme is derived that is able to represent complex argumentative structures and can cope with various segmentation issues typically occurring in authentic text. In order to empirically test our scheme for reliability of annotation, we conduct several annotation experiments, the most important of which assesses the agreement in reconstructing argumentation structure. The results show that expert annotators produce very reliable annotations, while the results of non-expert annotators highly depend on their training in and commitment to the task. We then introduce the 'microtext' corpus, a collection of short argumentative texts. We report on the creation, translation, and annotation of it and provide a variety of statistics. It is the first parallel corpus (with a German and English version) annotated with argumentation structure, and -- thanks to the work of our colleagues -- also the first annotated according to multiple theories of (global) discourse structure. The corpus is then used to develop and evaluate approaches to automatically predict argumentation structures in a series of six studies: The first two of them focus on learning local models for different aspects of argumentation structure. In the third study, we develop the main approach proposed in this thesis for predicting globally optimal argumentation structures: the 'evidence graph' model. This model is then systematically compared to other approaches in the fourth study, and achieves state-of-the-art results on the microtext corpus. The remaining two studies aim to demonstrate the versatility and elegance of the proposed approach by predicting argumentation structures of different granularity from text, and finally by using it to translate rhetorical structure representations into argumentation structures. N2 - Ziel dieser Arbeit ist die Entwicklung von Methoden zur automatischen Erkennung der Argumentationsstruktur in kurzen, monologischen Texten. Dies umfasst einerseits, die zentrale These des Textes, stützende Prämissen, mögliche Einwände und Widersprüche gegen diese zu identifizieren. Andererseits gilt es, diese Elemente in einer Gesamtstruktur zu verbinden, die die im Text vorgebrachte Argumentation angemessen beschreibt. Hierzu muss zuerst eine geeignete Darstellung der Argumentationsstruktur gefunden werden. Anhand einer Reihe von Anforderungen wird die Literatur zu Theorien der Diskurs- sowie der Argumentationsstruktur systematisch ausgewertet. Die Theorie von J. B. Freeman (1991, 2011) erweist sich hierbei als geeigneter Kandidat zur Repräsentation von Argumentationsstruktur. Darauf aufbauend wird ein Annotationsschema abgeleitet, welches auch komplexe Strukturen klar darstellen und mit verschiedenen, für authentischen Text typischen Segmentierungsproblemen umgehen kann. Um das Schema hinsichtlich der Zuverlässigkeit der Annotation empirisch zu testen, werden mehrere Annotationsexperimente durchgeführt, von denen das wichtigste die Übereinstimmung bei der Rekonstruktion der Argumentationsstruktur erfasst. Die Ergebnisse zeigen, dass Fachexperten sehr verlässlich annotieren, während die Ergebnisse von Nicht-Experten in hohem Maße vom Training und ihrem Engagement für die Aufgabe abhängen. Schließlich wird das "microtext"-Korpus vorgestellt, eine Sammlung kurzer argumentativer Texte. Die Erstellung, Übersetzung und Annotation wird beschrieben, die Strukturen statistisch ausgewertet. Es handelt sich um das erste mit Argumentationsstrukturen annotierte Parallelkorpus (in Deutsch und Englisch) und -- dank der Arbeit unserer Kollegen -- auch um das erste, das mit verschiedenartigen Diskursstrukturen annotiert wurde. In einer Reihe von sechs Studien werden dann Methoden zur automatischen Erkennung von Argumentationsstrukturen entwickelt und am Korpus erprobt: Die ersten beiden konzentrieren sich auf das Lernen lokaler Modelle für einzelne Aspekte der Argumentationsstruktur. In der dritten Studie wird der in dieser Dissertation vorgeschlagene Ansatz entwickelt: das "Evidenzgraph"-Modell, mit dem global optimale Argumentationsstrukturen erkannt werden können. Dieses wird dann in der vierten Studie systematisch mit anderen Ansätzen verglichen und erzielt beste Ergebnisse auf dem microtext-Korpus. Die verbleibenden zwei Studien zielen darauf ab, die Vielseitigkeit und Eleganz des Ansatzes zu demonstrieren, z.B. bei der Ableitung von Argumentationsstrukturen unterschiedlicher Granularität oder bei der Übersetzung rhetorischer Strukturen in Argumentationsstrukturen. T2 - Automatische Erkennung der Argumentationsstruktur in kurzen monologischen Texten KW - argumentation KW - argumentation structure KW - discourse structure KW - argument mining KW - argumentation mining KW - argumentation structure parsing KW - discourse parsing KW - annotation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421441 ER - TY - THES A1 - Meier, Tobias T1 - Borehole Breakouts in Transversely Isotropic Posidonia Shale T1 - Bohrlochrandausbrüche in transversal isotropen Posidonienschiefer N2 - Borehole instabilities are frequently encountered when drilling through finely laminated, organic rich shales (Økland and Cook, 1998; Ottesen, 2010; etc.); such instabilities should be avoided to assure a successful exploitation and safe production of the contained unconventional hydrocarbons. Borehole instabilities, such as borehole breakouts or drilling induced tensile fractures, may lead to poor cementing of the borehole annulus, difficulties with recording and interpretation of geophysical logs, low directional control and in the worst case the loss of the well. If these problems are not recognized and expertly remedied, pollution of the groundwater or the emission of gases into the atmosphere can occur since the migration paths of the hydrocarbons in the subsurface are not yet fully understood (e.g., Davies et al., 2014; Zoback et al., 2010). In addition, it is often mentioned that the drilling problems encountered and the resulting downtimes of the wellbore system in finely laminated shales significantly increase drilling costs (Fjaer et al., 2008; Aadnoy and Ong, 2003). In order to understand and reduce the borehole instabilities during drilling in unconventional shales, we investigate stress-induced irregular extensions of the borehole diameter, which are also referred to as borehole breakouts. For this purpose, experiments with different borehole diameters, bedding plane angles and stress boundary conditions were performed on finely laminated Posidonia shales. The Lower Jurassic Posidonia shale is one of the most productive source rocks for conventional reservoirs in Europe and has the greatest potential for unconventional oil and gas in Europe (Littke et al., 2011). In this work, Posidonia shale specimens from the North (PN) and South (PS) German basins were selected and characterized petrophysically and mechanically. The composition of the two shales is dominated by calcite (47-56%) followed by clays (23-28%) and quartz (16-17%). The remaining components are mainly pyrite and organic matter. The porosity of the shales varies considerably and is up to 10% for PS and 1% for PN, which is due to a larger deposition depth of PN. Both shales show marked elasticity and strength anisotropy, which can be attributed to a macroscopic distribution and orientation of soft and hard minerals. Under load the hard minerals form a load-bearing, supporting structure, while the soft minerals compensate the deformation. Therefore, if loaded parallel to the bedding, the Posidonia shale is more brittle than loaded normal to the bedding. The resulting elastic anisotropy, which can be defined by the ratio of the modulus of elasticity parallel and normal to the bedding, is about 50%, while the strength anisotropy (i.e., the ratio of uniaxial compressive strength normal and parallel to the bedding) is up to 66%. Based on the petrophysical characterization of the two rocks, a transverse isotropy (TVI) was derived. In general, PS is softer and weaker than PN, which is due to the stronger compaction of the material due to the higher burial depth. Conventional triaxial borehole breakout experiments on specimens with different borehole diameters showed that, when the diameter of the borehole is increased, the stress required to initiate borehole breakout decreases to a constant value. This value can be expressed as the ratio of the tangential stress and the uniaxial compressive strength of the rock. The ratio increases exponentially with decreasing borehole diameter from about 2.5 for a 10 mm diameter hole to ~ 7 for a 1 mm borehole (increase of initiation stress by 280%) and can be described by a fracture mechanic based criterion. The reduction in borehole diameter is therefore a considerable aspect in reducing the risk of breakouts. New drilling techniques with significantly reduced borehole diameters, such as "fish-bone" holes, are already underway and are currently being tested (e.g., Xing et al., 2012). The observed strength anisotropy and the TVI material behavior are also reflected in the observed breakout processes at the borehole wall. Drill holes normal to the bedding develop breakouts in a plane of isotropy and are not affected by the strength or elasticity anisotropy. The observed breakouts are point-symmetric and form compressive shear failure planes, which can be predicted by a Mohr-Coulomb failure approach. If the shear failure planes intersect, conjugate breakouts can be described as "dog-eared” breakouts. While the initiation of breakouts for wells oriented normal to the stratification has been triggered by random local defects, reduced strengths parallel to bedding planes are the starting point for breakouts for wells parallel to the bedding. In the case of a deflected borehole trajectory, therefore, the observed failure type changes from shear-induced failure surfaces to buckling failure of individual layer packages. In addition, the breakout depths and widths increased, resulting in a stress-induced enlargement of the borehole cross-section and an increased output of rock material into the borehole. With the transition from shear to buckling failure and changing bedding plane angle with respect to the borehole axis, the stress required for inducing wellbore breakouts drops by 65%. These observations under conventional triaxial stress boundary conditions could also be confirmed under true triaxial stress conditions. Here breakouts grew into the rock as a result of buckling failure, too. In this process, the broken layer packs rotate into the pressure-free drill hole and detach themselves from the surrounding rock by tensile cracking. The final breakout shape in Posidonia shale can be described as trapezoidal when the bedding planes are parallel to the greatest horizontal stress and to the borehole axis. In the event that the largest horizontal stress is normal to the stratification, breakouts were formed entirely by shear fractures between the stratification and required higher stresses to initiate similar to breakouts in conventional triaxial experiments with boreholes oriented normal to the bedding. In the content of this work, a fracture mechanics-based failure criterion for conventional triaxial loading conditions in isotropic rocks (Dresen et al., 2010) has been successfully extended to true triaxial loading conditions in the transverse isotropic rock to predict the initiation of borehole breakouts. The criterion was successfully verified on the experiments carried out. The extended failure criterion and the conclusions from the laboratory and numerical work may help to reduce the risk of borehole breakouts in unconventional shales. N2 - Bei Bohrungen in feinlaminierten, organikreichen Schiefern werden häufig Bohrlochinstabilitäten beobachtet (Økland und Cook, 1998; Ottesen, 2010 und weitere), welche für eine sichere und erfolgreiche Erschließung der darin gespeicherten unkonventionellen Kohlenwasserstoffe vermieden werden sollten. Bohrlochinstabilitäten, wie zum Beispiel Bohrlochrandausbrüche oder bohrungsbedingte Zugrisse, führen unter Umständen zu einer schlechten bzw. unzureichenden Zementierung des Ringraum, zu Schwierigkeiten bei der Aufnahme und späteren Interpretation bohrlochgeophysikalischer Messungen sowie zu einer verringerten Kontrolle über die Auslenkung der Bohrung und im schlimmsten Fall zum Verlust der Bohrung. Werden diese Probleme nicht erkannt und fachmännisch behoben, kann es zur Verschmutzung des Grundwassers oder zum Austritt von Gasen in die Atmosphäre kommen, da die Migrationspfade der Kohlenwasserstoffe im Untergrund noch nicht vollständig verstanden sind (z.B. Davies et al., 2014; Zoback et al., 2010). Darüber hinaus wird häufig erwähnt, dass die angetroffenen Bohrprobleme und die daraus entstehenden Ausfallzeiten der Bohrlochanlage in feinlaminierten Schiefern die Bohrkosten erheblich erhöhen (Fjaer et al., 2008; Aadnoy und Ong, 2003). Um die Bohrlochinstabilitäten während des Bohrens in unkonventionellen Speichergesteinen zu verstehen und zu reduzieren, untersuchen wir in dieser Arbeit spannungsbedingte unregelmäßige Erweiterungen des Bohrlochdurchmessers, die auch als Bohrlochrandausbrüche (borehole breakouts) bezeichnet werden. Dazu wurden Versuche mit unterschiedlichen Bohrlochdurchmessern, Schichteinfallswinkeln und Belastungsrandbedingungen an feinlaminierten Posidonienschiefern durchgeführt. Der aus dem Unteren Jura stammende Posidonienschiefer ist eines der produktivsten Muttergesteine für konventionelle Lagerstätten in Europa und besitzt zeitgleich das größte Potential für unkonventionelles Öl und Gas in Europa (Littke et al., 2011). Im Rahmen dieser Arbeit wurden Posidonienschieferproben aus dem Norddeutschen (PN) und Süddeutschen (PS) Becken ausgewählt und petrophysikalisch sowie mechanisch charakterisiert. Die Zusammensetzung der beiden Schiefer wird dominiert von Kalzit (47-56%) gefolgt von Tonen (23-28%) und Quarz (16-17%). Die verbleibenden Komponenten sind hauptsächlich Pyrit und organische Substanz. Die Porosität des Schiefers schwankt beträchtlich und beträgt bis zu 10% für PS und 1% für PN, was auf eine größere Versenkungstiefe von PN zurückzuführen ist. Beide Schiefer zeigen ausgeprägte Elastizitäts- und Festigkeitsanisotropie, welche einer makroskopischen Verteilung und Orientierung von weichen und harten Mineralen zugeschrieben werden kann. Unter Belastung bilden die harten Minerale eine tragende Struktur, während die weichen Minerale die Verformung kompensieren. Daher verhält sich der Posidonienschiefer bei Belastung parallel zur Schichtfläche spröder als bei einer Belastung normal zur Schichtfläche. Die resultierende elastische Anisotropie, die über das Verhältnis des Elastizitätsmoduls parallel und normal zu Schichtung definiert werden kann, beträgt circa 50%, während die Festigkeitsanisotropie (d.h. das Verhältnis der uniaxialen Druckfestigkeit normal und parallel zur Schichtung) bis zu 66% beträgt. Basierend auf der petrophysikalischen Charakterisierung der beiden Gesteine konnte eine transversale Isotropie (TVI) abgeleitet werden. Im Allgemeinen ist PS weicher und schwächer als PN, was auf der stärkeren Verdichtung des Materials aufgrund der höheren Versenkungstiefe beruht. Konventionelle triaxiale Experimente zur Entstehung von Bohrlochrandausbrüchen an Proben mit unterschiedlichen Bohrlochdurchmessern zeigten, dass bei Vergrößerung des Bohrlochdurchmessers die zum Auslösen des Randausbruches erforderliche Spannung gegen einen konstanten Wert absinkt. Dieser kann als Verhältnis der Tangentialspannung und der einachsialen Druckfestigkeit des Gesteins ausgedrückt werden. Das Verhältnis erhöht sich exponentiell mit kleiner werdendem Bohrlochdurchmesser von circa 2,5 für ein 10 mm großes Bohrloch auf ~7 für ein 1 mm großes Bohrloch (Zunahme der Initiierungsspannung um 280%) und kann durch ein bruchmechanisch basiertes Kriterium beschrieben werden. Die Verringerung des Bohrlochdurchmessers stellt daher einen beträchtlichen Aspekt bei der Verringerung des Risikos für Bohrlochausbrüche dar. Neue Bohrtechniken mit deutlich reduzierten Bohrlochdurchmessern wie zum Beispiel „fish-bone“ Bohrungen nehmen dieses Konzept bereits auf und werden derzeit getestet (z. B. Xing et al., 2012). Die beobachtete Festigkeitsanisotropie und das TVI Materialverhalten spiegeln sich auch in den beobachteten Ausbruchsprozessen am Bohrlochrand wider. Bohrlöcher normal zur Schichtung entwickeln Randausbrüche in einer Ebene der Isotropie und werden nicht durch die Festigkeitsoder Elastizitätsanisotropie beeinflusst. Die beobachteten Ausbrüche sind punktsymmetrisch und bilden kompressive Schubversagensebenen, die durch einen Mohr-Coulomb-Versagensansatz vorhergesagt werden können. Falls sich die Schubversagensebenen schneiden, bilden sich konjugierte Ausbrüche die als „hundeohrförmig“ (dog-eared breakout) beschrieben werden können. Während die Initiierung von Randausbrüchen für Bohrlöcher normal zur Schichtung durch zufällige lokale Defekte ausgelöst wurde, sind reduzierte Festigkeiten parallel zur Schichtung der Ausgangspunkt für Bohrlochrandausbrüche für Bohrlöcher parallel zur Schichtung. Im Falle einer abgelenkten Bohrlochtrajektorie ändert sich daher der beobachtete Versagenstyp von schubdominiertem Versagensflächen zu Knickversagen einzelner Schichtpakete. Darüber hinaus nahmen die Ausbruchtiefen und -breiten zu, was zu einer spannungsbedingten Vergrößerung des Bohrlochquerschnitts und einem vermehrten Ausstoß von Gesteinsmaterial in das Bohrloch führte. Zeitgleich sinkt beim Übergang von Schub- zu Knickversagen und sich ändernden Schichteinfallswinkel, die für das Induzieren von Bohrlochrandausbrüchen notwendige Spannung um 65%, deutlich ab. Diese Beobachtungen unter konventionellen triaxialen Belastungsrandbedingungen konnten auch unter echt-triaxialen Belastungsrandbedingungen bestätigt werden. Hier wuchsen die Randausbrüche ebenfalls normal zur Schichtfläche durch Knickfehler in das Gestein. Dabei rotierten die gebrochenen Schichtpakete in das druckfreie Bohrloch und lösten sich vom umgebenden Gestein durch Zugrisse ab. Die endgültige Ausbruchform im Posidonienschiefer kann als trapezförmig beschrieben werden, wenn die Schichtfläche parallel zur größten horizontalen Spannung liegt. In dem Fall, dass die größte horizontale Spannung normal zur Schichtung orientiert ist, wurden Ausbrüche vollständig durch Scherbrüche zwischen den Schichtflächen gebildet und benötigten höhere Spannungen zur Initiierung. Im Rahmen dieser Arbeit wurde ein bruchmechanisch-basiertes Versagenskriterium für konventionelle triaxiale Belastungsbedingungen in isotropen Gesteinen (Dresen et al., 2010) erfolgreich auf echte triaxiale Belastungsbedingungen im transversal isotropen Gestein erweitert, um die Initiierung von Bohrlochrandausbrüchen vorherzusagen. Das Kriterium konnte erfolgreich an den durchgeführten Versuchen verifiziert werden. Das erweiterte Versagenskriterium und die Schlussfolgerungen aus dem Labor und der numerischen Arbeit helfen, das Risiko von Bohrlochausbrüchen in unkonventionellen Schiefern zu reduzieren. KW - borehole breakouts KW - unconventional shale KW - Posidonia shale KW - hollow cylinder experiments KW - shale strength KW - Bohrlochrandausbrüche KW - unkonventionelle Schiefer KW - Posidonienschiefer KW - Hohlzylinderversuche KW - Festigkeit des Schiefer Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-400019 ER - TY - THES A1 - Peh, Eddie K.W. T1 - Calcium carbonate formation BT - influence of various interfacial conditions Y1 - 2017 ER - TY - THES A1 - Hethey, Christoph Philipp T1 - Cell physiology based pharmacodynamic modeling of antimicrobial drug combinations T1 - Zellphysiologie-basierte pharmakodynamische Modellierung von antimikrobiellen Wirkstoffkombinationen N2 - Mathematical models of bacterial growth have been successfully applied to study the relationship between antibiotic drug exposure and the antibacterial effect. Since these models typically lack a representation of cellular processes and cell physiology, the mechanistic integration of drug action is not possible on the cellular level. The cellular mechanisms of drug action, however, are particularly relevant for the prediction, analysis and understanding of interactions between antibiotics. Interactions are also studied experimentally, however, a lacking consent on the experimental protocol hinders direct comparison of results. As a consequence, contradictory classifications as additive, synergistic or antagonistic are reported in literature. In the present thesis we developed a novel mathematical model for bacterial growth that integrates cell-level processes into the population growth level. The scope of the model is to predict bacterial growth under antimicrobial perturbation by multiple antibiotics in vitro. To this end, we combined cell-level data from literature with population growth data for Bacillus subtilis, Escherichia coli and Staphylococcus aureus. The cell-level data described growth-determining characteristics of a reference cell, including the ribosomal concentration and efficiency. The population growth data comprised extensive time-kill curves for clinically relevant antibiotics (tetracycline, chloramphenicol, vancomycin, meropenem, linezolid, including dual combinations). The new cell-level approach allowed for the first time to simultaneously describe single and combined effects of the aforementioned antibiotics for different experimental protocols, in particular different growth phases (lag and exponential phase). Consideration of ribosomal dynamics and persisting sub-populations explained the decreased potency of linezolid on cultures in the lag phase compared to exponential phase cultures. The model captured growth rate dependent killing and auto-inhibition of meropenem and - also for vancomycin exposure - regrowth of the bacterial cultures due to adaptive resistance development. Stochastic interaction surface analysis demonstrated the pronounced antagonism between meropenem and linezolid to be robust against variation in the growth phase and pharmacodynamic endpoint definition, but sensitive to a change in the experimental duration. Furthermore, the developed approach included a detailed representation of the bacterial cell-cycle. We used this representation to describe septation dynamics during the transition of a bacterial culture from the exponential to stationary growth phase. Resulting from a new mechanistic understanding of transition processes, we explained the lag time between the increase in cell number and bacterial biomass during the transition from the lag to exponential growth phase. Furthermore, our model reproduces the increased intracellular RNA mass fraction during long term exposure of bacteria to chloramphenicol. In summary, we contribute a new approach to disentangle the impact of drug effects, assay readout and experimental protocol on antibiotic interactions. In the absence of a consensus on the corresponding experimental protocols, this disentanglement is key to translate information between heterogeneous experiments and also ultimately to the clinical setting. N2 - Der Zusammenhang zwischen antibiotischer Exposition und antibakterieller Wirkung wird derzeitlich erfolgreich mithilfe von mathematischen Bakterienwachstumsmodellen studiert. Üblicherweise ignorieren diese Modelle jedoch die bakterielle Physiologie und Prozesse auf Zellebene. Es folgt, dass das mechanistische Einbinden von Wirkstoffeffekten auf Zellebene nicht möglich ist. Jedoch ist der zelluläre Wirkmechanismus besonders relevant für die Vorhersage, die Analyse und das Verständnis von Antibiotikainteraktionen. Leider gibt es keinen Konsens bezüglich des experimentellen Protokolls, um diese Interaktionen zu untersuchen. Das ist einer der Gründe, warum wir in der Literatur widersprüchliche Klassifizierungen von Antibiotikainteraktionen als additiv, synergistisch oder antagonistisch finden. In der vorliegenden Arbeit entwickelten wir ein neuartiges mathematisches Bakterienwachstumsmodel, welches Prozesse auf Zellebene in das Populationswachstum einbindet. Der Anwendungszweck dieses Models ist die Vorhersage bakteriellen Wachstums unter antimikrobieller Mehrfachexposition in vitro. Um das zu erreichen, kombinierten wir die Zellebene beschreibende Daten aus der Literatur mit Wachstumsdaten für Bacillus subtilis, Escherichia coli und Staphylococcus aureus. Die die Zellebene beschreibenden Daten bezogen sich auf Wachstums-bestimmende Charakteristika einer Referenzzelle, unter anderem auf die ribosomale Konzentration und Effizienz. Die Wachstumsdaten beinhalteten umfangreiche Zeit-Absterbe-Kurven für klinisch relevante Antibiotika (Tetracyclin, Chloramphenicol, Vancomycin, Meropenem, Linezolid) und Zweifachkombinationen aus diesen. Der neue Zellebenen-Ansatz erlaubt es erstmalig, einzelne und kombinierte Effekte der erwähnten Antibiotika für unterschiedliche experimentelle Protokolle gleichzeitig zu beschreiben. Insbesondere beziehen sich diese Unterschiede auf die Wachstumsphasen (Lag oder exponentiellen Phase). Die Berücksichtigung der ribosomalen Konzentration und persistenter Subpopulationen erklärte die verminderte Potenz von Linezolid gegen Kulturen in der Lag Phase im Vergleich zu Kulturen, die sich in der exponentiellen Phase befanden. Das Model erfasst Wachstumsraten-abhängiges Zelltöten und die Selbstinhibierung von Meropenem und - ebenso für Vancomycin - ein Wiederanwachsen der bakteriellen Kulturen aufgrund von adaptiver Resistenzentwicklung. Stochastische Analysen der Interaktionsoberflächen zeigen, dass der ausgeprägte Antagonismus zwischen Meropenem und Linezolid zwar robust gegenüber Variation der Wachstumsphase und der Definition des pharmakodynamischen Endpunktes reagiert, jedoch empfindlich von der Zeitspanne des Experiments beeinflusst wird. Desweiteren enthält der entwickelte Ansatz eine detaillierte Repräsentation des bakteriellen Zellzyklus. Wir nutzten diese Repräsentation, um Septierungsdynamiken während des Übergangs einer bakteriellen Kultur aus der exponentiellen Phase in die stationäre Phase zu beschreiben. Basierend auf einem neugewonnenen mechanistischen Verständnis für diese Übergänge, konnten wir außerdem die zeitliche Verzögerung erklären, die zwischen dem Anstieg der Zellanzahl und der Biomasse während des Übergangs von Lag zu exponentieller Phase auftritt. Außerdem reproduziert unser Modell den erhöhten intrazellulären RNA Massenanteil, der auftritt, wenn Bakterien Chloramphenikol ausgesetzt werden. Zusammenfassend steuern wir einen neuen Ansatz bei, der es erlaubt, die Einflüsse von Wirkstoffeffekten, Endpunktdefinitionen und des experimentellen Protokolls zu entflechten. Da kein Konsens hinsichtlich eines entsprechenden experimentellen Protokolls existiert, ist eine solche Entflechtung der Schlüssel, um Informationen zwischen unterschiedlichen Experimenten - und letztendlich auch in die Klinik - zu transferieren. KW - antibiotic combinations KW - bacterial population growth KW - pharmacodynamics KW - drug drug interactions KW - time-kill curves KW - ribosomal dynamics KW - Antibiotika KW - Wirkstoffinteraktionen KW - Pharmakodynamik KW - mathematische Modellierung KW - mathematical modelling Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401056 ER - TY - THES A1 - Suchoszek, Monika T1 - Characterization of inducible galactolipid biosynthesis mutants in tobacco N2 - Chloroplast membranes have a unique composition characterized by very high contents of the galactolipids, MGDG and DGDG. Many studies on constitutive, galactolipid-deficient mutants revealed conflicting results about potential functions of galactolipids in photosynthetic membranes. Likely, this was caused by pleiotropic effects such as starvation artefacts because of impaired photosynthesis from early developmental stages of the plants onward. Therefore, an ethanol inducible RNAi-approach has been taken to suppress two key enzymes of galactolipid biosynthesis in the chloroplast, MGD1 and DGD1. Plants were allowed to develop fully functional source leaves prior to induction, which then could support plant growth. Then, after the ethanol induction, both young and mature leaves were investigated over time. Our studies revealed similar changes in both MGDG- and DGDG-deficient lines, however young and mature leaves of transgenic lines showed a different response to galactolipid deficiency. While no changes of photosynthetic parameters and minor changes in lipid content were observed in mature leaves of transgenic lines, strong reductions in total chlorophyll content and in the accumulation of all photosynthetic complexes and significant changes in contents of various lipid groups occurred in young leaves. Microscopy studies revealed an appearance of lipid droplets in the cytosol of young leaves in all transgenic lines which correlates with significantly higher levels of TAGs. Since in young leaves the production of membrane lipids is lowered, the excess of fatty acids is used for storage lipids production, resulting in the accumulation of TAGs. Our data indicate that both investigated galactolipids serve as structural lipids since changes in photosynthetic parameters were mainly the result of reduced amounts of all photosynthetic constituents. In response to restricted galactolipid synthesis, thylakoid biogenesis is precisely readjusted to keep the proper stoichiometry and functionality of the photosynthetic apparatus. Ultimately, the data revealed that downregulation of one galactolipid triggers changes not only in chloroplasts but also in the nucleus as shown by downregulation of nuclear encoded subunits of the photosynthetic complexes. KW - galactolipids KW - photosynthesis KW - tobacco Y1 - 2017 ER - TY - THES A1 - Foti, Alessandro T1 - Characterization of the human aldehyde oxidase T1 - Charakterisierung der menschlichen Aldehydoxidase BT - Studies on the FAD active site and ROS generation N2 - In this work the human AOX1 was characterized and detailed aspects regarding the expression, the enzyme kinetics and the production of reactive oxygen species (ROS) were investigated. The hAOX1 is a cytosolic enzyme belonging to the molybdenum hydroxylase family. Its catalytically active form is a homodimer with a molecular weight of 300 kDa. Each monomer (150 kDa) consists of three domains: a N-terminal domain (20 kDa) containing two [2Fe-2S] clusters, a 40 kDa intermediate domain containing a flavin adenine dinucleotide (FAD), and a C-terminal domain (85 kDa) containing the substrate binding pocket and the molybdenum cofactor (Moco). The hAOX1 has an emerging role in the metabolism and pharmacokinetics of many drugs, especially aldehydes and N- heterocyclic compounds. In this study, the hAOX1 was hetereogously expressed in E. coli TP1000 cells, using a new codon optimized gene sequence which improved the expressed protein yield of around 10-fold compared to the previous expression systems for this enzyme. To increase the catalytic activity of hAOX1, an in vitro chemical sulfuration was performed to favor the insertion of the equatorial sulfido ligand at the Moco with consequent increased enzymatic activity of around 10-fold. Steady-state kinetics and inhibition studies were performed using several substrates, electron acceptors and inhibitors. The recombinant hAOX1 showed higher catalytic activity when molecular oxygen was used as electron acceptor. The highest turn over values were obtained with phenanthridine as substrate. Inhibition studies using thioridazine (phenothiazine family), in combination with structural studies performed in the group of Prof. M.J. Romão, Nova Universidade de Lisboa, showed a new inhibition site located in proximity of the dimerization site of hAOX1. The inhibition mode of thioridazine resulted in a noncompetitive inhibition type. Further inhibition studies with loxapine, a thioridazine-related molecule, showed the same type of inhibition. Additional inhibition studies using DCPIP and raloxifene were carried out. Extensive studies on the FAD active site of the hAOX1 were performed. Twenty new hAOX1 variants were produced and characterized. The hAOX1 variants generated in this work were divided in three groups: I) hAOX1 single nucleotide polymorphisms (SNP) variants; II) XOR- FAD loop hAOX1 variants; III) additional single point hAOX1 variants. The hAOX1 SNP variants G46E, G50D, G346R, R433P, A439E, K1231N showed clear alterations in their catalytic activity, indicating a crucial role of these residues into the FAD active site and in relation to the overall reactivity of hAOX1. Furthermore, residues of the bovine XOR FAD flexible loop (Q423ASRREDDIAK433) were introduced in the hAOX1. FAD loop hAOX1 variants were produced and characterized for their stability and catalytic activity. Especially the variants hAOX1 N436D/A437D/L438I, N436D/A437D/L438I/I440K and Q434R/N436D/A437D/L438I/I440K showed decreased catalytic activity and stability. hAOX1 wild type and variants were tested for reactivity toward NADH but no reaction was observed. Additionally, the hAOX1 wild type and variants were tested for the generation of reactive oxygen species (ROS). Interestingly, one of the SNP variants, hAOX1 L438V, showed a high ratio of superoxide prodction. This result showed a critical role for the residue Leu438 in the mechanism of oxygen radicals formation by hAOX1. Subsequently, further hAOX1 variants having the mutated Leu438 residue were produced. The variants hAOX1 L438A, L438F and L438K showed superoxide overproduction of around 85%, 65% and 35% of the total reducing equivalent obtained from the substrate oxidation. The results of this work show for the first time a characterization of the FAD active site of the hAOX1, revealing the importance of specific residues involved in the generation of ROS and effecting the overall enzymatic activity of hAOX1. The hAOX1 SNP variants presented here indicate that those allelic variations in humans might cause alterations ROS balancing and clearance of drugs in humans. N2 - Aldehydoxidasen (AOX) sind Molybdo-enzyme, die durch breite Substratspezifität gekennzeichnet sind, aromatische/aliphatische Aldehyde in die entsprechenden Carbonsäuren oxidieren und verschiedene heteroaromatische Ringe hydroxylieren. Die Enzyme verwenden Sauerstoff als terminalen Elektronenakzeptor und produzieren reduzierte Sauerstoffspezies während des Umsatzes. Die physiologische Funktion von Säugetier-AOX-Isoenzymen ist noch unklar, aber menschliches AOX (hAOX1) ist ein Enzym von Phase-I-Wirkstoff-Metabolismus. Weiterhin, wurden zahlreiche Einzelnukleotidpolymorphismen (SNP) und weitere hAOX1-Mutanten im hAOX1-Gen identifiziert. SNPs sind eine Hauptquelle für die interindividuelle Variabilität in der menschlichen Population, und SNP-basierte Aminosäureaustausche in hAOX1 modulieren die katalytische Funktion des Enzyms entweder positiv oder negativ. In diesem Bericht haben wir zehn neue SNPs ausgewählt, die zu Aminosäureaustauschen in der Nähe der FAD-Cofaktor von hAOX1 führen und die gereinigten Enzyme nach heterologen Expression in Escherichia coli charakterisieren. Darüber hinaus haben wir zehn weitere FAD-Varianten produziert. Die hAOX1-Varianten wurden sorgfältig durch quantitative Unterschiede in ihrer Fähigkeit zur Herstellung von Superoxidradikal charakterisiert. ROS repräsentieren markante Schlüsselmoleküle in physiologischen und pathologischen Zuständen in der Zelle. Unsere Daten zeigen signifikante Veränderungen der Superoxid-Anionenproduktion unter den Varianten. Insbesondere führte der Rest L438 in der Nähe des Isoalloxanzinringes des FAD-Cofaktors zu einer erhöhten Superoxid-Radikalproduktion von 75-85%. In Anbetracht der hohen Toxizität des Superoxid-Anions in der Zelle ist die hAOX1-L438V SNP-Variante ein eventueller Kandidat für kritische oder pathologische Rollen dieser natürlichen Variante innerhalb der menschlichen Population. KW - aldehyde KW - oxidase KW - ROS KW - reactive oxygen species Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410107 ER - TY - THES A1 - Roland, Steffen T1 - Charge carrier recombination and open circuit voltage in organic solar cells T1 - Ladungsträger Rekombination und Leerlaufspannung in organischen Solarzellen BT - from bilayer-model systems to hybrid multi-junctions BT - von Bilayer Modellsystemen zu hybriden Mehrschichtsolarzellen N2 - Tremendous progress in the development of thin film solar cell techniques has been made over the last decade. The field of organic solar cells is constantly developing, new material classes like Perowskite solar cells are emerging and different types of hybrid organic/inorganic material combinations are being investigated for their physical properties and their applicability in thin film electronics. Besides typical single-junction architectures for solar cells, multi-junction concepts are also being investigated as they enable the overcoming of theoretical limitations of a single-junction. In multi-junction devices each sub-cell operates in different wavelength regimes and should exhibit optimized band-gap energies. It is exactly this tunability of the band-gap energy that renders organic solar cell materials interesting candidates for multi-junction applications. Nevertheless, only few attempts have been made to combine inorganic and organic solar cells in series connected multi-junction architectures. Even though a great diversity of organic solar cells exists nowadays, their open circuit voltage is usually low compared to the band-gap of the active layer. Hence, organic low band-gap solar cells in particular show low open circuit voltages and the key factors that determine the voltage losses are not yet fully understood. Besides open circuit voltage losses the recombination of charges in organic solar cells is also a prevailing research topic, especially with respect to the influence of trap states. The exploratory focus of this work is therefore set, on the one hand, on the development of hybrid organic/inorganic multi-junctions and, on the other hand, on gaining a deeper understanding of the open circuit voltage and the recombination processes of organic solar cells. In the first part of this thesis, the development of a hybrid organic/inorganic triple-junction will be discussed which showed at that time (Jan. 2015) a record power conversion efficiency of 11.7%. The inorganic sub-cells of these devices consist of hydrogenated amorphous silicon and were delivered by the Competence Center Thin-Film and Nanotechnology for Photovoltaics in Berlin. Different recombination contacts and organic sub-cells were tested in conjunction with these inorganic sub-cells on the basis of optical modeling predictions for the optimal layer thicknesses to finally reach record efficiencies for this type of solar cells. In the second part, organic model systems will be investigated to gain a better understanding of the fundamental loss mechanisms that limit the open circuit voltage of organic solar cells. First, bilayer systems with different orientation of the donor and acceptor molecules were investigated to study the influence of the donor/acceptor orientation on non-radiative voltage loss. Secondly, three different bulk heterojunction solar cells all comprising the same amount of fluorination and the same polymer backbone in the donor component were examined to study the influence of long range electrostatics on the open circuit voltage. Thirdly, the device performance of two bulk heterojunction solar cells was compared which consisted of the same donor polymer but used different fullerene acceptor molecules. By this means, the influence of changing the energetics of the acceptor component on the open circuit voltage was investigated and a full analysis of the charge carrier dynamics was presented to unravel the reasons for the worse performance of the solar cell with the higher open circuit voltage. In the third part, a new recombination model for organic solar cells will be introduced and its applicability shown for a typical low band-gap cell. This model sheds new light on the recombination process in organic solar cells in a broader context as it re-evaluates the recombination pathway of charge carriers in devices which show the presence of trap states. Thereby it addresses a current research topic and helps to resolve alleged discrepancies which can arise from the interpretation of data derived by different measurement techniques. N2 - In der Photovoltaikforschung spielen neuartige Dünnschichtsolarzellen eine immer größere Rolle. Neben innovativen Design und Anwendungskonzepten sind Material und Kostenreduzierung in der Herstellung die größten Triebfedern für die Entwicklung neuer Technologien. Hier sind neben den vielversprechenden Perowskitsolarzellen insbesondere organische Solarzellen zu nennen, die sich durch ihre chemische Vielseitigkeit, einfache Verarbeitung und stetige Weiterentwicklung in Bezug auf ihre Effizienz auszeichnen. Diese Vielseitigkeit ermöglicht die Herstellung organischer Solarzellen mit unterschiedlicher spektraler Empfindlichkeit, was wiederum Vorteile für den Einsatz in seriengeschaltete Mehrschichtsolarzellen bietet. Diese erlauben es, fundamentale Limitierungen von Einschichtsolarzellsystemen zu überwinden. Der erste Teil dieser Arbeit befasst sich daher mit der Entwicklung einer neuartigen hybriden Multischichtsolarzelle, die sowohl aus anorganischen als auch organischen Subzellen besteht und zum Zeitpunkt ihrer Veröffentlichung einen neuen Effizienzrekord für diese Klasse von Solarzellen aufzeigte. Der zweite Teil der Arbeit befasst sich mit fundamentalen physikalischen Prozessen in organischen Solarzellen, da viele Funktionsmechanismen noch nicht im Detail geklärt sind. An verschiedenen organischen Modellsolarzellsystemen wurde daher unter anderem der Einfluss molekularer Orientierung von Donor- und Akzeptorkomponenten der Solarzelle oder der Einfluss von Fluorinierung des Donors auf die Leerlaufspannung der Solarzelle untersucht. Auf diese Weise konnten neue wichtige Erkenntnisse über den Einfluss von verschiedenen Verlustkanälen und der Energetik auf die Leerlaufspannung gewonnen werden. Der letzte Teil der Arbeit widmet sich der Entwicklung eines neuen Modells, welches den Rekombinationsprozess von Ladungen in einer bestimmten organischen Solarzelle beschreibt. Dieses neue Modell wurde anhand umfangreicher Experimente validiert und ermöglicht es, insbesondere den Einfluss freier und in sogenannten Fallenzuständen gefangener Ladungen auf die Rekombination zu trennen. Damit hat dieses Modell eine weitreichende Bedeutung, zum einen für die Beurteilung von typischen Rekombinationsexperimenten in organischen Solarzellen und zum anderen für die Bewertung des Einflusses von Fallenzuständen auf den Rekombinationsstrom. KW - organic solar cells KW - charge carrier recombination KW - open circuit voltage KW - hybrid multi-junction solar cell KW - organische Solarzellen KW - Ladungsträgerrekombination KW - Leerlaufspannung KW - hybride Mehrschichtsolarzellen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397721 ER - TY - THES A1 - Leonhardt, Helmar T1 - Chemotaxis, shape and adhesion dynamics of amoeboid cells studied by impedance fluctuations in open and confined spaces T1 - Chemotaxis, Formänderung und Adhäsionsdynamik amöboider Zellen gemessen durch Impedanzfluktuation N2 - Die vorliegende Arbeit befasst sich mit elektrischen Impedanzmessungen von ameoboiden Zellen auf Mikroelektroden. Der Modellorganismus Dictyostelium discoideum zeigt unter der Bedingung des Nahrungsentzugs einen Übergang zum kollektiven Verhalten, bei dem sich chemotaktische Zellen zu einem multizellulären Aggregat zusammenschliessen. Wir zeigen wie Impedanzaufnahmen über die Dynamik der Zell-substrat Adhäsion ein präzises Bild der Phasen der Aggregation liefern. Darüberhinaus zeigen wir zum ersten mal systematische Einzelzellmessungen von Wildtyp-Zellen und vier Mutanten, die sich in der Stärke der Substratadh äsion unterscheiden. Wir zeichneten die projizierte Zellfläche durch Zeitverlaufsmikroskopie auf und fanden eine Korrelation zwischen den quasi-periodischen Oszillationen in der Kinetik der projizierten Fläche - der Zellform-Oszillation - und dem Langzeittrend des Impedanzsignals. Amoeboidale Motilität offenbart sich typischerweise durch einen Zyklus von Membranausstülpung, Substratadhäsion, Vorwärtsziehen des Zellkörpers und Einziehen des hinteren Teils der Zelle. Dieser Motilitätszyklus resultiert in quasi-periodischen Oszillationen der projizierten Zellfläche und der Impedanz. In allen gemessenen Zelllinien wurden für diesen Zyklus ähnliche Periodendauern beobachtet trotz der Unterschiede in der Anhaftungsstärke. Wir beobachteten, dass die Stärke der Zell-substrat Anhaftung die Impedanz stark beeinflusst, indem die Abweichungen vom Mittelwert (die Grösse der Fluktuationen) vergrössert sind bei Zellen, die die vom Zytoskelett generierten Kräfte effektiv auf das Substrat übertragen. Zum Beispiel sind bei talA- Zellen, in welchen das Actin verankernde Protein Talin fehlt, die Fluktuationen stark reduziert. Einzelzellkraft-Spektroskopie und Ergebnisse eines Ablösungsassays, bei dem Adhäsionskraft gemessen wird indem Zellen einer Scherspannung ausgesetzt werden, bestätigen, dass die Grösse der Impedanz-fluktuationen ein korrektes Mass für die Stärke der Substratadhäsion ist. Schliesslich haben wir uns auch mit dem Einbau von Zell-substrat-Impedanz-Sensoren in mikro-fluidische Apparaturen befasst. Ein chip-basierter elektrischer Chemotaxis Assay wurde entwickelt, der die Geschwindigkeit chemotaktischer Zellen misst, welche entlang eines chemischen Konzentrationsgradienten über Mikroelektroden wandern. N2 - We present electrical impedance measurements of amoeboid cells on microelectrodes. The model organism Dictyostelium discoideum shows under starvation conditions a transition to collective behavior when chemotactic cells collect in multicellular aggregates. We show how impedance recordings give a precise picture of the stages of aggregation by tracing the dynamics of cell-substrate adhesion. Furthermore, we present for the first time systematic single cell measurements of wild type cells and four mutant strains that differ in their substrate adhesion strength. We recorded the projected cell area by time lapse microscopy and found a correlation between quasi-periodic oscillations in the kinetics of the projected area - the cell shape oscillation - and the long-term trend in the impedance signal. Typically, amoeboid motility advances via a cycle of membrane protrusion, substrate adhesion, traction of the cell body and tail retraction. This motility cycle results in the quasi-periodic oscillations of the projected cell area and the impedance. In all cell lines measured, similar periods were observed for this cycle, despite the differences in attachment strength. We observed that cell-substrate attachment strength strongly affects the impedance in that the deviations from mean (the magnitude of fluctuations) are enhanced in cells that effectively transmit forces, generated by the cytoskeleton, to the substrate. For example, in talA- cells, which lack the actin anchoring protein talin, the fluctuations are strongly reduced. Single cell force spectroscopy and results from a detachment assay, where adhesion is measured by exposing cells to shear stress, confirm that the magnitude of impedance fluctuations is a correct measure for the strength of substrate adhesion. Finally, we also worked on the integration of cell-substrate impedance sensors into microfluidic devices. A chip-based electrical chemotaxis assay is designed which measures the speed of chemotactic cells migrating over microelectrodes along a chemical concentration gradient. KW - ECIS KW - cell-substrate adhesion KW - cell movement KW - electrical chemotaxis assay KW - ECIS KW - Zell-substrat Adhäsion KW - Zell Bewegung KW - elektrischer Chemotaxis Assy Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405016 ER - TY - THES A1 - van Noort, Betteke Maria T1 - Children with early-onset anorexia nervosa and their cognitive abilities Y1 - 2017 ER - TY - THES A1 - Gudipudi, Venkata Ramana T1 - Cities and global sustainability T1 - Städte und globale Nachhaltigkeit BT - insights from emission and ecological efficiency BT - Einblicke von Emission und ökologischer Effizienz N2 - In the wake of 21st century, humanity witnessed a phenomenal raise of urban agglomerations as powerhouses for innovation and socioeconomic growth. Driving much of national (and in few instances even global) economy, such a gargantuan raise of cities is also accompanied by subsequent increase in energy, resource consumption and waste generation. Much of anthropogenic transformation of Earth's environment in terms of environmental pollution at local level to planetary scale in the form of climate change is currently taking place in cities. Projected to be crucibles for entire humanity by the end of this century, the ultimate fate of humanity predominantly lies in the hands of technological innovation, urbanites' attitudes towards energy/resource consumption and development pathways undertaken by current and future cities. Considering the unparalleled energy, resource consumption and emissions currently attributed to global cities, this thesis addresses these issues from an efficiency point of view. More specifically, this thesis addresses the influence of population size, density, economic geography and technology in improving urban greenhouse gas (GHG) emission efficiency and identifies the factors leading to improved eco-efficiency in cities. In order to investigate the in uence of these factors in improving emission and resource efficiency in cities, a multitude of freely available datasets were coupled with some novel methodologies and analytical approaches in this thesis. Merging the well-established Kaya Identity to the recently developed urban scaling laws, an Urban Kaya Relation is developed to identify whether large cities are more emission efficient and the intrinsic factors leading to such (in)efficiency. Applying Urban Kaya Relation to a global dataset of 61 cities in 12 countries, this thesis identifed that large cities in developed regions of the world will bring emission efficiency gains because of the better technologies implemented in these cities to produce and utilize energy consumption while the opposite is the case for cities in developing regions. Large cities in developing countries are less efficient mainly because of their affluence and lack of efficient technologies. Apart from the in uence of population size on emission efficiency, this thesis identified the crucial role played by population density in improving building and on-road transport sector related emission efficiency in cities. This is achieved by applying the City Clustering Algorithm (CCA) on two different gridded land use datasets and a standard emission inventory to attribute these sectoral emissions to all inhabited settlements in the USA. Results show that doubling the population density would entail a reduction in the total CO2 emissions in buildings and on-road sectors typically by at least 42 %. Irrespective of their population size and density, cities are often blamed for their intensive resource consumption that threatens not only local but also global sustainability. This thesis merged the concept of urban metabolism with benchmarking and identified cities which are eco-efficient. These cities enable better socioeconomic conditions while being less burden to the environment. Three environmental burden indicators (annual average NO2 concentration, per capita waste generation and water consumption) and two socioeconomic indicators (GDP per capita and employment ratio) for 88 most populous European cities are considered in this study. Using two different non-parametric ranking methods namely regression residual ranking and Data Envelopment Analysis (DEA), eco-efficient cities and their determining factors are identified. This in-depth analysis revealed that mature cities with well-established economic structures such as Munich, Stockholm and Oslo are eco-efficient. Further, correlations between objective eco-efficiency ranking with each of the indicator rankings and the ranking of urbanites' subjective perception about quality of life are analyzed. This analysis revealed that urbanites' perception about quality of life is not merely confined to the socioeconomic well-being but rather to their combination with lower environmental burden. In summary, the findings of this dissertation has three general conclusions for improving emission and ecological efficiency in cities. Firstly, large cities in emerging nations face a huge challenge with respect to improving their emission efficiency. The task in front of these cities is threefold: (1) deploying efficient technologies for the generation of electricity and improvement of public transportation to unlock their leap frogging potential, (2) addressing the issue of energy poverty and (3) ensuring that these cities do not develop similar energy consumption patterns with infrastructure lock-in behavior similar to those of cities in developed regions. Secondly, the on-going urban sprawl as a global phenomenon will decrease the emission efficiency within the building and transportation sector. Therefore, local policy makers should identify adequate fiscal and land use policies to curb urban sprawl. Lastly, since mature cities with well-established economic structures are more eco-efficient and urbanites' perception re ects its combination with decreasing environmental burden; there is a need to adopt and implement strategies which enable socioeconomic growth in cities whilst decreasing their environment burden. N2 - Im Laufe des 21. Jahrhunderts verzeichnete die Menschheit eine gewaltige Zunahme urbaner Agglomerationen als Motor für Innovation und soziökonomisches Wachstum. Angetrieben durch die nationale (und in wenigen Fällen auch globale) Wirtschaft, dieser gigantische Aufstieg der Städte ist allerdings auch mit einer Zunahme von Energie- und Ressourcenverbrauch sowie erhöhter Abfallerzeugung verbunden. Ein Großteil der anthropogenen Transformation der Umwelt in Form von Klimaveränderungen von der lokalen Ebene bis in die planetarische Dimension findet derzeit in Städten statt. Angenommen dass bis zum Ende des Jahrhunderts die gesamte Menschheit in einer Art Schmelztiegel miteinander verbunden sein wird, dann hängt ihr Schicksal von der Umsetzung innovativer und überlegender Entwicklungspfade heutiger und zukünftiger Städte ab. Angesichts des unvergleichlichen Energie- und Ressourcenverbrauchs sowie der Emissionen, die derzeit in Städten verursacht werden, befasst sich diese Arbeit mit genau diesen Fragen aus der Perspektive der Effizienz. Genauer gesagt, diese Arbeit befasst sich mit dem Einfluss der städtischen Größe, Dichte, Wirtschaftsgeographie und Technologie zur Verbesserung der Emissionseffizienz der städtischen Treibhausgase, mit dem Ziel die Faktoren, die zu einer Verbesserung der ökoeffizienz in Städten führt, zu identifizieren. Um den Einfluss dieser Faktoren auf die Verbesserung der Emissions- und Ressourceneffizienz in Städten zu untersuchen, wurden in dieser Arbeit eine Vielzahl von frei verfügbaren Datensätzen mit neuartigen Methoden und analytischen Ansätzen gekoppelt. Durch die Verschmelzung der bereits etablierten Kaya-Identität‘ mit den kürzlich entwickelten urbanen Skalierungsgesetzen wird eine ’urbane Kaya-Relation’ entwickelt, um herauszufinden, ob Großstädte emissionsärmer also effizienter sind und welche Faktoren zu dieser (In-)Effizienz führen. Dafür wurde die ’urbanen Kaya-Relation’ auf einen globalen Datensatz für 61 Städte in 12 Ländern angewendet. Die vorliegende Arbeit kommt zu dem Ergebnis, dass den Großstädten in den entwickelten Regionen der Welt Effizienzgewinne aufgrund des Einsatzes besserer Technologien für die Produktion und Nutzung von Energie gelingt, während für die Städte in Entwicklungsländern das Gegenteil gilt. Großstädte in Entwicklungsländern sind weniger effizient, vor allem wegen ihres Wohlstands und des Mangels an effizienten Technologien. Abgesehen vom Einfluss der Bevölkerungsgröße auf die Emissionseffizienz, zeigt diese Arbeit auch die entscheidende Rolle der Bevölkerungsdichte bei der Effizienzsteigerung im Bau- und Transportsektor. Dies wird durch die Anwendung des City Clustering Algorithmus (CCA) auf zwei verschiedene raster-basierte Landnutzungsdatensätze und ein Standard-Emissionskataster erreicht, um die sektoralen Emissionen allen bewohnten Siedlungen in den USA zuzuordnen. Die Ergebnisse zeigen, dass eine Verdoppelung der Bevölkerungsdichte eine Verringerung der CO2-Gesamtemissionen in Gebäuden und Straßenverkehrssektoren um typischerweise mindestens 42% bedeuten würde. Unabhängig von der Bevölkerungsgröße und -dichte werden Städte häufig für ihren intensiven Ressourcenverbrauch verantwortlich gemacht, der nicht nur die lokale, sondern auch die globale Nachhaltigkeit bedroht. Diese Arbeit verbindet das Konzept des urbanen Metabolismus mit Benchmarking und identifiziert Städten, die ökoeffizient sind. Diese Städte bieten bessere sozioökonomische Bedingungen und belasten die Umwelt weniger. In dieser Studie werden drei Indikatoren für die Umweltbelastung (jährliche durchschnittliche NO2-Konzentration, Abfallaufkommen pro Kopf und Wasserverbrauch) und zwei sozioökonomische Indikatoren (BIP pro Kopf und Beschäftigungsquote) für die 88 bevölkerungsreichsten europäischen Städte berücksichtigt. Mithilfe von zwei verschiedenen Rankingmethoden, einerseits dem regression residual ranking‘ und der Data Envelopment Analysis‘ (DEA), werden ökoeffiziente Städte und ihre Bestimmungsfaktoren identifiziert. Die gründliche Analyse ergab, dass die gewachsenen Städte mit etablierten städtischen Wirtschaften wie München, Stockholm und Oslo ökoeffizient sind. Weiterhin wurden Zusammenhänge zwischen objektiven ökoeffizienz Einstufungen (ranking) mit den Einstufungen hinsichtlich einzelner Indikatoren sowie der subjektiven Wahrnehmung der Stadtbewohner über ihre Lebensqualität analysiert. Diese Analyse ergab, dass sich die Wahrnehmung der Lebensqualität von Stadtbewohnern nicht nur auf das sozioökonomische Wohlergehen beschränkt, sondern auch auf die Kombination mit einer geringeren Umweltbelastung. Zusammenfassend lässt sich sagen, dass die Ergebnisse dieser Dissertation drei generelle Schlussfolgerungen zur Verbesserung der Emissions- und ökoeffizienz in Städten enthalten. Erstens stehen Großstädte in Schwellenländern wie China, Indien und Brasilien vor einer großen Herausforderung, ihre Emissionseffizienz zu verbessern. Vor diesen Städten stehen drei Aufgaben: (1) Einsatz effizienter Technologien zur Stromerzeugung und Verbesserung des öffentlichen Verkehrs, (2) Bekämpfung der Energiearmut und (3) Sicherstellung, dass diese Städte keine Energiekonsummuster entwickeln, die dem infrastrukturellen Lock-in-Verhalten‘ der Städte in entwickelten Regionen ähneln. Zweitens wird die fortschreitende Zersiedelung der Städte als globales Phänomen die Emissionseffizienz im Bau- und Verkehrssektor verringern. Daher sollten die lokalen politischen Entscheidungsträger angemessene fiskal- und landnutzungspolitische Maßnahmen zur Eindämmung der Zersiedelung der Städte festlegen. Schließlich müssen Strategien verabschiedet und umgesetzt werden, die das sozioökonomische Wachstum in den Städten ermöglicht und gleichzeitig die Umweltbelastung verringert, wie es in den gewachsenen Städten bereits heute vorzufinden ist. KW - cities KW - climate change KW - urban efficiency KW - sustainable urban development KW - Städe KW - Klimawandel KW - Städte Effizienz KW - nachaltige Städteentwicklung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407113 ER - TY - THES A1 - Weege, Stefanie T1 - Climatic drivers of retrogressive thaw slump activity and resulting sediment and carbon release to the nearshore zone of Herschel Island, Yukon Territory, Canada T1 - Einfluss des Klimas auf das Auftauen einer rückschreitenden Erosionsfront und die daraus resultierende Sediment- und Kohlenstofffreigabe in den Küstenbereich von Herschel Island, Kanada N2 - The Yukon Coast in Canada is an ice-rich permafrost coast and highly sensitive to changing environmental conditions. Retrogressive thaw slumps are a common thermoerosion feature along this coast, and develop through the thawing of exposed ice-rich permafrost on slopes and removal of accumulating debris. They contribute large amounts of sediment, including organic carbon and nitrogen, to the nearshore zone. The objective of this study was to 1) identify the climatic and geomorphological drivers of sediment-meltwater release, 2) quantify the amount of released meltwater, sediment, organic carbon and nitrogen, and 3) project the evolution of sediment-meltwater release of retrogressive thaw slumps in a changing future climate. The analysis is based on data collected over 18 days in July 2013 and 18 days in August 2012. A cut-throat flume was set up in the main sediment-meltwater channel of the largest retrogressive thaw slump on Herschel Island. In addition, two weather stations, one on top of the undisturbed tundra and one on the slump floor, measured incoming solar radiation, air temperature, wind speed and precipitation. The discharge volume eroding from the ice-rich permafrost and retreating snowbanks was measured and compared to the meteorological data collected in real time with a resolution of one minute. The results show that the release of sediment-meltwater from thawing of the ice-rich permafrost headwall is strongly related to snowmelt, incoming solar radiation and air temperature. Snowmelt led to seasonal differences, especially due to the additional contribution of water to the eroding sediment-meltwater from headwall ablation, lead to dilution of the sediment-meltwater composition. Incoming solar radiation and air temperature were the main drivers for diurnal and inter-diurnal fluctuations. In July (2013), the retrogressive thaw slump released about 25 000 m³ of sediment-meltwater, containing 225 kg dissolved organic carbon and 2050 t of sediment, which in turn included 33 t organic carbon, and 4 t total nitrogen. In August (2012), just 15 600 m³ of sediment-meltwater was released, since there was no additional contribution from snowmelt. However, even without the additional dilution, 281 kg dissolved organic carbon was released. The sediment concentration was twice as high as in July, with sediment contents of up to 457 g l-1 and 3058 t of sediment, including 53 t organic carbon and 5 t nitrogen, being released. In addition, the data from the 36 days of observations from Slump D were upscaled to cover the main summer season of 1 July to 31 August (62 days) and to include all 229 active retrogressive thaw slumps along the Yukon Coast. In total, all retrogressive thaw slumps along the Yukon Coast contribute a minimum of 1.4 Mio. m³ sediment-meltwater each thawing season, containing a minimum of 172 000 t sediment with 3119 t organic carbon, 327 t nitrogen and 17 t dissolved organic carbon. Therefore, in addition to the coastal erosion input to the Beaufort Sea, retrogressive thaw slumps additionally release 3 % of sediment and 8 % of organic carbon into the ocean. Finally, the future evolution of retrogressive thaw slumps under a warming scenario with summer air temperatures increasing by 2-3 °C by 2081-2100, would lead to an increase of 109-114% in release of sediment-meltwater. It can be concluded that retrogressive thaw slumps are sensitive to climatic conditions and under projected future Arctic warming will contribute larger amounts of thawed permafrost material (including organic carbon and nitrogen) into the environment. N2 - Die Yukon Küste in Kanada ist eine eisreiche Permafrost Küste und reagiert hoch sensibel auf verändernde Umweltbedingungen. Rückschreitende auftaubedingte Rutschungen sind vielzählig entlang der Küste und entstehen, wenn exponierter eisreicher Permafrost an Hängen auftaut und der daraus resultierende Schlamm abtransportiert wird. Diese Rutschungen tragen große Mengen von Sediment, inklusive organischen Kohlenstoff und Stickstoff, in den küstennahen Bereich. Das Ziel dieser Studie war 1) die klimatischen und geomorphologischen Antriebskräfte für die Freisetzung von Sediment-Schmelzwasser zu identifizieren 2) die Mengen an Schmelzwasser, Sediment, organischen Kohlenstoff und Stickstoff zu quantifizieren und 3) die Entwicklung der Sediment-Schmelzwasser-Freigabe von rückschreitenden Rutschungen unter zukünftigen klimatischen Veränderungen abzuschätzen. Die größte rückschreitende Rutschung auf Herschel Island wird als „Slump D“ bezeichnet und steht im Fokus dieser Arbeit. Die Analysen basierten auf den Daten, die über 18 Tage im Juli (2013) und 18 Tage im August (2012) erhoben wurden. Eine Abfluss-Messrinne wurde in den Haupt-Sediment-Schmelzwasser-Kanal eingebaut, um die Sediment-Schmelzwassermassen zu erfassen. Zusätzlich wurden zwei Wetterstationen aufgebaut (auf der unberührten Tundra und innerhalb der Erosionsfläche), die Sonneneinstrahlung, Lufttemperatur, Windgeschwindigkeit und Niederschlagsmenge aufzeichneten. Das Abflussvolumen, das vom auftauenden, eisreichen Permafrost und den schmelzenden Schneebänken ablief, wurde gemessen und mit den meteorologischen Daten in Echtzeit mit einer Auflösung von einer Minute verglichen. Die Ergebnisse zeigen, dass eine Freigabe von Sediment-Schmelzwasser beim Auftauen der eisreichen Permafrost-Steilklippe stark von Schneeschmelze, Sonneneinstrahlung und Lufttemperatur abhängen. Die Schneeschmelze führt zu saisonalen Unterschieden, besonders durch den zusätzlichen Betrag von Wasser zu dem erodierenden Sediment-Schmelzwasser der auftauenden Steilklippe. Dies führt zu einer Verdünnung des Sediment-Schmelzwassers. Sonneneinstrahlung und Lufttemperaturen waren die Hauptantriebskräfte für die Schwankungen im Tagesverlauf und die Unterschiede zwischen den Tagen. Die rückschreitende Rutschung gab im Juli (2013) ungefähr 25 000 m³ Sediment-Schmelzwasser frei, welches 225 kg gelösten organischen Kohlenstoff, 2050 t Sediment, inklusive 33 t organischen Kohlenstoff und 4 t Stickstoff enthielt. Im August (2012) fehlte der zusätzliche Eintrag der Schneeschmelze und das Sediment-Schmelzwasser-Volumen war geringer mit 15 600 m³. Dennoch, ohne die zusätzliche Verdünnung, wurden 281 kg gelöster organischer Kohlenstoff freigesetzt. Die Sedimentkonzentration war doppelt so hoch und führte zu einem Sedimentgehalt mit bis zu 457 g l-1 zu 3058 t Sediment, inklusive 53 t organischen Kohlenstoff und 5 t Stickstoff. Zusätzlich wurden die Daten der 36-tägigen Abflussmessung der rückschreitenden Rutschung auf 62 Tage, von 1. Juli bis 31. August auf alle 229 aktiven Rutschungen entlang der Yukon Küste hochgerechnet. Es wurde diskutiert, dass alle rückschreitenden Rutschungen entlang der Yukon Küste zusammen mindestens 1,4 Mio. m³ Sediment-Schmelzwasser während jeder Auftausaison freigeben. Diese enthalten ein Minimum von 172 000 t Sediment, 3119 t organischen Kohlenstoff, 327 t Stickstoff und 17 t gelösten organischen Kohlenstoff. Daher kann zusammengefasst werden, dass zusätzlich zur Küstenerosion von allen Rutschungen noch ein zusätzlicher Beitrag von 3 % Sediment und 8 % organischen Kohlenstoff in die Beaufort See eingetragen wird. Schließlich wurde die zukünftige Entwicklung dieser rückschreitenden Rutschungen bei einem Temperaturanstieg von 2-3 °C bis 2081-2100 diskutiert. Dies könnte zu einem Anstieg der Sediment-Schmelzwasser-Freigabe von 109-114 % führen. Es kann daraus geschlossen werden, dass rückschreitende Rutschungen sensibel auf Klimabedingungen reagieren und mit der Arktischen Erwärmung größere Mengen an auftauenden Permafrost (inklusive organischen Kohlenstoff und Stickstoff) in die Umwelt freigeben werden. KW - permafrost KW - arctic KW - Canada KW - coast KW - erosion KW - Permafrost KW - Arktik KW - Kanada KW - Küste KW - Erosion Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397947 ER - TY - THES A1 - Schedina, Ina-Maria T1 - Comparative genetic and transcriptomic analyses of the amazon molly, poecilia formosa and its parental species, poecilia mexicana and poecilia latipinna Y1 - 2017 ER - TY - THES A1 - Pandey-Pant, Pooja T1 - Comparative transcriptomics and functional genomics during phosphorus limitation in plants Y1 - 2017 ER - TY - THES A1 - Shenar, Tomer T1 - Comprehensive analyses of massive binaries and implications on stellar evolution T1 - Umfassende Analysen massereicher Doppelsterne und Implikationen für die Sternentwicklung N2 - Via their powerful radiation, stellar winds, and supernova explosions, massive stars (Mini & 8 M☉) bear a tremendous impact on galactic evolution. It became clear in recent decades that the majority of massive stars reside in binary systems. This thesis sets as a goal to quantify the impact of binarity (i.e., the presence of a companion star) on massive stars. For this purpose, massive binary systems in the Local Group, including OB-type binaries, high mass X-ray binaries (HMXBs), and Wolf-Rayet (WR) binaries, were investigated by means of spectral, orbital, and evolutionary analyses. The spectral analyses were performed with the non-local thermodynamic equillibrium (non-LTE) Potsdam Wolf-Rayet (PoWR) model atmosphere code. Thanks to critical updates in the calculation of the hydrostatic layers, the code became a state-of-the-art tool applicable for all types of hot massive stars (Chapter 2). The eclipsing OB-type triple system δ Ori served as an intriguing test-case for the new version of the PoWR code, and provided key insights regarding the formation of X-rays in massive stars (Chapter 3). We further analyzed two prototypical HMXBs, Vela X-1 and IGR J17544-2619, and obtained fundamental conclusions regarding the dichotomy of two basic classes of HMXBs (Chapter 4). We performed an exhaustive analysis of the binary R 145 in the Large Magellanic Cloud (LMC), which was claimed to host the most massive stars known. We were able to disentangle the spectrum of the system, and performed an orbital, polarimetric, and spectral analysis, as well as an analysis of the wind-wind collision region. The true masses of the binary components turned out to be significantly lower than suggested, impacting our understanding of the initial mass function and stellar evolution at low metallicity (Chapter 5). Finally, all known WR binaries in the Small Magellanic Cloud (SMC) were analyzed. Although it was theoretical predicted that virtually all WR stars in the SMC should be formed via mass-transfer in binaries, we find that binarity was not important for the formation of the known WR stars in the SMC, implying a strong discrepancy between theory and observations (Chapter 6). N2 - Durch ihre intensive Strahlung, Sternwinde und Supernovaexplosionen tragen massereiche Sterne (Minitial & 8 M☉) erheblich zur Entwicklung von Galaxien bei. In den letzten Jahren wurde es immer klarer, dass sich die Mehrheit der massereichen Sterne in Doppelsternsystemen befindet. Die vorliegende Doktorarbeit hat das Ziel, den Einfluss dieser Tatsache auf die Entwicklung massereicher Sterne quantitativ zu untersuchen. Um dies zu erreichen, haben wir eine Analyse der Umläufe, Spektren und Entwicklung verschiedener Doppelsternsysteme in der lokalen Gruppe durchgeführt, die OB-Sterne, massereicher Röntgendoppelsterne (HMXBs) und Wolf-Rayet-(WR)-Doppelsterne einschließt. Die Spektralanalyse wurde mithilfe des Potsdam-Wolf-Rayet-(PoWR)-Modellatmosphären-Programms für Strahlungstransport in Abwesenheit von lokalem thermodynamischen Gleichgewicht (non-LTE) durchgeführt. Das PoWR-Programm wurde im Laufe der Arbeit aktualisiert, sodass die Berechnung der hydrostatischen Schichten des Sternes nun wesentlich genauer erfolgt, was die Verwendung dieses Programms für alle Typen heißer massereicher Sterne erlaubte (Kapitel 2). Das bedeckungsveränderliche Dreifachsternsystem δ Ori diente als Test für diese neue Version von PoWR, und lieferte wesentliche Informationen bezüglich der Entstehung von Röntgenstrahlung in massereichen Sternen (Kapitel 3). Die Analyse zweier prototypischer massereicher Röntgendoppelsterne, Vela X-1 und IGR J17544-2619, machte den Ursprung der Dichotomie der zwei Hauptklassen der Röntgendoppelsterne deutlich (Kapitel 4). Eine umfassende Analyse des Doppelsterns R145 in der Großen Magellanschen Wolke (LMC), der angeblich aus den massereichsten uns bekannten Sternen besteht, wurde durchgeführt. Mithilfe einer Dekomposition des Spektrums, einer Orbital- und Spektralanalyse, sowie einer Analyse der Kollision von Sternwinden in diesem System konnten wir zeigen, dass die Massen der Komponenten wesentlich kleiner sind als bisher angenommen. Dies ist ein wichtiger Beitrag zu unserem Verständnis der Anfangsmassenfunktion und der Entwicklung massereicher Sterne in Umgebungen geringer Metalizität (Kapitel 5). Schließlich wurde die Gesamtpopulation der WR-Doppelsterne in der Kleinen Magellanschen Wolke (SMC) analysiert. Im Widerspruch zur theoretischen Vorhersage, alle WR-Doppelsterne in der SMC seien dank Massentransfer in Doppelsternsystemen entstanden, finden wir, dass Massentransfer unerheblich für die Entstehung der uns bekannten WR-Sterne in der SMC war (Kapitel 6). KW - massive stars KW - Wolf-Rayet KW - stellar evolution KW - stellar winds KW - binary stars KW - massereiche Sterne KW - Wolf-Rayet KW - Sternentwicklung KW - Sternwinde KW - Doppelsterne Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104857 ER - TY - THES A1 - You, Zewang T1 - Conformational transition of peptide-functionalized cryogels enabling shape-memory capability Y1 - 2017 ER - TY - THES A1 - Guidi, Giovanni T1 - Connecting simulations and observations in galaxy formation studies T1 - Verknüpfung von Simulationen und Beobachtungen bei der Untersuchung der Galaxienenstehung N2 - Observational and computational extragalactic astrophysics are two fields of research that study a similar subject from different perspectives. Observational extragalactic astrophysics aims, by recovering the spectral energy distribution of galaxies at different wavelengths, to reliably measure their properties at different cosmic times and in a large variety of environments. Analyzing the light collected by the instruments, observers try to disentangle the different processes occurring in galaxies at the scales of galactic physics, as well as the effect of larger scale processes such as mergers and accretion, in order to obtain a consistent picture of galaxy formation and evolution. On the other hand, hydrodynamical simulations of galaxy formation in cosmological context are able to follow the evolution of a galaxy along cosmic time, taking into account both external processes such as mergers, interactions and accretion, and internal mechanisms such as feedback from Supernovae and Active Galactic Nuclei. Due to the great advances in both fields of research, we have nowadays available spectral and photometric information for a large number of galaxies in the Universe at different cosmic times, which has in turn provided important knowledge about the evolution of the Universe; at the same time, we are able to realistically simulate galaxy formation and evolution in large volumes of the Universe, taking into account the most relevant physical processes occurring in galaxies. As these two approaches are intrinsically different in their methodology and in the information they provide, the connection between simulations and observations is still not fully established, although simulations are often used in galaxies' studies to interpret observations and assess the effect of the different processes acting on galaxies on the observable properties, and simulators usually test the physical recipes implemented in their hydrodynamical codes through the comparison with observations. In this dissertation we aim to better connect the observational and computational approaches in the study of galaxy formation and evolution, using the methods and results of one field to test and validate the methods and results of the other. In a first work we study the biases and systematics in the derivation of the galaxy properties in observations. We post-process hydrodynamical cosmological simulations of galaxy formation to calculate the galaxies' Spectral Energy Distributions (SEDs) using different approaches, including radiative transfer techniques. Comparing the direct results of the simulations with the quantities obtained applying observational techniques to these synthetic SEDs, we are able to make an analysis of the biases intrinsic in the observational algorithms, and quantify their accuracy in recovering the galaxies' properties, as well as estimating the uncertainties affecting a comparison between simulations and observations when different approaches to obtain the observables are followed. Our results show that for some quantities such as the stellar ages, metallicities and gas oxygen abundances large differences can appear, depending on the technique applied in the derivation. In a second work we compare a set of fifteen galaxies similar in mass to the Milky Way and with a quiet merger history in the recent past (hence expected to have properties close to spiral galaxies), simulated in a cosmological context, with data from the Sloan Digital Sky Survey (SDSS). We use techniques to obtain the observables as similar as possible to the ones applied in SDSS, with the aim of making an unbiased comparison between our set of hydrodynamical simulations and SDSS observations. We quantify the differences in the physical properties when these are obtained directly from the simulations without post-processing, or mimicking the SDSS observational techniques. We fit linear relations between the values derived directly from the simulations and following SDSS observational procedures, which in most of the cases have relatively high correlation, that can be easily used to more reliably compare simulations with SDSS data. When mimicking SDSS techniques, these simulated galaxies are photometrically similar to galaxies in the SDSS blue sequence/green valley, but have in general older ages, lower SFRs and metallicities compared to the majority of the spirals in the observational dataset. In a third work, we post-process hydrodynamical simulations of galaxies with radiative transfer techniques, to generate synthetic data that mimic the properties of the CALIFA Integral Field Spectroscopy (IFS) survey. We reproduce the main characteristics of the CALIFA observations in terms of field of view and spaxel physical size, data format, point spread functions and detector noise. This 3-dimensional dataset is suited to be analyzed by the same algorithms applied to the CALIFA dataset, and can be used as a tool to test the ability of the observational algorithms in recovering the properties of the CALIFA galaxies. To this purpose, we also generate the resolved maps of the simulations' properties, calculated directly from the hydrodynamical snapshots, or from the simulated spectra prior to the addition of the noise. Our work shows that a reliable connection between the models and the data is of crucial importance both to judge the output of galaxy formation codes and to accurately test the observational algorithms used in the analysis of galaxy surveys' data. A correct interpretation of observations will be particularly important in the future, in light of the several ongoing and planned large galaxy surveys that will provide the community with large datasets of properties of galaxies (often spatially-resolved) at different cosmic times, allowing to study galaxy formation physics at a higher level of detail than ever before. We have shown that neglecting the observational biases in the comparison between simulations and an observational dataset may move the simulations to different regions in the planes of the observables, strongly affecting the assessment of the correctness of the sub-resolution physical models implemented in galaxy formation codes, as well as the interpretation of given observational results using simulations. N2 - Beobachtende und computergestütze extragalaktische Astrophysik sind zwei Forschugnsbereiche welche ein ähnliches Gebiet in unterschiedlichen Perspektiven untersuchen. Beobachtende extragalaktische Astrophysik hat das Ziel verlässlich die Eigenschaften bei verschiedenen kosmischen Zeiten und bei einer großen Vielzahl von Umgebungen, durch das Betrachten der spektralen Energieverteilung der Galaxien, zu vermessen. Auf der anderen Seite sind hydrodynamische Simulationen im kosmologischen Kontext in der Lage die Entstehung und zeitliche Entwicklung einer Galaxie zu verfolgen, in dem unterschiedliche physikalische Prozesse einbezogen werden. Aufgrund der großen Fortschritte beider Forschungsbereiche sind heutzutage große Datenbanken mit Spektren und photometrische Informationen für eine große Menge von Galaxien bei verschiedenen kosmischen Zeiten verfügbar. Zur gleichen Zeit sind wir in der Lage die Entstehung und Entwicklung von Galaxien realistisch zu simulieren, unter Berücksichtigung der wichtigsten physikalischen Prozesse. Da diese Ansätze grundlegend verschieden sind, ist die Verbindung von Simulationen und Beobachtungen nicht komplett hergestellt, obwohl Simulationen oft zur Interpretation von Beobachtungen genutzt werden und Simulationen durch den Vergleich mit Beobachtungen getestet werden. Das Ziel dieser Dissertation ist die bessere Verknüpfung von Simulationen und Beobachtungen durch die Verwendung der Methoden und Ergebnisse der einen Methode, zur Validierung der anderen und umgekehrt. In einer ersten Arbeit untersuchen wir die systematischen Effekte bei der Vermessung der Eigenschaften von Galaxien in Beobachtungen. Indem wir direkt Simulationen mit syntetischen Daten vergleichen, ist es uns möglich die systematischen Effekte der Beobachtungsalgorithmen zu untersuchen und ihre Genauigkeit bei der Untersuchung der Eigenschaften der Galaxien zu bestimmen. Unsere Ergebnisse ziegen, dass für einige Messgrößen große Unterschiede auftreten können. In einer zweiten Arbeit vergleichen wir 15 simulierte Spiralgalaxien mit ähnlicher Masse wie der Milchstraße mit Daten vom Sloan Digital Sky Survey (SDSS). Dabei verwenden wir die gleichen Methoden, welche bei SDSS verwendet werden, um möglischest unvoreingenommen zwischen hydrodynamischen Simulationen und SDSS Daten zu vergleichen. Wenn wir die Beobachtungsmethoden von SDSS nachahmen, sind die simulierten Galaxien den SDSS Galaxien der blauen Sequenz in der Photometrie ähnlich, aber haben generell höheres Alter, geringere Sternentstehungsrate und Metalizität. In einer dritten Arbeit bearbeiten wir hydrodynamische Simulationen von Galaxien mit Strahlungstransportalgorithmen um synthetische Daten des CALIFA Integralfeldspektroskopie Surveys (IFS) zu erzeugen. Wir reproduzieren die Hauptcharakteristika der CALIFA-Beobachtungen in Bezug auf Sichtfeld, Spaxelgröße, Datenformat, Punktspreizfunktion und Detektorrauschen. Dieser dreidimensionale Datensatz is geeignet, um mit den selben Techniken analysiert zu werden, wie die CALIFA-Daten und können als Mittel genutzt werden, um die Genauigkeit der Beobachtungsalgorithmen zu testen. Zu diesem Zweck erzeugen wir räumlich aufgelöste Eigenschaften der Simulationen, welche direkt von den Aufnahmen der hydrodynamischen Simulationen oder synthetischen Spektren ohne Rauschen berechnet werden. Unsere Arbeit zeigt, dass die verlässliche Verknüpfung von Modellen und Daten von entscheidender Wichtigkeit ist ist, um die Ergebnisse der Galaxieformationssimulationen zu beurteilen und akurat die Beobachtungsalgorithmen zu testen, welche bei der Analyse der Galaxiesurveydaten benutzt werden. Eine korrekte Interpretation der Beobachtungen wird im Hinblick auf die vielen fortlaufenden und geplanten Galaxiesurveys, welche den Wissenschaftern große Datenmengen der Eigenschaften der Galaxien bei unterschiedlichen Zeiten zur Verfügung stellen werden, besonders wichtig in der Zukunft, da dies eine genauere Untersuchung der Physik der Galaxieformationen auf einem Niveau, höher als je zuvor, ermöglichen wird. Außerdem haben wir gezeigt, dass bei dem Vergleichen zwischen Beobachtungen und Simulationen der Bias der Beobachtungen nicht vernachlässigbar ist und die Beurteilung der Korrekturen der physikalischen Modelle, welche in en Galaxieformationscodes implementiert ist, stark beeinflusst, als auch die Interpretation der gegebenen Ergebnisse der Beobachtungen bei Verwendung von Simulationen. KW - galaxy formation KW - galaxy evolution KW - cosmological simulations KW - numerical techniques KW - mock observations KW - Entstehung von Galaxien KW - Entwicklung von Galaxien KW - kosmologische Simulationen KW - numerische Methoden KW - synthetische Beobachtungen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396876 ER - TY - THES A1 - Robaina Estevez, Semidan T1 - Context-specific metabolic predictions T1 - Kontextspezifische metabolische Vorhersagen BT - computational methods and applications BT - Berechnungsmethoden und Anwendungen N2 - All life-sustaining processes are ultimately driven by thousands of biochemical reactions occurring in the cells: the metabolism. These reactions form an intricate network which produces all required chemical compounds, i.e., metabolites, from a set of input molecules. Cells regulate the activity through metabolic reactions in a context-specific way; only reactions that are required in a cellular context, e.g., cell type, developmental stage or environmental condition, are usually active, while the rest remain inactive. The context-specificity of metabolism can be captured by several kinds of experimental data, such as by gene and protein expression or metabolite profiles. In addition, these context-specific data can be assimilated into computational models of metabolism, which then provide context-specific metabolic predictions. This thesis is composed of three individual studies focussing on context-specific experimental data integration into computational models of metabolism. The first study presents an optimization-based method to obtain context-specific metabolic predictions, and offers the advantage of being fully automated, i.e., free of user defined parameters. The second study explores the effects of alternative optimal solutions arising during the generation of context-specific metabolic predictions. These alternative optimal solutions are metabolic model predictions that represent equally well the integrated data, but that can markedly differ. This study proposes algorithms to analyze the space of alternative solutions, as well as some ways to cope with their impact in the predictions. Finally, the third study investigates the metabolic specialization of the guard cells of the plant Arabidopsis thaliana, and compares it with that of a different cell type, the mesophyll cells. To this end, the computational methods developed in this thesis are applied to obtain metabolic predictions specific to guard cell and mesophyll cells. These cell-specific predictions are then compared to explore the differences in metabolic activity between the two cell types. In addition, the effects of alternative optima are taken into consideration when comparing the two cell types. The computational results indicate a major reorganization of the primary metabolism in guard cells. These results are supported by an independent 13C labelling experiment. N2 - Alle lebenserhaltenden Prozesse werden durch tausende biochemische Reaktionen in der Zelle bestimmt, welche den Metabolismus charakterisieren. Diese Reaktionen bilden ein komplexes Netzwerk, welches alle notwendigen chemischen Verbindungen, die sogenannten Metabolite, aus einer bestimmten Menge an Ausgangsmolekülen produziert Zellen regulieren ihren Stoffwechsel kontextspezifisch, dies bedeutet, dass nur Reaktionen die in einem zellulären Kontext, zum Beispiel Zelltyp, Entwicklungsstadium oder verschiedenen Umwelteinflüssen, benötigt werden auch tatsächlich aktiv sind. Die übrigen Reaktionen werden als inaktiv betrachtet. Die Kontextspezifität des Metabolismus kann durch verschiedene experimentelle Daten, wie Gen- und Proteinexpressionen oder Metabolitprofile erfasst werden. Zusätzlich können diese Daten in Computersimulationen des Metabolismus integriert werden, um kontextspezifische (metabolische) Vorhersagen zu treffen. Diese Doktorarbeit besteht aus drei unabhängigen Studien, welche die Integration von kontextspezifischen experimentellen Daten in Computersimulationen des Metabolismus thematisieren. Die erste Studie beschreibt ein Konzept, basierend auf einem mathematischen Optimierungsproblem, welches es erlaubt kontextspezifische, metabolische Vorhersagen zu treffen. Dabei bietet diese vollautomatische Methode den Vorteil vom Nutzer unabhängige Parameter, zu verwenden. Die zweite Studie untersucht den Einfluss von alternativen optimalen Lösungen, welche bei kontextspezifischen metabolischen Vorhersagen generiert werden. Diese alternativen Lösungen stellen metabolische Modellvorhersagen da, welche die integrierten Daten gleichgut wiederspiegeln, sich aber grundlegend voneinander unterscheiden können. Diese Studie zeigt verschiedene Ansätze alternativen Lösungen zu analysieren und ihren Einfluss auf die Vorhersagen zu berücksichtigen. Schlussendlich, untersucht die dritte Studie die metabolische Spezialisierung der Schließzellen in Arabidopsis thaliana und vergleicht diese mit einer weiteren Zellart, den Mesophyllzellen. Zu diesem Zweck wurden die in dieser Doktorarbeit vorgestellten Methoden angewandt um metabolische Vorhersagen speziell für Schließzellen und Mesophyllzellen zu erhalten. Anschließend wurden die zellspezifischen Vorhersagen auf Unterschiede in der metabolischen Aktivität der Zelltypen, unter Berücksichtigung des Effekt von alternativen Optima, untersucht. Die Ergebnisse der Simulationen legen eine grundlegende Neuorganisation des Primärmetabolismus in Schließzellen verglichen mit Mesophyllzellen nahe. Diese Ergebnisse werden durch unabhängige 13C markierungs Experimente bestätigt. KW - systems biology KW - bioinformatics KW - metabolic networks KW - constraint-based modeling KW - data integration KW - Systemsbiologie KW - Bioinformatik KW - Stoffwechselnetze KW - Constraint-basierte Modellierung KW - Datenintegration Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401365 ER - TY - THES A1 - Danken, Thomas T1 - Coordination of wicked problems T1 - Koordination vertrackter Probleme BT - comparing inter-departmental coordination of demographic change policies in five German states BT - Vergleich interministerieller Koordination der Demografiepolitik in fünf ostdeutschen Ländern N2 - The thesis focuses on the inter-departmental coordination of adaptation and mitigation of demographic change in East Germany. All Eastern German States (Länder) have set up inter-departmental committees (IDCs) that are expected to deliver joint strategies to tackle demographic change. IDCs provide an organizational setting for potential positive coordination, i.e. a joint approach to problem solving that pools and utilizes the expertise of many departments in a constructive manner from the very beginning. Whether they actually achieve positive coordination is contested within the academic debate. This motivates the first research question of this thesis: Do IDCs achieve positive coordination? Interdepartmental committees and their role in horizontal coordination within the core executive triggered interest among scholars already more than fifty years ago. However, we don’t know much about their actual importance for the inter-departmental preparation of cross-cutting policies. Until now, few studies can be found that analyzes inter-departmental committees in a comparative way trying to identify whether they achieve positive coordination and what factors shape the coordination process and output of IDCs. Each IDC has a chair organization that is responsible for managing the interactions within the IDCs. The chair organization is important, because it organizes and structures the overall process of coordination in the IDC. Consequently, the chair of an IDC serves as the main boundary-spanner and therefore has remarkable influence by arranging meetings and the work schedule or by distributing internal roles. Interestingly, in the German context we find two organizational approaches: while some states decided to put a line department (e.g. Department of Infrastructure) in charge of managing the IDC, others rely on the State Chancelleries, i.e. the center of government. This situation allows for comparative research design that can address the role of the State Chancellery in inter-departmental coordination of cross-cutting policies. This is relevant, because the role of the center is crucial when studying coordination within central government. The academic debate on the center of government in the German politico-administrative system is essentially divided into two camps. One camp claims that the center can improve horizontal coordination and steer cross-cutting policy-making more effectively, while the other camp points to limits to central coordination due to departmental autonomy. This debate motivates the second research question of this thesis: Does the State Chancellery as chair organization achieve positive coordination in IDCs? The center of government and its role in the German politic-administrative system has attracted academic attention already in the 1960s and 1970s. There is a research desiderate regarding the center’s role during the inter-departmental coordination process. There are only few studies that explicitly analyze centers of government and their role in coordination of cross-cutting policies, although some single case studies have been published. This gap in the academic debate will be addressed by the answer to the second research question. The dependent variable of this study is the chair organization of IDCs. The value of this variable is dichotomous: either an IDC is chaired by a Line department or by a State Chancellery. We are interested whether this variable has an effect on two dependent variables. First, we will analyze the coordination process, i.e. interaction among bureaucrats within the IDC. Second, the focus of this thesis will be on the coordination result, i.e. the demography strategies that are produced by the respective IDCs. In terms of the methodological approach, this thesis applies a comparative case study design based on a most-similar-systems logic. The German Federalism is quite suitable for such designs. Since the institutional framework largely is the same across all states, individual variables and their effect can be isolated and plausibly analyzed. To further control for potential intervening variables, we will limit our case selection to states located in East Germany, because the demographic situation is most problematic in the Eastern part of Germany, i.e. there is a equal problem pressure. Consequently, we will analyze five cases: Thuringia, Saxony-Anhalt (line department) and Brandenburg, Mecklenburg-Vorpommern and Saxony (State Chancellery). There is no grand coordination theory that is ready to be applied to our case studies. Therefore, we need to tailor our own approach. Our assumption is that the individual chair organization has an effect on the coordination process and output of IDCs, although all cases are embedded in the same institutional setting, i.e. the German politico-administrative system. Therefore, we need an analytical approach than incorporates institutionalist and agency-based arguments. Therefore, this thesis will utilize Actor-Centered Institutionalism (ACI). Broadly speaking, ACI conceptualizes actors’ behavior as influenced - but not fully determined - by institutions. Since ACI is rather abstract we need to adapt it for the purpose of this thesis. Line Departments and State Chancelleries will be modeled as distinct actors with different action orientations and capabilities to steer the coordination process. However, their action is embedded within the institutional context of governments, which we will conceptualize as being comprised of regulative (formal rules) and normative (social norms) elements. N2 - Die vorliegende Arbeit beschäftigt sich mit interministerieller Koordination der Demografiepolitik in ostdeutschen Ländern. Alle ostdeutschen Länder haben interministerielle Arbeitsgruppen (IMAGs) eingerichtet, die von der jeweiligen Landesregierung beauftragt wurden, ressortübergreifende Strategien zur Bewältigung der Folgen des demografischen Wandels zu erarbeiten. IMAGs bieten potentiell einen organisatorischen Rahmen für das Gelingen positiver Koordination, also der ressortübergreifenden Bearbeitung interdependenter Problemstellungen. Ob sie jedoch tatsächlich positive Koordination herbeiführen, ist innerhalb der akademischen Debatte umstritten, was die Motivation für die erste Forschungsfrage darstellt: Führen IMAGs zu positiver Koordination? IMAGs haben bereits vor fünfzig Jahren akademische Aufmerksamkeit erregt. Dennoch ist über ihren Beitrag zur Vorbereitung ressortübergreifender Programme kaum etwas bekannt. Bislang haben nur wenige Arbeiten IMAGs in vergleichender Perspektive behandelt. Somit fehlt es an Wissen zu Determinanten des Koordinationsprozesses und –ergebnisses interministerieller Arbeitsgruppen. Jeweils einer Organisation obliegt die Federführung für die jeweilige IMAG. Die federführende Einheit kann erheblichen Einfluss ausüben, da sie den Koordinationsprozess strukturiert und organisiert. Interessanterweise haben die ostdeutschen Bundesländer zwei unterschiedliche organisatorische Modelle gewählt: Entweder obliegt die Federführung der entsprechenden IMAG einem Fachministerien oder der Staatskanzlei des entsprechenden Landes. Diese Situation erlaubt ein vergleichendes Untersuchungsdesign, das die Rolle von Staatskanzleien im Prozess ressortübergreifender Politikformulierung im politisch-administrativen System Deutschlands zu untersuchen erlaubt. Die akademische Debatte im Hinblick darauf lässt sich etwas zugespitzt in zwei Lager teilen: Während das erste Lager argumentiert, die Regierungszentrale könne horizontale Koordination verbessern und zur effektiveren Steuerung ressortübergreifenden Politikformulierung beitragen, rekurriert das zweite Lager auf die Dominanz des verfassungsrechtlichen Ressortprinzip und geht von einer klaren Begrenzung der Steuerungskapazität von Regierungszentralen aus. Dies motiviert die zweite Forschungsfrage der vorliegenden Arbeit: Erreicht Federführung durch Staatskanzleien positive Koordination in IMAGs? Obwohl die Regierungszentrale schon frühzeitig Gegenstand verwaltungs- und politikwissenschaftlicher Forschung war, finden sich kaum Arbeiten, die explizit die Rolle von Staatskanzlei im Prozess der Formulierung ressortübergreifender Programme thematisieren. Die unabhängige Variable dieser Untersuchung ist die federführende Organisation einer IMAG (Staatskanzlei oder Fachministerium). Die abhängigen Variablen sind einerseits der Koordinationsprozess innerhalb von IMAGs als auch das entsprechende Koordinationsergebnis in Form ressortübergreifender Strategien zur Bewältigung des demografischen Wandels. Das Untersuchungsdesign entspricht einem most-similar-systems Ansatz. So finden sich in allen untersuchten Fällen Koalitionsregierungen, ein ähnlicher Problemdruck in Hinblick auf demografische Entwicklungen sowie ein nahezu identischer institutionelle Rahmen für Koordination. Der Einfluss der unabhängigen auf die abhängigen Variablen kann damit plausiblen isoliert werden. Die Studie untersucht IMAGs in den Ländern Thüringen, Sachsen-Anhalt (Federführung bei einem Fachministerium), Brandenburg, Mecklenburg-Vorpommern und Sachsen (Federführung bei der Staatskanzlei). Die Arbeit nutzt den akteurszentrierten Institutionalismus als analytischen Rahmen. Dieser erlaubt Koordinationsprozesse sowohl in Hinblick auf ihre institutionelle Einbettung zu untersuchen, die Rolle intentional handelnder Akteure mit unterschiedlichen Handlungsorientierungen und -möglichkeiten aus dem Blick zu verlieren. KW - coordination KW - wicked problems KW - demographic change KW - interdepartmental committee KW - Germany KW - Koordination KW - vertrackte Probleme KW - demografischer Wandel KW - interministerielle Arbeitsgruppe KW - Deutschland Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396766 ER - TY - THES A1 - Leigh Wojno, Jennifer T1 - Correlations between kinematics, chemistry, and ages of stars in the solar neighbourhood as seen by the RAVE survey Y1 - 2017 ER - TY - THES A1 - Mühlenhoff, Judith T1 - Culture-driven innovation BT - acknowledging culture as a knowledge source for innovation N2 - This cumulative dissertation deals with the potential of underexplored cultural sources for innovation. Nowadays, firms recognize an increasing demand for innovation to keep pace with an ever-growing dynamic worldwide competition. Knowledge is one of the most crucial sources and resource, while until now innovation has been foremost driven by technology. But since the last years, we have been witnessing a change from technology's role as a driver of innovation to an enabler of innovation. Innovative products and services increasingly differentiate through emotional qualities and user experience. These experiences are hard to grasp and require alignment in innovation management theory and practice. This work cares about culture in a broader matter as a source for innovation. It investigates the requirements and fundamentals for "culture-driven innovation" by studying where and how to unlock cultural sources. The research questions are the following: What are cultural sources for knowledge and innovation? Where can one find cultural sources and how to tap into them? The dissertation starts with an overview of its central terms and introduces cultural theories as an overarching frame to study cultural sources for innovation systematically. Here, knowledge is not understood as something an organization owns like a material resource, but it is seen as something created and taking place in practices. Such a practice theoretical lens inheres the rejection of the traditional economic depiction of the rational Homo Oeconomicus. Nevertheless, it also rejects the idea of the Homo Sociologicus about the strong impact of society and its values on individual actions. Practice theory approaches take account of both concepts by underscoring the dualism of individual (agency, micro-level) and structure (society, macro-level). Following this, organizations are no enclosed entities but embedded within their socio-cultural environment, which shapes them and is also shaped by them. Then, the first article of this dissertation acknowledges a methodological stance of this dualism by discussing how mixed methods support an integrated approach to study the micro- and macro-level. The article focuses on networks (thus communities) as a central research unit within studies of entrepreneurship and innovation. The second article contains a network analysis and depicts communities as central loci for cultural sources and knowledge. With data from the platform Meetup.com about events etc., the study explores which overarching communities and themes have been evolved in Berlin's start up and tech scene. While the latter study was about where to find new cultural sources, the last article addresses how to unlock such knowledge sources. It develops the concept of a cultural absorptive capacity, that is the capability of organizations to open up towards cultural sources. Furthermore, the article points to the role of knowledge intermediaries in the early phases of knowledge acquisition. Two case studies on companies working with artists illustrate the roles of such intermediaries and how they support firms to gain knowledge from cultural sources. Overall, this dissertation contributes to a better understanding of culture as a source for innovation from a theoretical, methodological, and practitioners' point of view. It provides basic research to unlock the potential of such new knowledge sources for companies - sources that so far have been neglected in innovation management. N2 - Diese kumulative Dissertation beschäftigt sich mit dem Potenzial von bisher wenig untersuchten kulturellen Quellen für Innovation. Firmen erleben heutzutage einen ansteigenden Bedarf nach Innovationen um in einer immer dynamisch werdenden Welt im Wettbewerb nicht zurückzufallen. Wissen gehört hierbei zu einer der zentralen Quelle und Ressource, wobei das Wissen um Innovationen bisher meistens stark durch den Einfluss von Technik geprägt wurde. Jedoch können wir in den letzten Jahren vermehrt beobachten, wie Technik als Treiber von Innovationen zurückgeht und eher die Rolle eines Gehilfen übernimmt. Innovative Produkte und Services differenzieren sich zunehmend über emotionale und über Erfahrungsqualitäten. Diese Nutzungserfahrungen sind schwer zu fassen und erfordern Anpassungen im bisherigen Management von Innovationen. Die vorliegende Arbeit beschäftigt sich mit Kultur im weitest gehenden Sinne als Quelle für Innovationen. Sie behandelt die Voraussetzungen und Grundlagen für "Culture-Driven Innovation" indem darauf eingegangen wird wo und wie kulturelle Quellen erschlossen werden können. Die Forschungsfragen lauten: Was sind kulturelle Quellen für Wissen und Innovation? Wo kann man diese Quellen finden und wie sie sich erschließen? Dafür beginnt die Arbeit mit einem Überblick zu den wesentlichen Begriffen des Promotionsthemas und führt Kulturtheorien als übergreifende Klammer ein, von denen kulturelle Quellen für Innovationen systematisch betrachtet werden können. Wissen wird hierbei nicht als etwas gesehen, das eine Organisation besitzen kann wie eine materielle Ressource, sondern als etwas, das erst in Praktiken erlebbar und geniert wird. Solch einer praxistheoretischen Sichtweise innewohnend ist die Ablehnung klassischer wirtschaftswissenschaftlicher Vorstellungen eines rational agierenden Homo Oeconomicus. Auf der anderen Seite lehnt sie aber auch die Idee eines Homo Sociologicus ab, in dem das Handeln des Einzelnen hauptsächlich von der Gesellschaft und ihren Werten geprägt wird. Praxistheoretische Ansätze positionieren sich dazwischen indem sie den Dualismus von Individuum (Akteur, Mikro-Ebene) und Struktur (Gesellschaft, Makro-Ebene) betont. Organisationen sind demnach keine in sich geschlossene Einheiten, sondern eingebettet in ihre sozio-kulturelle Umwelt, die sie prägt und die sie gleichzeitig wiederum mitprägen. Im Folgenden widmet sich der erste Artikel einer methodischen Betrachtung dieses Dualismus' indem erörtert wird, wie Mixed Methods helfen Mikro-Ebene und Makro-Ebene integriert erforschen zu können. Dabei konzentriert sich der Artikel auf Netzwerke (und somit auch Communities) als zentrale Untersuchungseinheit von Entrepreneurship- und Innovationsforschung. Der zweite Artikel der Dissertation beinhaltet eine Netzwerkanalyse und widmet sich Communities als zentralen Ort für kulturelle Quellen und Wissen. An Hand der Daten der Plattform Meetup.com zu Veranstaltungen etc., untersucht die Studie welche übergreifenden Communities und welche Themen sich in Berlin's Start Up- und Tech-Szene gebildet haben. Nachdem dieser Beitrag sich der Frage widmet wo neue kulturelle Wissensquellen entdeckt werden können, geht der letzte Beitrag der vorliegenden Doktorarbeit der Frage nach, wie solches Wissen erschlossen werden kann. In dem Artikel wird die Idee einer Cultural Absorptive Capacity entwickelt, also der Fähigkeit von Organisationen sich gegenüber kulturellen Quellen zu öffnen, und die Rolle von Wissensvermittlern in der frühen Phase von Wissenserschließung betont. In zwei Fallstudien über Firmen, die mit Künstlern zusammenarbeiten, wird aufgezeigt, welche Rollen solche Vermittler übernehmen können und wie sie Unternehmen dabei helfen, Wissen aus kulturellen Quellen zu nutzen. Insgesamt trägt diese Dissertation zu einem besseren Verständnis von Kultur als Quelle für Innovationen auf theoretischer, methodischer und praktischer Ebene bei. Sie leistet damit Grundlagenarbeit um das Potenzial solcher neuen Wissensquellen für Unternehmen zu erschließen da diese bisher im Innovationsmanagement vernachlässigt wurden. KW - innovation management KW - Innovationsmanagement KW - culture KW - Kultur KW - intermediaries KW - knowledge KW - Wissen KW - networks KW - Netzwerke KW - mixed methods KW - communities KW - entrepreneurship KW - absorptive capacity Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-104626 ER - TY - THES A1 - Jordan, Thomas T1 - CxNy-materials from supramolecular precursors for “All-Carbon” composite materials T1 - CxNy-Materialien aus supramolekularen Precursoren für „All-Carbon“-Komposit-Materialien N2 - Among modern functional materials, the class of nitrogen-containing carbons combines non-toxicity and sustainability with outstanding properties. The versatility of this materials class is based on the opportunity to tune electronic and catalytic properties via the nitrogen content and –motifs: This ranges from the electronically conducting N-doped carbon, where few carbon atoms in the graphitic lattice are substituted by nitrogen, to the organic semiconductor graphitic carbon nitride (g-C₃N₄), with a structure based on tri-s-triazine units. In general, composites can reveal outstanding catalytic properties due to synergistic behavior, e.g. the formation of electronic heterojunctions. In this thesis, the formation of an “all-carbon” heterojunction was targeted, i.e. differences in the electronic properties of the single components were achieved by the introduction of different nitrogen motives into the carbon lattice. Such composites are promising as metal-free catalysts for the photocatalytic water splitting. Here, hydrogen can be generated from water by light irradiation with the use of a photocatalyst. As first part of the heterojunction, the organic semiconductor g-C₃N₄ was employed, because of its suitable band structure for photocatalytic water splitting, high stability and non-toxicity. The second part was chosen as C₂N, a recently discovered semiconductor. Compared to g-C₃N₄, the less nitrogen containing C₂N has a smaller band gap and a higher absorption coefficient in the visible light range, which is expected to increase the optical absorption in the composite eventually leading to an enhanced charge carrier separation due to the formation of an electronic heterojunction. The aim of preparing an “all-carbon” composite included the research on appropriate precursors for the respective components g-C₃N₄ and C₂N, as well as strategies for appropriate structuring. This was targeted by applying precursors which can form supramolecular pre-organized structures. This allows for more control over morphology and atom patterns during the carbonization process. In the first part of this thesis, it was demonstrated how the photocatalytic activity of g-C₃N₄ can be increased by the targeted introduction of defects or surface terminations. This was achieved by using caffeine as a “growth stopping” additive during the formation of the hydrogen-bonded supramolecular precursor complexes. The increased photocatalytic activity of the obtained materials was demonstrated with dye degradation experiments. The second part of this thesis was focused on the synthesis of the second component C₂N. Here, a deep eutectic mixture from hexaketocyclohexane and urea was structured using the biopolymer chitosan. This scaffolding resulted in mesoporous nitrogen-doped carbon monoliths and beads. CO₂- and dye-adsorption experiments with the obtained monolith material revealed a high isosteric heat of CO₂-adsorption and showed the accessibility of the monolithic pore system to larger dye molecules. Furthermore, a novel precursor system for C₂N was explored, based on organic crystals from squaric acid and urea. The respective C₂N carbon with an unusual sheet-like morphology could be synthesized by carbonization of the crystals at 550 °C. With this precursor system, also microporous C₂N carbon with a BET surface area of 865 m²/g was obtained by “salt-templating” with ZnCl₂. Finally, the preparation of a g-C₃N₄/C₂N “all carbon” composite heterojunction was attempted by the self-assembly of g-C₃N₄ and C₂N nanosheets and tested for photocatalytic water splitting. Indeed, the composites revealed high rates of hydrogen evolution when compared to bulk g-C₃N₄. However, the increased catalytic activity was mainly attributed to the high surface area of the nanocomposites rather than to the composition. With regard to alternative composite synthesis ways, first experiments indicated N-Methyl-2-pyrrolidon to be suitable for higher concentrated dispersion of C₂N nanosheets. Eventually, the results obtained in this thesis provide precious synthetic contributions towards the preparation and processing of carbon/nitrogen compounds for energy applications. N2 - Eine interessante Materialklasse für technologische Anwendungen sind Kohlenstoff/Stickstoff-Materialien, die sich durch Ungiftigkeit und Umweltfreundlichkeit bei gleichzeitig interessanten katalytischen Eigenschaften auszeichnen. Die Vielseitigkeit dieser Materialkasse basiert auf der Möglichkeit ihre katalytischen und elektronischen Eigenschaften über Stickstoff-Anteil und –Funktionalitäten zu beeinflussen. Die vorliegende Arbeit fokussierte sich auf Komposite zwischen verschiedenen Kohlenstoff/Stickstoff-Derivaten, für welche aufgrund ihrer unterschiedlichen elektronischen Eigenschaften die Bildung elektronischer Heteroübergänge erwartet werden kann. Solche Komposite sind vielversprechende Materialien für die Erzeugung von Wasserstoff durch die photokatalytische Spaltung von Wasser. Für die eine Komponente des Komposits wurde das graphitische Kohlenstoffnitrid g-C₃N₄ eingesetzt, welches durch seine elektronische Struktur und Stabilität ein geeignetes Material für die photokatalytische Wasserspaltung ist. Für die andere Komponente des Komposits wurde eine erst kürzlich erstmalig beschriebene Kohlenstoff/Stickstoff Verbindung eingesetzt, das Kohlenstoffnitrid C₂N. Für dieses Komposit ist eine im Vergleich zu den einzelnen Komponenten stark erhöhte photokatalytische Aktivität zu erwarten. Neben dem Ziel der Herstellung eines solchen Komposits, fokussierte sich diese Arbeit auch darauf, neue Wege zur Synthese und Strukturierung der einzelnen Komponenten zu entwickeln. Dies sollte über supramolekulare Präkursor-Komplexe erfolgen, mit welchen eine erhöhte Einflussnahme auf Karbonisierungsprozesse erlangt werden kann. Im ersten Teil der Arbeit, welcher auf das graphitische Kohlenstoffnitrid g-C₃N₄ fokussiert war, wurde gezeigt wie die photokatalytische Aktivität dieser Komponente durch den gezielten Einbau von Defekten erhöht werden kann. Dies wurde über einen durch Koffein modifizierten supramolekularen Komplex als Präkursor erreicht. Die erhöhte photokatalytische Aktivität wurde über Farbstoff-Zersetzung nachgewiesen. Der zweite Teil der Arbeit war auf die Herstellung und Strukturierung der neuartigen Verbindung C₂N fokussiert. Hier wurde gezeigt, wie eine eutektische Mischung zwischen Hexaketocyclohexan und Harnstoff als C₂N-Präkursor mit dem Polysaccharid Chitosan strukturiert werden kann. Hierbei wurden poröse Stickstoffhaltige Kohlenstoff-Monolithen und -Perlen erhalten, die eine hohe Adsorptionswärme für die CO₂-Adsorption zeigten. Weiterhin wurde ein neuartiger Präkursor für C₂N vorgestellt, eine organisch-kristalline Verbindung zwischen Quadratsäure und Harnstoff. Durch Karbonisation dieser Verbindung bei 550 °C wurde ein Material mit einer Zusammensetzung von C₂N und einer ungewöhnlichen, schichtartigen Morphologie erhalten. Über eine eutektische Salzschmelze mit Zinkchlorid, konnte mit diesem Präkursor-System auch mikroporöser C₂N-Kohlenstoff mit einer BET-Oberfläche von 865 m²/g hergestellt werden. Im letzten Teil dieser Arbeit wurde die Herstellung des g-C₃N₄/C₂N-Komposits versucht, über die Selbstassemblierung von kolloidal dispergierten g-C₃N₄- und C₂N-Nanopartikeln. Die Nanopartikel wurden über Ultraschall-Behandlungen von Dispersionen dieser Komponenten hergestellt. Die erhaltenen Komposite zeigten eine hohe Aktivität zur photokatalytischen Wasserspaltung, wobei dies eher auf die hohe Oberfläche der Nanopartikel als auf ihre Zusammensetzung zurückgeführt wurde. Im Hinblick auf mögliche Alternativen zur Kompositherstellung, wurden erste Experimente zu höher konzentrierten kolloidalen Dispersionen von C₂N in dem organischen Lösungsmittel N-Methyl-2-pyrrolidon durchgeführt. Zusammenfassend, die Ergebnisse die in dieser Arbeit erhalten wurden, liefern einen wertvollen Beitrag zur Synthese und Strukturierung von Kohlenstoff/Stickstoff-Materialien sowie deren Anwendungen im Bereich alternative Energien. KW - carbon nitrides KW - supramolecular chemistry KW - porous materials KW - composite materials KW - photocatalysis KW - Kohlenstoffnitride KW - supramolekulare Chemie KW - poröse Materialien KW - Komposite KW - Photokatalyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398855 ER - TY - THES A1 - Papenbrock, Thorsten T1 - Data profiling - efficient discovery of dependencies T1 - Profilerstellung für Daten - Effiziente Entdeckung von Abhängigkeiten N2 - Data profiling is the computer science discipline of analyzing a given dataset for its metadata. The types of metadata range from basic statistics, such as tuple counts, column aggregations, and value distributions, to much more complex structures, in particular inclusion dependencies (INDs), unique column combinations (UCCs), and functional dependencies (FDs). If present, these statistics and structures serve to efficiently store, query, change, and understand the data. Most datasets, however, do not provide their metadata explicitly so that data scientists need to profile them. While basic statistics are relatively easy to calculate, more complex structures present difficult, mostly NP-complete discovery tasks; even with good domain knowledge, it is hardly possible to detect them manually. Therefore, various profiling algorithms have been developed to automate the discovery. None of them, however, can process datasets of typical real-world size, because their resource consumptions and/or execution times exceed effective limits. In this thesis, we propose novel profiling algorithms that automatically discover the three most popular types of complex metadata, namely INDs, UCCs, and FDs, which all describe different kinds of key dependencies. The task is to extract all valid occurrences from a given relational instance. The three algorithms build upon known techniques from related work and complement them with algorithmic paradigms, such as divide & conquer, hybrid search, progressivity, memory sensitivity, parallelization, and additional pruning to greatly improve upon current limitations. Our experiments show that the proposed algorithms are orders of magnitude faster than related work. They are, in particular, now able to process datasets of real-world, i.e., multiple gigabytes size with reasonable memory and time consumption. Due to the importance of data profiling in practice, industry has built various profiling tools to support data scientists in their quest for metadata. These tools provide good support for basic statistics and they are also able to validate individual dependencies, but they lack real discovery features even though some fundamental discovery techniques are known for more than 15 years. To close this gap, we developed Metanome, an extensible profiling platform that incorporates not only our own algorithms but also many further algorithms from other researchers. With Metanome, we make our research accessible to all data scientists and IT-professionals that are tasked with data profiling. Besides the actual metadata discovery, the platform also offers support for the ranking and visualization of metadata result sets. Being able to discover the entire set of syntactically valid metadata naturally introduces the subsequent task of extracting only the semantically meaningful parts. This is challenge, because the complete metadata results are surprisingly large (sometimes larger than the datasets itself) and judging their use case dependent semantic relevance is difficult. To show that the completeness of these metadata sets is extremely valuable for their usage, we finally exemplify the efficient processing and effective assessment of functional dependencies for the use case of schema normalization. N2 - Data Profiling ist eine Disziplin der Informatik, die sich mit der Analyse von Datensätzen auf deren Metadaten beschäftigt. Die verschiedenen Typen von Metadaten reichen von einfachen Statistiken wie Tupelzahlen, Spaltenaggregationen und Wertverteilungen bis hin zu weit komplexeren Strukturen, insbesondere Inklusionsabhängigkeiten (INDs), eindeutige Spaltenkombinationen (UCCs) und funktionale Abhängigkeiten (FDs). Diese Statistiken und Strukturen dienen, sofern vorhanden, dazu die Daten effizient zu speichern, zu lesen, zu ändern und zu verstehen. Die meisten Datensätze stellen ihre Metadaten aber nicht explizit zur Verfügung, so dass Informatiker sie mittels Data Profiling bestimmen müssen. Während einfache Statistiken noch relativ schnell zu berechnen sind, stellen die komplexen Strukturen schwere, zumeist NP-vollständige Entdeckungsaufgaben dar. Es ist daher auch mit gutem Domänenwissen in der Regel nicht möglich sie manuell zu entdecken. Aus diesem Grund wurden verschiedenste Profiling Algorithmen entwickelt, die die Entdeckung automatisieren. Keiner dieser Algorithmen kann allerdings Datensätze von heutzutage typischer Größe verarbeiten, weil entweder der Ressourcenverbrauch oder die Rechenzeit effektive Grenzen überschreiten. In dieser Arbeit stellen wir neuartige Profiling Algorithmen vor, die automatisch die drei populärsten Typen komplexer Metadaten entdecken können, nämlich INDs, UCCs, und FDs, die alle unterschiedliche Formen von Schlüssel-Abhängigkeiten beschreiben. Die Aufgabe dieser Algorithmen ist es alle gültigen Vorkommen der drei Metadaten-Typen aus einer gegebenen relationalen Instanz zu extrahieren. Sie nutzen dazu bekannte Entdeckungstechniken aus verwandten Arbeiten und ergänzen diese um algorithmische Paradigmen wie Teile-und-Herrsche, hybrides Suchen, Progressivität, Speichersensibilität, Parallelisierung und zusätzliche Streichungsregeln. Unsere Experimente zeigen, dass die vorgeschlagenen Algorithmen mit den neuen Techniken nicht nur um Größenordnungen schneller sind als alle verwandten Arbeiten, sie erweitern auch aktuelle Beschränkungen deutlich. Sie können insbesondere nun Datensätze realer Größe, d.h. mehrerer Gigabyte Größe mit vernünftigem Speicher- und Zeitverbrauch verarbeiten. Aufgrund der praktischen Relevanz von Data Profiling hat die Industrie verschiedene Profiling Werkzeuge entwickelt, die Informatiker in ihrer Suche nach Metadaten unterstützen sollen. Diese Werkzeuge bieten eine gute Unterstützung für die Berechnung einfacher Statistiken. Sie sind auch in der Lage einzelne Abhängigkeiten zu validieren, allerdings mangelt es ihnen an Funktionen zur echten Entdeckung von Metadaten, obwohl grundlegende Entdeckungstechniken schon mehr als 15 Jahre bekannt sind. Um diese Lücke zu schließen haben wir Metanome entwickelt, eine erweiterbare Profiling Plattform, die nicht nur unsere eigenen Algorithmen sondern auch viele weitere Algorithmen anderer Forscher integriert. Mit Metanome machen wir unsere Forschungsergebnisse für alle Informatiker und IT-Fachkräfte zugänglich, die ein modernes Data Profiling Werkzeug benötigen. Neben der tatsächlichen Metadaten-Entdeckung bietet die Plattform zusätzlich Unterstützung bei der Bewertung und Visualisierung gefundener Metadaten. Alle syntaktisch korrekten Metadaten effizient finden zu können führt natürlicherweise zur Folgeaufgabe daraus nur die semantisch bedeutsamen Teile zu extrahieren. Das ist eine Herausforderung, weil zum einen die Mengen der gefundenen Metadaten überraschenderweise groß sind (manchmal größer als der untersuchte Datensatz selbst) und zum anderen die Entscheidung über die Anwendungsfall-spezifische semantische Relevanz einzelner Metadaten-Aussagen schwierig ist. Um zu zeigen, dass die Vollständigkeit der Metadaten sehr wertvoll für ihre Nutzung ist, veranschaulichen wir die effiziente Verarbeitung und effektive Bewertung von funktionalen Abhängigkeiten am Anwendungsfall Schema Normalisierung. KW - data profiling KW - functional dependency KW - unique column combination KW - inclusion dependency KW - dependency KW - metanome KW - metadata KW - discovery KW - hybrid KW - divide-and-conquer KW - Profilerstellung für Daten KW - funktionale Abhängigkeit KW - eindeutige Spaltenkombination KW - Inklusionsabhängigkeit KW - Abhängigkeit KW - Metanome KW - Metadaten KW - Entdeckung KW - Hybrid KW - Teile und Herrsche Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406705 ER - TY - THES A1 - Ribeiro Martins, Renata Filipa T1 - Deciphering evolutionary histories of Southeast Asian Ungulates T1 - Entschlüsselung der Evolutionsgeschichte Südostasiatischer Huftiere BT - comparative phylogeography in a biodiversity hotspot BT - vergleichende Phylogeographie in einem Biodiversitaets-Hotspot N2 - Im Verlauf von Jahrmillionen gestalteten evolutionäre Kräfte die Verbreitung und genetische Variabilität von Arten, indem sie die Anpassungsfähigkeit und Überlebenswahrscheinlichkeit dieser Arten beeinflussten. Da Südostasien eine außerordentlich artenreiche Region darstellt, eignet sie sich besonders, um den Einfluss dieser Kräfte zu untersuchen. Historische Klimaveränderungen hatten dramatische Auswirkungen auf die Verfügbarkeit sowie die Verbreitung von Habitaten in Südostasien, weil hierdurch wiederholt das Festland mit sonst isolierten Inseln verbunden wurde. Dies beeinflusste nicht nur, wie Arten in dieser Region verbreitet sind, sondern ermöglichte auch eine zunehmende genetische Variabilität. Zwar ist es bekannt, dass Arten mit ähnlicher Evolutionsgeschichte unterschiedliche phylogeographische Muster aufweisen können. Die zugrundeliegenden Mechanismen sind jedoch nur gering verstanden. Diese Dissertation behandelt die Phylogeographie von drei Gruppen von Huftieren, welche im Süden und Südosten Asiens vorkommen. Dabei war das vornehmliche Ziel, zu verstehen, wie es zur Ausbildung verschiedener Arten sowie zu einer regionalen Verteilung von genetischer Variabilität kam. Hierfür untersuchte ich die mitochondrialen Genome alter Proben. Dadurch war es möglich, Populationen des gesamten Verbreitungsgebietes der jeweiligen Arten zu untersuchen – auch solche Populationen, die heutzutage nicht mehr existieren. Entsprechend der einzelnen Huftiergruppen ist diese Arbeit in drei Kapitel unterteilt: Muntjaks (Muntiacus sp.), Hirsche der Gattung Rusa und asiatische Nashörner. Alle drei Gruppen weisen eine Aufteilung in unterschiedliche Linien auf, was jeweils direkt auf Ereignisse des Pleistozäns zurückgeführt werden kann. Muntjaks sind eine weit verbreitete Art, die in verschiedensten Habitaten vorkommen kann. Ich wies nach, dass es in der Vergangenheit zu genetischem Austausch zwischen Populationen von verschiedenen Inseln des Sundalandes kam. Dies deutet auf die Fähigkeit von Muntjaks hin, sich an die ehemaligen Landbrücken anzupassen. Jedoch zeige ich auch, dass mindestens zwei Hindernisse bei ihrer Verbreitung existierten, wodurch es zu einer Differenzierung von Populationen kam: eine Barriere trennte Populationen des asiatischen Festlands von denen der Sundainseln, die andere isolierte sri-lankische von restlichen Muntjaks. Die zwei untersuchten Rusa-Arten weisen ein anderes Muster auf, was wiederum eine weitere Folge der pleistozänen Landbrücken darstellt. Beide Arten sind ausschließlich monophyletisch. Allerdings gibt es Anzeichen für die Hybridisierung dieser Arten auf Java, was durch eine frühere Ausbreitung des sambar (R. unicolor) gefördert wurde. Aufgrund dessen fand ich zudem, dass all jene Individuen der anderen Art, R. timorensis, die durch den Menschen auf die östlichen Sundainseln gebracht wurden, in Wahrheit Hybride sind. Für den dritten Teil war es mir möglich, Proben von Vertretern ausgestorbener Populationen vom asiatischen Festland des Sumatra- und des Java-Nashorns (Dicerorhinus sumatrensis und Rhinoceros sondaicus) zu analysieren. Die Ergebnisse meiner Arbeit belegen, dass die genetische Vielfalt dieser historischen Populationen bedeutend größer war als die der heutigen Nachkommen. Ihre jeweilige Evolutionsgeschichte korreliert stark mit pleistozänen Prozessen. Außerdem betonen meine Ergebnisse das enorme Ausmaß von verlorener genetischer Diversität dieser stark bedrohten Arten. Jede Art besitzt eine individuelle phylogeographische Geschichte. Ebenso fand ich aber auch allgemeingültige Muster von genetischer Differenzierung in allen Gruppen, welche direkt mit Ereignissen des Pleistozäns assoziiert werden können. Vergleicht man jedoch die einzelnen Ergebnisse der Arten, wird deutlich, dass die gleichen geologischen Prozesse nicht zwangsläufig in gleiche evolutive Ergebnisse resultieren. Einer der Gründe hierfür könnte zum Beispiel die unterschiedliche Durchlässigkeit der entstandenen Landkorridore des Sundaschelfs sein. Die Möglichkeit diese neuen Habitate zu nutzen und somit auch zu passieren steht im direkten Bezug zu den spezifischen ökologischen Bedürfnissen der Arten.Zusammenfassend leisten meine Erkenntnisse einen wichtigen Beitrag, die Evolution und geographische Aufteilung der genetischen Vielfalt in diesem Hotspot an Biodiversität zu verstehen. Obendrein können sie aber auch Auswirkungen auf die Erhaltung und systematische Klassifikation der untersuchten Arten haben. N2 - During the course of millions of years, evolutionary forces have shaped the current distribution of species and their genetic variability, by influencing their phylogeny, adaptability and probability of survival. Southeast Asia is an extraordinary biodiverse region, where past climate events have resulted in dramatic changes in land availability and distribution of vegetation, resulting likewise in periodic connections between isolated islands and the mainland. These events have influenced the way species are distributed throughout this region but, more importantly, they influenced the genesis of genetic diversity. Despite the observation that a shared paleo-history resulted in very diverse species phylogeographic patterns, the mechanisms behind these patterns are still poorly understood. In this thesis, I investigated and contrasted the phylogeography of three groups of ungulate species distributed within South and Southeast Asia, aiming to understand what mechanisms have shaped speciation and geographical distribution of genetic variability. For that purpose, I analysed the mitogenomes of historical samples, in order to account for populations from the entire range of species distributions – including populations that no longer exist. This thesis is organized in three manuscripts, which correspond to the three investigated groups: red muntjacs, Rusa deer and Asian rhinoceros. Red muntjacs are a widely distributed species and occur in very different habitats. We found evidence for gene-flow among populations of different islands, indicative of their ability to utilize the available land corridors. However, we described also the existence of at least two dispersal barriers that created population differentiation within this group; one isolated Sundaic and Mainland populations and the second separated individuals from Sri Lanka. Second, the two Rusa species investigated here revealed another consequence of the historical land connections. While the two species were monophyletic, we found evidence of hybridisation in Java, facilitated by the expansion of the widespread sambar, Rusa unicolor. Consequently, I found that all the individuals of Javan deer, R. timorensis which were transported to the east of Sundaland by humans, to be of hybrid descent. In the last manuscript, we were able to include samples from the extinct mainland populations of both Sumatran and Javan rhinoceros. The results revealed a much higher genetic diversity of the historical populations than ever reported for the contemporaneous survivors. Their evolutionary histories revealed a close relationship to climatic events of the Pleistocene but, more importantly, point out the vast extent of genetic erosion within these two endangered species. The specific phylogeographic history of the species showed some common patters of genetic differentiation that could be directly linked to the climatic and geological changes on the Sunda Shelf during the Pleistocene. However, by contrasting these results I discussed that the same geological events did not always result in similar histories. One obvious example was the different permeability of the land corridors of Sundaland, as the ability of each species to utilize this newly available land was directly related to their specific ecological requirements. Taken together, these results have an important contribution to the general understanding of evolution in this biodiversity hotspot and the main drivers shaping the distribution of genetic diversity, but could also have important consequences for taxonomy and conservation of the three investigated groups. KW - biogeography KW - Southeast Asia KW - ungulates KW - NGS KW - evolutionary history KW - Phylogeographie KW - Südostasien KW - Huftiere KW - Evolutionsgenetik Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404669 ER - TY - THES A1 - Kunstmann, Ruth Sonja T1 - Design of a high-affinity carbohydrate binding protein T1 - Design eines hoch-affin Kohlenhydrat-bindenden Proteins N2 - Kohlenhydrat-Protein Interaktionen sind in der Natur weitverbreitet. Sie stellen die Grundlage für viele biologische Prozesse dar, wie zum Beispiel Immunantworten, Wundheilung und Infektionsprozesse von pathogenen Viren oder Bakterien mit einem Wirt wie dem Menschen. Neben der Infektion von Menschen können aber auch Bakterien selbst durch so genannte Bakteriophagen infiziert werden, welche für den Menschen ungefährlich sind. Diese Infektion involviert die spezifische Erkennung der pathogenen Bakterien, die Vermehrung der Bakteriophagen und schließlich die Abtötung der Bakterien. Dabei können die Mechanismen der spezifischen Erkennung genutzt werden, pathogene Bakterien auf Lebensmitteln zu detektieren oder die Diagnose von Infektionen zu vereinfachen. Die spezifische Erkennung von Enteritis-erzeugenden Bakterien wie Escherichia coli, Salmonella spp. oder Shigella flexneri durch Bakteriophagen der Familie der Podoviridae erfolgt über die Bindung eines sogenannten tailspike proteins des Bakteriophagen an das aus Kohlenhydraten-bestehende O-Antigen des Lipopolysaccharids von Gram-negativen Bakterien. Das tailspike protein spaltet das O-Antigen um den Bakteriophage an die Oberfläche des Bakteriums zu führen, damit eine Infektion stattfinden kann. Die Affinität des tailspike proteins zum O-Antigen ist dabei sehr niedrig, um nach Spaltung des O-Antigens das Spaltungsprodukt zu lösen und wiederum neues Substrat zu binden. In dieser Arbeit wurde ein tailspike protein des Bakteriophagen Sf6 verwendet (Sf6 TSP), das spezifisch an das O-Antigen von Shigella flexneri Y bindet. Eine inaktive Variante des Sf6 TSP wurde verwendet um einen hoch-affin bindenden Sensor für pathogene Shigella zu entwickeln. Der Shigella-Sensor wurde durch Kopplung von unterschiedlichen Proteinmutanten mit einem fluoreszierendem Molekül erhalten. Dabei zeigte eine dieser Mutanten bei Bindung von Shigella O-Antigen ein Fluoreszenz-Signal im Bereich des sichtbaren Lichts. Molekulardynamische Simulationen wurde anhand der erzeugten Proteinmutanten als Methode zum rationalen Design von hoch-affin Kohlenhydrat-bindenden Proteinen getestet und die resultierenden Affinitätsvorhersagen wurden über Oberflächenplasmonresonanz-Experimente überprüft. Aus weiteren experimentellen und simulierten Daten konnten schließlich Schlussfolgerungen über die Ursprünge von Kohlenhydrat-Protein Interaktionen gezogen werden, die eine Einsicht über den Einfluss von Wasser in diesem Bindungsprozess lieferten. N2 - Carbohydrate-protein interactions are ubiquitous in nature. They provide the initial molecular contacts in many cell-cell processes as for example immune responses, signal transduction, egg fertilization and infection processes of pathogenic viruses and bacteria. Furthermore, bacteria themselves are infected by bacteriophages, viruses which can cause the bacterial lysis, but do not affect other hosts. The infection process of a bacteriophage involves the specific detection and binding of the bacterium, which can be based on a carbohydrate-protein interaction. The mechanism of specific detection of pathogenic bacteria can thereby be useful for the development of bacteria sensors in the food industry or for tools in diagnostics. Bacteriophages of the Podoviridae family use tailspike proteins for the specific detection of enteritis causing bacteria as Escherichia coli, Salmonella spp. or Shigella flexneri. The tailspike protein provides the first contact by binding to the carbohydrate containing O-antigen part of lipopolysaccharide in the Gram-negative cell wall. After binding to O-antigen repeating units, the enzymatic activity of tailspike proteins leads to cleavage of the carbohydrate chains, which enables the bacteriophage to approach the bacterial surface for DNA injection. Tailspike proteins thereby exhibit a relatively low affinity to the oligosaccharide structures of O-antigen due to the necessary binding, cleavage and release cycle, compared for example to antibodies. In this work it was aimed to study the determinants that influence carbohydrate affinity in the extended TSP binding grooves. This is a prerequisite to design a high-affinity tailspike protein based bacteria sensor. For this purpose the tailspike protein of the bacteriophage Sf6 (Sf6 TSP) was used, which specifically binds Shigella flexneri Y O-antigen with two tetrasaccharide repeating units at the intersubunits of the trimeric β-helix protein. The Sf6 TSP endorhamnosidase cleaves the O-antigen, which leads to an octasaccharide as the main product. The binding affinity of inactive Sf6 TSP towards polysaccharide was characterized by fluorescence titration experiments and surface plasmon resonance (SPR). Moreover, cysteine mutations were introduced into the Sf6 TSP binding site for the covalent thiol-coupling of an environment-sensitive fluorescent label to obtain a sensor for Shigella flexneri Y based on TSP-O-antigen recognition. This sensor showed a more than 100 % amplitude increase of a visible light fluorescence upon the binding of a polysaccharide test solution. Improvements of the TSP sensor can be achieved by increasing the tailspike affinity towards the O-antigen. Therefore molecular dynamics simulations evaluating ligand flexibility, hydrogen bond occupancies and water network distributions were used for affinity prediction on the available cysteine mutants of Sf6 TSP. The binding affinities were experimentally analyzed by SPR. This combined computational and experimental set-up for the design of a high-affinity carbohydrate binding protein could successfully distinguish strongly increased and decreased affinities of single amino acid mutants. A thermodynamically and structurally well characterized set of another tailspike protein HK620 TSP with high-affinity mutants was used to evaluate the influence of water molecules on binding affinity. The free enthalpy of HK620 TSP oligosaccharide complex formation thereby either derived from the replacement of a conserved water molecule or by immobilization of two water molecules upon ligand binding. Furthermore, the enthalpic and entropic contributions of water molecules in a hydrophobic binding pocket could be assigned by free energy calculations. The findings in this work can be helpful for the improvement of carbohydrate docking and carbohydrate binding protein engineering algorithms in the future. KW - Kohlenhydrat-Protein Interaction KW - carbohydrate-protein interaction KW - bacterial sensor KW - Bakterien Sensor Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403458 ER - TY - THES A1 - Hendriyana, Andri T1 - Detection and Kirchhoff-type migration of seismic events by use of a new characteristic function T1 - Detektion und Kirchhoff-Migration seismischer Ereignisse durch Verwendung einer neuen charakteristischen Funktion N2 - The classical method of seismic event localization is based on the picking of body wave arrivals, ray tracing and inversion of travel time data. Travel time picks with small uncertainties are required to produce reliable and accurate results with this kind of source localization. Hence recordings, with a low Signal-to-Noise Ratio (SNR) cannot be used in a travel time based inversion. Low SNR can be related with weak signals from distant and/or low magnitude sources as well as with a high level of ambient noise. Diffraction stacking is considered as an alternative seismic event localization method that enables also the processing of low SNR recordings by mean of stacking the amplitudes of seismograms along a travel time function. The location of seismic event and its origin time are determined based on the highest stacked amplitudes (coherency) of the image function. The method promotes an automatic processing since it does not need travel time picks as input data. However, applying diffraction stacking may require longer computation times if only limited computer resources are used. Furthermore, a simple diffraction stacking of recorded amplitudes could possibly fail to locate the seismic sources if the focal mechanism leads to complex radiation patterns which typically holds for both natural and induced seismicity. In my PhD project, I have developed a new work flow for the localization of seismic events which is based on a diffraction stacking approach. A parallelized code was implemented for the calculation of travel time tables and for the determination of an image function to reduce computation time. In order to address the effects from complex source radiation patterns, I also suggest to compute diffraction stacking from a characteristic function (CF) instead of stacking the original wave form data. A new CF, which is called in the following mAIC (modified from Akaike Information Criterion) is proposed. I demonstrate that, the performance of the mAIC does not depend on the chosen length of the analyzed time window and that both P- and S-wave onsets can be detected accurately. To avoid cross-talk between P- and S-waves due to inaccurate velocity models, I separate the P- and S-waves from the mAIC function by making use of polarization attributes. Then, eventually the final image function is represented by the largest eigenvalue as a result of the covariance analysis between P- and S-image functions. Before applying diffraction stacking, I also apply seismogram denoising by using Otsu thresholding in the time-frequency domain. Results from synthetic experiments show that the proposed diffraction stacking provides reliable results even from seismograms with low SNR=1. Tests with different presentations of the synthetic seismograms (displacement, velocity, and acceleration) shown that, acceleration seismograms deliver better results in case of high SNR, whereas displacement seismograms provide more accurate results in case of low SNR recordings. In another test, different measures (maximum amplitude, other statistical parameters) were used to determine the source location in the final image function. I found that the statistical approach is the preferred method particularly for low SNR. The work flow of my diffraction stacking method was finally applied to local earthquake data from Sumatra, Indonesia. Recordings from a temporary network of 42 stations deployed for 9 months around the Tarutung pull-apart Basin were analyzed. The seismic event locations resulting from the diffraction stacking method align along a segment of the Sumatran Fault. A more complex distribution of seismicity is imaged within and around the Tarutung Basin. Two lineaments striking N-S were found in the middle of the Tarutung Basin which support independent results from structural geology. These features are interpreted as opening fractures due to local extension. A cluster of seismic events repeatedly occurred in short time which might be related to fluid drainage since two hot springs are observed at the surface near to this cluster. N2 - Klassische seismologische Verfahren zur Lokalisierung seismischer Ereignisse basieren auf der Bestimmung der Ankunftszeiten von Raumwellenphasen, der Berechnung von Strahlwegen in Untergrundmodellen sowie der Inversion der Laufzeitdaten. Um mit dieser Methode zuverlässige und genaue Lokalisierungsergebnisse zu erhalten, werden Laufzeitdaten mit kleinen Unsicherheiten benötigt. Folgerichtig müssen Seismogramme mit sehr geringen Signal-zu-Rausch Verhältnissen (S/N) häufig verworfen werden. Geringe S/N können einerseits durch schwache Signale am Empfänger, z.B. wegen großer Entfernungen zur Quelle und/oder bei Quellen mit kleiner Magnitude, und andererseits durch einen hohen Rauschpegel verursacht werden. Eine alternative Methode zur Herdlokalisierung ist die sogenannte Diffraktions-Stapel-ung. Hierbei werden die Amplituden der aufgezeichneten Wellenformen entlang von vorhergesagten Laufzeitfunktionen aufgestapelt. Durch konstruktive Aufsummation können auch Signale von Seismogrammen mit geringem S/N zur Lokalisierung beitragen. Als Teil des Verfahrens wird eine sogenannte Image-Funktion berechnet, deren maximale Amplitude (Kohärenz) mit dem Ort und der Zeit des Bebenherdes verknüpft ist. Die Methodik ist für eine Implementation von automatisierten Überwachungssystemen geeignet. Von Nachteil ist der relative hohe Rechenaufwand. Außerdem müssen bei der Diffraktions-Stapelung die komplizierten Abstrahlcharakteristika im Quellbereich und deren Auswirkungen auf die Signale an verschiedenen Empfängern im Unterschied zur Laufzeit-Inversion mit berücksichtigt werden. In meiner Arbeit habe ich eine neue Methodik zur Lokalisierung von Bebenherden unter Verwendung einer Diffraktions-Stapelung entwickelt. Zunächst werden Laufzeiten (Green’s Funktionen) für potentielle Herdlokationen mit Hilfe eines parallelisierten Algorithmus berechnet. Eine erste Vorbearbeitung der Seismogramme mit der Otsu-Threshold-ing Methode im Zeit-Frequenz-Bereich dient zur Unterdrückung von nicht-stationären Rauschanteilen. Anschliessend wird eine neu entwickelte charakteristische Funktion (CF) berechnet, um P- und S-Welleneinsätze in den gefilterten Daten noch stärker hervorzuheben. Die vorgeschlagene CF basiert auf einer modifizierten Version des Akaike Kriteriums. Die neue CF liefert stabile Resultate, die im Unterschied zum klassischen Akaike-Kriterium nicht von der subjektiv festzulegenden Länge des Analysefensters abhängig sind. Die Verwendung der CF ist darüber hinaus entscheidend, um den unerwünschten Einfluss der Abstrahlcharakteristik auf die gemessenen Amplituden bei der Diffraktions-Stapelung zu eliminieren. Eine finale Image-Funktion wird mit Hilfe einer Kovarianzmatrix-Analyse von P- und S- Image-Funktionen bestimmt, um daraus schließlich die Herdlokation zu ermitteln. Das neue Verfahren wird an Hand von synthetischen Daten getestet. Zuverlässige und genaue Resultate konnten selbst bei sehr geringen S/N von 1 erzielt werden. Tests mit verschiedenen Seismogramm-Varianten (Verschiebung, Geschwindigkeit, Beschleunigung) ergaben, dass bei hohem S/N Beschleunigungs-Seismogramme und bei sehr niedrigen S/N Verschiebungs-Seismogramme die besten Ergebnisse lieferten. Schliesslich wurde das Verfahren auf Daten aus einer Lokalbebenuntersuchung auf Sumatra (Indonesien) angewendet. Über einen Zeitraum von 9 Monaten wurde mit einem Netzwerk aus 42 Stationen die Seismizität im Bereich des Tarutung-Beckens an der Sumatra-Störung (SF) erfasst. Die Methode bildete hierbei ein lineares Segment der SF ab. Im Tarutung-Becken wurde eine komplexere Bebenverteilung abgeleitet. Ein Vergleich mit strukturgeologischen Daten liefert Rückschlüsse auf das tektonische und geothermische Regime im Untersuchungsgebiet. KW - time-series analysis KW - inverse theory KW - earthquake source observations KW - seismicity and tectonics KW - wave scattering and diffraction KW - body waves KW - computational seismology KW - Zeitreihenanalyse KW - Inversions-Theorie KW - Beobachtung von Erdbebenquellen KW - Seismizität und Tektonik KW - Wellenbrechung und Diffraktion KW - Raumwellen KW - computergestützte Seismologie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398879 ER - TY - THES A1 - Hochrein, Lena T1 - Development of a new DNA-assembly method and its application for the establishment of a red light-sensing regulation system T1 - Entwicklung einer neuartigen DNS-Assemblierungsmethode und ihre Anwendung für die Etablierung eines Rotlicht-responsiven Regulierungssystems N2 - In der hier vorgelegten Doktorarbeit wurde eine Strategie zur schnellen, einfachen und zuverlässigen Assemblierung von DNS-Fragmenten, genannt AssemblX, entwickelt. Diese kann genutzt werden, um komplexe DNS-Konstrukte, wie beispielsweise komplette Biosynthesewege, aufzubauen. Dies dient der Produktion von technisch oder medizinisch relevanten Produkten in biotechnologisch nutzbaren Organismen. Die Vorteile der Klonierungsstrategie liegen in der Schnelligkeit der Klonierung, der Flexibilität bezüglich des Wirtsorganismus, sowie der hohen Effektivität, die durch gezielte Optimierung erreicht wurde. Die entwickelte Technik erlaubt die nahtlose Assemblierung von Genfragmenten und bietet eine Komplettlösung von der Software-gestützten Planung bis zur Fertigstellung von DNS-Konstrukten, welche die Größe von Mini-Chromosomen erreichen können. Mit Hilfe der oben beschriebenen AssemblX Strategie wurde eine optogenetische Plattform für die Bäckerhefe Saccharomyces cerevisiae etabliert. Diese besteht aus einem Rotlicht-sensitiven Photorezeptor und seinem interagierenden Partner aus Arabidopsis thaliana, welche in lichtabhängiger Weise miteinander agieren. Diese Interaktion wurde genutzt, um zwei Rotlicht-aktivierbare Proteine zu erstellen: Einen Transkriptionsfaktor, der nach Applikation eines Lichtpulses die Produktion eines frei wählbaren Proteins stimuliert, sowie eine Cre Rekombinase, die ebenfalls nach Bestrahlung mit einer bestimmten Wellenlänge die zufallsbasierte Reorganisation bestimmter DNS-Konstrukte ermöglicht. Zusammenfassend wurden damit drei Werkzeuge für die synthetische Biologie etabliert. Diese ermöglichen den Aufbau von komplexen Biosynthesewegen, deren Licht-abhängige Regulation, sowie die zufallsbasierte Rekombination zu Optimierungszwecken. N2 - With Saccharomyces cerevisiae being a commonly used host organism for synthetic biology and biotechnology approaches, the work presented here aims at the development of novel tools to improve and facilitate pathway engineering and heterologous protein production in yeast. Initially, the multi-part assembly strategy AssemblX was established, which allows the fast, user-friendly and highly efficient construction of up to 25 units, e.g. genes, into a single DNA construct. To speed up complex assembly projects, starting from sub-gene fragments and resulting in mini-chromosome sized constructs, AssemblX follows a level-based approach: Level 0 stands for the assembly of genes from multiple sub-gene fragments; Level 1 for the combination of up to five Level 0 units into one Level 1 module; Level 2 for linkages of up to five Level 1 modules into one Level 2 module. This way, all Level 0 and subsequently all Level 1 assemblies can be carried out simultaneously. Individually planned, overlap-based Level 0 assemblies enable scar-free and sequence-independent assemblies of transcriptional units, without limitations in fragment number, size or content. Level 1 and Level 2 assemblies, which are carried out via predefined, computationally optimized homology regions, follow a standardized, highly efficient and PCR-free scheme. AssemblX follows a virtually sequence-independent scheme with no need for time-consuming domestication of assembly parts. To minimize the risk of human error and to facilitate the planning of assembly projects, especially for individually designed Level 0 constructs, the whole AssemblX process is accompanied by a user-friendly webtool. This webtool provides the user with an easy-to-use operating surface and returns a bench-protocol including all cloning steps. The efficiency of the assembly process is further boosted through the implementation of different features, e.g. ccdB counter selection and marker switching/reconstitution. Due to the design of homology regions and vector backbones the user can flexibly choose between various overlap-based cloning methods, enabling cost-efficient assemblies which can be carried out either in E. coli or yeast. Protein production in yeast is additionally supported by a characterized library of 40 constitutive promoters, fully integrated into the AssemblX toolbox. This provides the user with a starting point for protein balancing and pathway engineering. Furthermore, the final assembly cassette can be subcloned into any vector, giving the user the flexibility to transfer the individual construct into any host organism different from yeast. As successful production of heterologous compounds generally requires a precise adjustment of protein levels or even manipulation of the host genome to e.g. inhibit unwanted feedback regulations, the optogenetic transcriptional regulation tool PhiReX was designed. In recent years, light induction was reported to enable easy, reversible, fast, non-toxic and nearly gratuitous regulation, thereby providing manifold advantages compared to conventional chemical inducers. The optogenetic interface established in this study is based on the photoreceptor PhyB and its interacting protein PIF3. Both proteins, derived from Arabidopsis thaliana, dimerize in a red/far-red light-responsive manner. This interaction depends on a chromophore, naturally not available in yeast. By fusing split proteins to both components of the optical dimerizer, active enzymes can be reconstituted in a light-dependent manner. For the construction of the red/far-red light sensing gene expression system PhiReX, a customizable synTALE-DNA binding domain was fused to PhyB, and a VP64 activation domain to PIF3. The synTALE-based transcription factor allows programmable targeting of any desired promoter region. The first, plasmid-based PhiReX version mediates chromophore- and light-dependent expression of the reporter gene, but required further optimization regarding its robustness, basal expression and maximum output. This was achieved by genome-integration of the optical regulator pair, by cloning the reporter cassette on a high-copy plasmid and by additional molecular modifications of the fusion proteins regarding their cellular localization. In combination, this results in a robust and efficient activation of cells over an incubation time of at least 48 h. Finally, to boost the potential of PhiReX for biotechnological applications, yeast was engineered to produce the chromophore. This overcomes the need to supply the expensive and photo-labile compound exogenously. The expression output mediated through PhiReX is comparable to the strong constitutive yeast TDH3 promoter and - in the experiments described here - clearly exceeds the commonly used galactose inducible GAL1 promoter. The fast-developing field of synthetic biology enables the construction of complete synthetic genomes. The upcoming Synthetic Yeast Sc2.0 Project is currently underway to redesign and synthesize the S. cerevisiae genome. As a prerequisite for the so-called “SCRaMbLE” system, all Sc2.0 chromosomes incorporate symmetrical target sites for Cre recombinase (loxPsym sites), enabling rearrangement of the yeast genome after induction of Cre with the toxic hormonal substance beta-estradiol. To overcome the safety concern linked to the use of beta-estradiol, a red light-inducible Cre recombinase, dubbed L-SCRaMbLE, was established in this study. L-SCRaMbLE was demonstrated to allow a time- and chromophore-dependent recombination with reliable off-states when applied to a plasmid containing four genes of the beta-carotene pathway, each flanked with loxPsym sites. When directly compared to the original induction system, L-SCRaMbLE generates a larger variety of recombination events and lower basal activity. In conclusion, L-SCRaMbLE provides a promising and powerful tool for genome rearrangement. The three tools developed in this study provide so far unmatched possibilities to tackle complex synthetic biology projects in yeast by addressing three different stages: fast and reliable biosynthetic pathway assembly; highly specific, orthogonal gene regulation; and tightly controlled synthetic evolution of loxPsym-containing DNA constructs. KW - synthetic biology KW - pathway engineering KW - DNA assembly KW - transcription factor KW - Cre recombinase KW - optogenetics KW - synthetische Biologie KW - Optimierung von Biosynthesewegen KW - DNS Assemblierung KW - Transkriptionsfaktor KW - Cre Rekombinase KW - Optogenetik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404441 ER - TY - THES A1 - Meiling, Till Thomas T1 - Development of a reliable and environmentally friendly synthesis for fluorescence carbon nanodots T1 - Entwicklung einer zuverlässigen und umweltfreundlichen Synthese für fluoreszierende Kohlenstoff-Nanopunkte BT - preparation and characterisation of excellent and well-defined carbon nanodots by a fast, simple and cost-efficient synthesis method; with special focus on future exploration and large scale applications BT - Herstellung und Charakterisierung von hochwertigen und klar definierten Kohlenstoff-Nanopunkten mit Hilfe einer schnellen, einfachen, und kosteneffizienten Synthesemethode; mit speziellem Fokus auf ihre zukünftige Erforschung und breite Anwendung N2 - Carbon nanodots (CNDs) have generated considerable attention due to their promising properties, e.g. high water solubility, chemical inertness, resistance to photobleaching, high biocompatibility and ease of functionalization. These properties render them ideal for a wide range of functions, e.g. electrochemical applications, waste water treatment, (photo)catalysis, bio-imaging and bio-technology, as well as chemical sensing, and optoelectronic devices like LEDs. In particular, the ability to prepare CNDs from a wide range of accessible organic materials makes them a potential alternative for conventional organic dyes and semiconductor quantum dots (QDs) in various applications. However, current synthesis methods are typically expensive and depend on complex and time-consuming processes or severe synthesis conditions and toxic chemicals. One way to reduce overall preparation costs is the use of biological waste as starting material. Hence, natural carbon sources such as pomelo peal, egg white and egg yolk, orange juice, and even eggshells, to name a few; have been used for the preparation of CNDs. While the use of waste is desirable, especially to avoid competition with essential food production, most starting-materials lack the essential purity and structural homogeneity to obtain homogeneous carbon dots. Furthermore, most synthesis approaches reported to date require extensive purification steps and have resulted in carbon dots with heterogeneous photoluminescent properties and indefinite composition. For this reason, among others, the relationship between CND structure (e.g. size, edge shape, functional groups and overall composition) and photophysical properties is yet not fully understood. This is particularly true for carbon dots displaying selective luminescence (one of their most intriguing properties), i.e. their PL emission wavelength can be tuned by varying the excitation wavelength. In this work, a new reliable, economic, and environmentally-friendly one-step synthesis is established to obtain CNDs with well-defined and reproducible photoluminescence (PL) properties via the microwave-assisted hydrothermal treatment of starch, carboxylic acids and Tris-EDTA (TE) buffer as carbon- and nitrogen source, respectively. The presented microwave-assisted hydrothermal precursor carbonization (MW-hPC) is characterized by its cost-efficiency, simplicity, short reaction times, low environmental footprint, and high yields of approx. 80% (w/w). Furthermore, only a single synthesis step is necessary to obtain homogeneous water-soluble CNDs with no need for further purification. Depending on starting materials and reaction conditions different types of CNDs have been prepared. The as-prepared CNDs exhibit reproducible, highly homogeneous and favourable PL properties with narrow emission bands (approx. 70nm FWHM), are non-blinking, and are ready to use without need for further purification, modification or surface passivation agents. Furthermore, the CNDs are comparatively small (approx. 2.0nm to 2.4nm) with narrow size distributions; are stable over a long period of time (at least one year), either in solution or as a dried solid; and maintain their PL properties when re-dispersed in solution. Depending on CND type, the PL quantum yield (PLQY) can be adjusted from as low as 1% to as high as 90%; one of the highest reported PLQY values (for CNDs) so far. An essential part of this work was the utilization of a microwave synthesis reactor, allowing various batch sizes and precise control over reaction temperature and -time, pressure, and heating- and cooling rate, while also being safe to operate at elevated reaction conditions (e.g. 230 ±C and 30 bar). The hereby-achieved high sample throughput allowed, for the first time, the thorough investigation of a wide range of synthesis parameters, providing valuable insight into the CND formation. The influence of carbon- and nitrogen source, precursor concentration and -combination, reaction time and -temperature, batch size, and post-synthesis purification steps were carefully investigated regarding their influence on the optical properties of as-synthesized CNDs. In addition, the change in photophysical properties resulting from the conversion of CND solution into solid and back into the solution was investigated. Remarkably, upon freeze-drying the initial brown CND-solution turns into a non-fluorescent white/slightly yellow to brown solid which recovers PL in aqueous solution. Selected CND samples were also subject to EDX, FTIR, NMR, PL lifetime (TCSPC), particle size (TEM), TGA and XRD analysis. Besides structural characterization, the pH- and excitation dependent PL characteristics (i.e. selective luminescence) were examined; giving inside into the origin of photophysical properties and excitation dependent behaviour of CNDs. The obtained results support the notion that for CNDs the nature of the surface states determines the PL properties and that excitation dependent behaviour is caused by the “Giant Red-Edge Excitation Shift” (GREES). N2 - Kohlenstoff-Nanopunkte (CNDs, engl. carbon nanodots) haben im letzten Jahrzehnt insbesondere durch ihre vielversprechenden Eigenschaften immer mehr an Popularität gewonnen. CNDs zeichnen sich insbesondere durch ihre Wasserlöslichkeit, hohe chemische Stabilität, Biokompatibilität, hohe Resistenz gegen Photobleichen, und die Möglichkeit zur Oberflächenfunktionalisierung aus. Diese Eigenschaften machen sie somit ideal für eine breite Palette von Anwendungen: z.B. Abwasserbehandlung, (Foto-) Katalyse, Bioimaging und Biotechnologie, chemische Sensorik, sowie elektrochemische- und optoelektronische Anwendungen (z.B. LEDs). Insbesondere die Möglichkeit, CNDs aus einer Vielzahl organischer Materialien herzustellen, machen sie zu einer möglichen Alternative für herkömmliche organische Farbstoffe und Halbleiter-Quantenpunkte (QDs). Derzeitigen Synthesestrategien erweisen sich jedoch häufig als teuer, komplex und zeitaufwändig; bzw. benötigen toxischen Chemikalien und/oder drastische Reaktionsbedingungen. Eine Möglichkeit, die Herstellungskosten von CNDs zu reduzieren, ist die Verwendung von biologischem Abfall als Ausgangsmaterial. So wurden bereits eine Vielzahl an natürlichen Kohlenstoffquellen, z.B. Pomelo-Schale, Eiweiß und Eigelb, Orangensaft und sogar Eierschalen, für die Darstellung von CNDs verwendet. Während die Verwendung von biologischem Abfall wünschenswert ist, insbesondere um Wettbewerb mit der Nahrungsmittelproduktion zu vermeiden, fehlt den meisten Ausgangsmaterialien jedoch die notwendige Reinheit und strukturelle Homogenität um einheitliche CNDs zu erhalten. So führen bisherige Syntheseansätze oft zu CNDs mit heterogenen photophysikalischen Eigenschaften und unbestimmter Zusammensetzung. Für die Untersuchung des Zusammenhangs zwischen CND Struktur und photophysikalischen Eigenschaften werden aber möglichst homogene und vergleichbare Proben benötigt. In dieser Arbeit wird daher eine neue, zuverlässige, ökonomische und umweltfreundliche Einstufen-Synthese zur Darstellung von CNDs mit klar definierten und reproduzierbaren Photolumineszenz- (PL) -Eigenschaften vorgestellt. Die vorgestellte Methode basiert auf der mikrowellenunterstützten, hydrothermischen Behandlung (MW-hPC, engl. microwaveassisted hydrothermal precursor carbonization) wässriger Lösungen aus Stärke, Carbonsäuren (als Kohlenstoffquelle) und Tris-EDTA (TE) -Puffer (als Stickstoffquelle). Die MW-hPC zeichnet sich insbesondere durch die hohe Reproduzierbarkeit, einfache Handhabung, geringen Reaktionszeiten, geringe Umweltbelastung, Kosteneffizienz und die hohen Ausbeuten von ca. 80% (w/w) aus. Darüber hinaus wird nur ein einziger Syntheseschritt (ohne weitere Aufreinigung) benötigt um homogene, wasserlösliche CNDs zu erhalten. In Abhängig der gewählten Ausgangsmaterialen und Reaktionsbedingungen können verschiedene Typen an CNDs gewonnen werden. Die so gewonnen CNDs sind verhältnismäßig klein (ca. 2.0nm- 2.4nm); besitzen eine geringe Größenverteilung, hochgradig homogenen PL-Eigenschaften, und geringen Halbwertsbreiten (FWHM) von ca. 70nm. Darüber hinaus erwiesen sie sich als nicht blinkend; sind langzeitstabil (min. ein Jahr) sowohl in Lösung als auch als Feststoff; und sind direkt gebrauchsfertig, d.h. benötigen keine weitere Aufreinigung oder Oberflächenpassivierung. In Abhängigkeit vom CND-Typ kann die PL-Quantenausbeute zwischen 1% bis 90% betragen; einer der höchsten Werte der je (für CNDs) erreicht wurde. Ein wesentlicher Bestandteil dieser Arbeit war die Verwendung eines Mikrowellensynthese- Reaktors (MiWR) und die damit einhergehende präzise Kontrolle über die Reaktionstemperatur und -zeit, den Druck, und die Heiz- und Abkühlgeschwindigkeit. Des Weiteren ermöglichte der MiWR unterschiedliche Ansatzgrößen und das sichere Arbeiten bei erhöhten Reaktionsbedingungen (z.B. 230 ±C und 30 bar). Der hierdurch erreichte hohe Probendurchsatz ermöglichte somit erstmals die sorgfältige Untersuchung einer Vielzahl an Syntheseparametern hinsichtlich ihres Einflusses auf die photophysikalischen Eigenschaften der dargestellten CNDs. Die untersuchten Parameter reichen hierbei von der Reaktionstemperatur und -zeit über die Edukt-Konzentration und -Kombination (Kohlenstoff- und Stickstoffquelle) bis hin zur Ansatzgröße. Bemerkenswerterweise, und unabhängig vom CND-Typ, transformieren die ursprünglich braunen CND-Lösungen während der Trocknung zu einem nicht fluoreszierenden, weißen/leicht gelblich bis bräunlichen Feststoff; und regenerieren ihre photophysikalischen Eigenschaften verlustfrei in wässriger Lösung. Im Rahmen dieser Arbeit wurden ausgewählte CND-Proben der EDX-, FTIR-, NMR-, TCSPC-, Partikelgrößen (TEM)-, TGA- und XRD-Analyse unterzogen. Die hierbei gewonnenen Erkenntnisse stützen die Theorie, dass die photophysikalischen Eigenschaften der CNDs durch ihre Oberflächenzustände bestimmt werden und dass die s.g. ”Riesen-Rotkanten-Anregungsverschiebung” (GREES, engl. Giant Red Edge Excitation Shift) eine mögliche Ursache für die häufig beobachtete Anregungswellenlängenabhängigkeit der Emissionswellenlänge (bzw. selektive Lumineszenz) in CNDs ist. KW - carbon dots KW - carbon nanodots KW - fluorescence KW - high quantum yield KW - microwave synthesis KW - white carbon KW - Kohlenstoff-Punkte KW - Kohlenstoff-Nanopunkte KW - Fluoreszenz KW - hohe Quantenausbeute KW - mikrowellengestützte Synthese KW - weißer Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410160 ER - TY - THES A1 - Dippel, Sandor T1 - Development of functional hydrogels for sensor applications T1 - Entwicklung funktionalisierter Hydrogele für Sensor Anwendungen N2 - In this work, a sensor system based on thermoresponsive materials is developed by utilizing a modular approach. By synthesizing three different key monomers containing either a carboxyl, alkene or alkyne end group connected with a spacer to the methacrylic polymerizable unit, a flexible copolymerization strategy has been set up with oligo ethylene glycol methacrylates. This allows to tune the lower critical solution temperature (LCST) of the polymers in aqueous media. The molar masses are variable thanks to the excurse taken in polymerization in ionic liquids thus stretching molar masses from 25 to over 1000 kDa. The systems that were shown shown to be effective in aqueous solution could be immobilized on surfaces by copolymerizing photo crosslinkable units. The immobilized systems were formulated to give different layer thicknesses, swelling ratios and mesh sizes depending on the demand of the coupling reaction. The coupling of detector units or model molecules is approached via reactions of the click chemistry pool, and the reactions are evaluated on their efficiency under those aspects, too. These coupling reactions are followed by surface plasmon resonance spectroscopy (SPR) to judge efficiency. With these tools at hand, Salmonella saccharides could be selectively detected by SPR. Influenza viruses were detected in solution by turbidimetry in solution as well as by a copolymerized solvatochromic dye to track binding via the changes of the polymers’ fluorescence by said binding event. This effect could also be achieved by utilizing the thermoresponsive behavior. Another demonstrator consists of the detection system bound to a quartz surface, thus allowing the virus detection on a solid carrier. The experiments show the great potential of combining the concepts of thermoresponsive materials and click chemistry to develop technically simple sensors for large biomolecules and viruses. N2 - Diese Arbeit befasst sich mit der Entwicklung von Sensorsystemen für biologische Analyten wie Bakterien und Viren. Die Sensoren beruhen auf thermoresponsiven Polymeren und die Entwicklung wird Schritt für Schritt ausgehend von der Monomersynthese dargelegt. Die Grundidee ist es alle Einzelschritte so modular wie möglich zu halten. Die Kopplungseinheiten für die späteren Erkennungsgruppen bestehen aus Carboxyl, Alken und Alkinfunktionalitäten, die zuerst mit einem Ethylenglycolspacer mit variabler Länge verknüpft werden und dann mit der polymerisierbaren Methylmethacrylatgruppe versehen werden. Diese koppelbaren Monomere werden mit Di- oder (Oligoethylenglycol)methacrylaten copolymerisiert. Je nach Verhältnis ist so auch die untere kritische Entmischungstemperatur (LCST) einstellbar. Mit der Erweiterung der Polymerisationstechnik um ionische Flüssigkeiten als Lösemittel lassen sich Molmassen von 25 bis über 1000 kDa einstellen. Um die Polymere funktionell zu erweitern, lassen sich auch benzophenonhaltige Monomere zur Vernetzung oder Immobilisierung copolymerisieren. Naphthalsäureimidhaltige Monomere wiederum dienen als Signaleinheit, da sie durch Verändern der Polarität ihrer Umgebung solvatochrom reagieren. Durch Aufschleudern und UV-Vernetzen lassen sich Gelschichten mit guter Schichtdickenkontrolle herstellen. Dabei sind die Substrate nur auf den jeweiligen Zweck beschränkt. Dank des Baukastenprinzips kann auch die Maschenweite oder der Quellgrad der Gele eingestellt werden. Die Polymere oder Hydrogele werden mit Hilfe von effizienten Reaktionen swe sogenannten „Click Chemie“ umgesetzt und die Reaktionen werden durchleuchtet, ob sie diesen Ansprüchen gerecht werden. Je nach Möglichkeit wird das Anknüpfen mittels Oberflächenplasmonenresonanzspektroskopie(SPR) verfolgt, so wie zum Beispiel die Kopplung eines Phagen-Oberflächenproteins und das selektive Binden eines Membransaccharids des Salmonellen Bakteriums. Influenza Viren werden selektiv mit Hilfe eines Erkennungspeptids gebunden und mit Hilfe von Trübungsspektroskopie bzw. dem thermoresponsiven Verhalten des Trägerpolymers nachgewiesen. Ein weiterer dargelegter Ansatz ist das Nachweisen von geringen Virenkonzentrationen mit Hilfe eines Hydrogels oder von Polymeren in Lösung, die jeweils mit einem solvatochromen Farbstoff ausgestattet sind, der auf die Umgebungsänderung durch den Virus reagiert. Die Experimente zeigen das große Potential von geschickt kombinierten thermoresponsiven Materialien, die mittels Funktionalisierung durch Click-Chemie zu technisch einfachen Nachweissystemen für Biomoleküle und sogar ganze Zellen entwickelt werden können. KW - biosensors KW - polymer synthesis KW - lower critical solution temperature KW - surface modification KW - smart materials KW - Biosensoren KW - Polymersynthese KW - untere kritische Entmischungstemperatur KW - schaltbare Materialien Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398252 ER - TY - THES A1 - Tabatabaei, Iman T1 - Development of new selection systems for organellar genome transformation N2 - Plant cells host two important organelles: mitochondria, known as the cell’s ‘powerhouse’, which act by converting oxygen and nutrients into ATP, and plastids, which perform photosynthesis. These organelles contain their own genomes that encode proteins required for gene expression and energy metabolism. Transformation technologies offer great potential for investigating all aspects of the physiology and gene expression of these organelles in vivo. In addition, organelle transformation can be a valuable tool for biotechnology and molecular plant breeding. Plastid transformation systems are well-developed for a few higher plants, however, mitochondrial transformation has so far only been reported for Saccharomyces cerevisiae and the unicellular alga Chlamydomonas reinhardtii. Development of an efficient new selection marker for plastid transformation is important for several reasons, including facilitating supertransformation of the plastid genome for metabolic engineering purposes and for producing multiple knock-outs or site-directed mutagenesis of two unlinked genes. In this work, we developed a novel selection system for Nicotiana tabacum (tobacco) chloroplast transformation with an alternative marker. The marker gene, aac(6′)-Ie/aph(2′′)-Ia, was cloned into different plastid transformation vectors and several candidate aminoglycoside antibiotics were investigated as selection agents. Generally, the efficiency of selection and the transformation efficiency with aac(6′)-Ie/aph(2′′)-Ia as selectable marker in combination with the aminoglycoside antibiotic tobramycin was similarly high as that with the standard marker gene aadA and spectinomycin selection. Furthermore, our new selection system may be useful for the development of plastid transformation for new species, including cereals, the world’s most important food crops, and could also be helpful for the establishment of a selection system for mitochondrial transformation. To date, all attempts to achieve mitochondrial transformation for higher plants have been unsuccessful. A mitochondrial transformation system for higher plants would not only provide a potential for studying mitochondrial physiology but could also provide a method to introduce cytoplasmic male sterility into crops to produce hybrid seeds. Establishing a stable mitochondrial transformation system in higher plants requires several steps including delivery of foreign DNA, stable integration of the foreign sequences into the mitochondrial genome, efficient expression of the transgene, a highly regenerable tissue culture system that allows regeneration of the transformed cells into plants, and finally, a suitable selection system to identify cells with transformed mitochondrial genomes. Among all these requirements, finding a good selection is perhaps the most important obstacle towards the development of a mitochondrial transformation system for higher plants. In this work, two selection systems were tested for mitochondrial transformation: kanamycin as a selection system in combination with the antibiotic-inactivating marker gene nptII, and sulfadiazine as a selection agent that inhibits the folic acid biosynthesis pathway residing in plant mitochondria in combination with the sul gene encoding an enzyme that is insensitive to inhibition by sulfadiazine. Nuclear transformation experiments were considered as proof of the specificity of the sulfadiazine selection system for mitochondria. We showed that an optimized sulfadiazine selection system, with the Sul protein targeted to mitochondria, is much more efficient than the previous sulfadiazine selection system, in which the Sul protein was targeted to the chloroplast. We also showed by systematic experiments that the efficiency of selection and nuclear transformation of the optimized sulfadiazine selection was higher compared to the standard kanamycin selection system. Finally, we also investigated the suitability of this selection system for nuclear transformation of the model alga Chlamydomonas reinhardtii, obtaining promising results. Although we designed several mitochondrial transformation vectors with different expression elements and integration sites in the mitochondrial genome based on the sulfadiazine system, and different tissue culture condition were also considered, we were not able to obtain mitochondrial transformation with this system. Nonetheless, establishing the sul gene as an efficient and specific selection marker for mitochondria addresses one of the major bottlenecks and may pave the way to achieve mitochondrial transformation in higher plants. KW - plastid transformation KW - tobramycin KW - bifunctional enzyme KW - mitochondrial transformation KW - sulfadiazine Y1 - 2017 ER - TY - THES A1 - Weitkunat, Karolin T1 - Dietary fibers and short-chain fatty acids in the development of diet-induced obesity Y1 - 2017 ER - TY - THES A1 - Mücke, Nicole T1 - Direct and inverse problems in machine learning T1 - Direkte und inverse Probleme im maschinellen Lernen BT - kernel methods and spectral regularization BT - Kern Methoden und spektrale Regularisierung N2 - We analyze an inverse noisy regression model under random design with the aim of estimating the unknown target function based on a given set of data, drawn according to some unknown probability distribution. Our estimators are all constructed by kernel methods, which depend on a Reproducing Kernel Hilbert Space structure using spectral regularization methods. A first main result establishes upper and lower bounds for the rate of convergence under a given source condition assumption, restricting the class of admissible distributions. But since kernel methods scale poorly when massive datasets are involved, we study one example for saving computation time and memory requirements in more detail. We show that Parallelizing spectral algorithms also leads to minimax optimal rates of convergence provided the number of machines is chosen appropriately. We emphasize that so far all estimators depend on the assumed a-priori smoothness of the target function and on the eigenvalue decay of the kernel covariance operator, which are in general unknown. To obtain good purely data driven estimators constitutes the problem of adaptivity which we handle for the single machine problem via a version of the Lepskii principle. N2 - In dieser Arbeit analysieren wir ein zufälliges und verrauschtes inverses Regressionsmodell im random design. Wir konstruiueren aus gegebenen Daten eine Schätzung der unbekannten Funktion, von der wir annehmen, dass sie in einem Hilbertraum mit reproduzierendem Kern liegt. Ein erstes Hauptergebnis dieser Arbeit betrifft obere Schranken an die Konvergenzraten. Wir legen sog. source conditions fest, definiert über geeignete Kugeln im Wertebereich von (reellen) Potenzen des normierten Kern-Kovarianzoperators. Das führt zu einer Einschränkung der Klasse der Verteilungen in einem statistischen Modell, in dem die spektrale Asymptotik des von der Randverteilung abhängigen Kovarianzoperators eingeschränkt wird. In diesem Kontext zeigen wir obere und entsprechende untere Schranken für die Konvergenzraten für eine sehr allgemeine Klasse spektraler Regularisierungsmethoden und etablieren damit die sog. Minimax-Optimalität dieser Raten. Da selbst bei optimalen Konvergenzraten Kernmethoden, angewandt auf große Datenmengen, noch unbefriedigend viel Zeit verschlingen und hohen Speicherbedarf aufweisen, untersuchen wir einen Zugang zur Zeitersparnis und zur Reduktion des Speicherbedarfs detaillierter. Wir studieren das sog. distributed learning und beweisen für unsere Klasse allgemeiner spektraler Regularisierungen ein neues Resultat, allerdings immer noch unter der Annahme einer bekannten a priori Regularität der Zielfunktion, ausgedrückt durch die Fixierung einer source condition. Das große Problem bei der Behandlung realer Daten ist das der Adaptivität, d.h. die Angabe eines Verfahrens, das ohne eine solche a priori Voraussetzung einen in einem gewissen Sinn optimalen Schätzer aus den Daten konstruiert. Das behandeln wir vermöge einer Variante des Balancing principle. KW - inverse problems KW - kernel methods KW - minimax optimality KW - inverse Probleme KW - Kern Methoden KW - Minimax Optimalität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403479 ER - TY - THES A1 - Kretschmer, Marlene T1 - Disentangling causal pathways of the stratospheric polar vortex BT - a machine learning approach Y1 - 2017 ER - TY - THES A1 - Anders, Friedrich T1 - Disentangling the chemodynamical history of the Milky Way disc with asteroseismology and spectroscopy T1 - Die chemodynamische Entwicklung der Milchstraßenscheibe im Lichte asteroseismischer und spektroskopischer Himmelsdurchmusterungen N2 - Galaxies are among the most complex systems that can currently be modelled with a computer. A realistic simulation must take into account cosmology and gravitation as well as effects of plasma, nuclear, and particle physics that occur on very different time, length, and energy scales. The Milky Way is the ideal test bench for such simulations, because we can observe millions of its individual stars whose kinematics and chemical composition are records of the evolution of our Galaxy. Thanks to the advent of multi-object spectroscopic surveys, we can systematically study stellar populations in a much larger volume of the Milky Way. While the wealth of new data will certainly revolutionise our picture of the formation and evolution of our Galaxy and galaxies in general, the big-data era of Galactic astronomy also confronts us with new observational, theoretical, and computational challenges. This thesis aims at finding new observational constraints to test Milky-Way models, primarily based on infra-red spectroscopy from the Apache Point Observatory Galactic Evolution Experiment (APOGEE) and asteroseismic data from the CoRoT mission. We compare our findings with chemical-evolution models and more sophisticated chemodynamical simulations. In particular we use the new powerful technique of combining asteroseismic and spectroscopic observations that allows us to test the time dimension of such models for the first time. With CoRoT and APOGEE (CoRoGEE) we can infer much more precise ages for distant field red-giant stars, opening up a new window for Galactic archaeology. Another important aspect of this work is the forward-simulation approach that we pursued when interpreting these complex datasets and comparing them to chemodynamical models. The first part of the thesis contains the first chemodynamical study conducted with the APOGEE survey. Our sample comprises more than 20,000 red-giant stars located within 6 kpc from the Sun, and thus greatly enlarges the Galactic volume covered with high-resolution spectroscopic observations. Because APOGEE is much less affected by interstellar dust extinction, the sample covers the disc regions very close to the Galactic plane that are typically avoided by optical surveys. This allows us to investigate the chemo-kinematic properties of the Milky Way's thin disc outside the solar vicinity. We measure, for the first time with high-resolution data, the radial metallicity gradient of the disc as a function of distance from the Galactic plane, demonstrating that the gradient flattens and even changes its sign for mid-plane distances greater than 1 kpc. Furthermore, we detect a gap between the high- and low-[$\alpha$/Fe] sequences in the chemical-abundance diagram (associated with the thin and thick disc) that unlike in previous surveys can hardly be explained by selection effects. Using 6D kinematic information, we also present chemical-abundance diagrams cleaned from stars on kinematically hot orbits. The data allow us to confirm without doubt that the scale length of the (chemically-defined) thick disc is significantly shorter than that of the thin disc. In the second part, we present our results of the first combination of asteroseismic and spectroscopic data in the context of Galactic Archaeology. We analyse APOGEE follow-up observations of 606 solar-like oscillating red giants in two CoRoT fields close to the Galactic plane. These stars cover a large radial range of the Galactic disc (4.5 kpc $\lesssim R_{\rm Gal}\lesssim15$ kpc) and a large age baseline (0.5 Gyr $\lesssim \tau\lesssim$ 13 Gyr), allowing us to study the age- and radius-dependence of the [$\alpha$/Fe] vs. [Fe/H] distributions. We find that the age distribution of the high-[$\alpha$/Fe] sequence appears to be broader than expected from a monolithically-formed old thick disc that stopped to form stars 10 Gyr ago. In particular, we discover a significant population of apparently young, [$\alpha$/Fe]-rich stars in the CoRoGEE data whose existence cannot be explained by standard chemical-evolution models. These peculiar stars are much more abundant in the inner CoRoT field LRc01 than in the outer-disc field LRc01, suggesting that at least part of this population has a chemical-evolution rather than a stellar-evolution origin, possibly due to a peculiar chemical-enrichment history of the inner disc. We also find that strong radial migration is needed to explain the abundance of super-metal-rich stars in the outer disc. Finally, we use the CoRoGEE sample to study the time evolution of the radial metallicity gradient in the thin disc, an observable that has been the subject of observational and theoretical debate for more than 20 years. By dividing the CoRoGEE dataset into six age bins, performing a careful statistical analysis of the radial [Fe/H], [O/H], and [Mg/Fe] distributions, and accounting for the biases introduced by the observation strategy, we obtain reliable gradient measurements. The slope of the radial [Fe/H] gradient of the young red-giant population ($-0.058\pm0.008$ [stat.] $\pm0.003$ [syst.] dex/kpc) is consistent with recent Cepheid data. For the age range of $1-4$ Gyr, the gradient steepens slightly ($-0.066\pm0.007\pm0.002$ dex/kpc), before flattening again to reach a value of $\sim-0.03$ dex/kpc for stars with ages between 6 and 10 Gyr. This age dependence of the [Fe/H] gradient can be explained by a nearly constant negative [Fe/H] gradient of $\sim-0.07$ dex/kpc in the interstellar medium over the past 10 Gyr, together with stellar heating and migration. Radial migration also offers a new explanation for the puzzling observation that intermediate-age open clusters in the solar vicinity (unlike field stars) tend to have higher metallicities than their younger counterparts. We suggest that non-migrating clusters are more likely to be kinematically disrupted, which creates a bias towards high-metallicity migrators from the inner disc and may even steepen the intermediate-age cluster abundance gradient. N2 - Galaxien gehören zu den komplexesten physikalischen Systemen, die derzeit mit Computern modelliert werden können. Eine realistische Galaxiensimulation muss kosmologische Effekte genauso berücksichtigen wie die Gesetze der Plasma-, Kern-, und Teilchenphysik. Die Milchstraße ist ein ideales Labor für die Überprüfung solcher Simulationen, da moderne Teleskope die Kinematik und chemische Zusammensetzung von Millionen von Milchstraßensternen einzeln analysieren können und uns so einen Einblick in die Entstehungsgeschichte unserer Galaxie geben. Dank groß angelegter spektroskopischer Himmelsdurchmusterungen lassen sich seit Neuestem auch stellare Populationen in fernen Regionen der Milchstraße systematisch studieren. Dieser Datenreichtum hat das Potential, unseren Blick auf die Entstehung unserer kosmischen Heimat zu revolutionieren, konfrontiert die Forschung aber auch mit neuen beobachtungstechnischen, theoretischen und numerischen Herausforderungen. Das Ziel dieser Arbeit ist es, moderne numerische Modelle der Milchstraße mittels neuer Beobachtungen zu testen. Hierbei benutzen wir vor Allem Infrarotspektroskopiedaten des Apache Point Observatory Galactic Evolution Experiment (APOGEE), sowie asteroseismische Daten der europäischen Exoplanetenmission CoRoT. Wir vergleichen unsere Resultate mit semianalytischen chemischen Entwicklungsmodellen und komplexeren chemodynamischen Simulationen, wobei uns die Kombination von asteroseismischen und spektroskopischen Daten erlaubt, zum ersten Mal die Zeitdimension solcher Modelle zu testen. Mit den CoRoT-APOGEE-Beobachtungen (kurz: CoRoGEE) lassen sich viel präzisere Altersbestimmungen für entfernte Riesensterne berechnen. Ein weiterer wichtiger Bestandteil dieser Arbeit ist die Verwendung sogenannter Mock-Beobachtungen, bei denen ein chemodynamisches Milchstraßenmodell so ``beobachtet'' wird wie die Milchstraße selbst, unter möglichst realistischer Berücksichtigung aller Beobachtungseffekte. Dies erlaubt uns akkuratere Vergleiche von Modellen und Daten, und ermöglicht eine einfachere Interpretation. Der erste Teil dieser Arbeit enthält eine chemodynamische Untersuchung von mehr als 20,000 roten Riesensternen, die sich bis zu 6 kpc (20,000 Lichtjahre) entfernt befinden. Diese Studie, die mit den ersten APOGEE-Daten gemacht wurde, konnte so das galaktische Volumen, das mit hochauflösender Spektroskopie je beobachtet wurde, dramatisch vergrößern. Weil die Sensitivität von APOGEE als Infrarotexperiment weit weniger durch interstellare Extinktion behindert wird, dringt unsere Stichprobe außerdem in die Regionen nahe der galaktischen Ebene vor, die typischerweise von optischen Durchmusterungen vermieden werden. Das erlaubt es uns, die chemodynamischen Eigenschaften der dünnen Milchstraßenscheibe außerhalb der unmittelbaren Sonnenumgebung zu studieren. Wir können beispielsweise zum ersten Mal mit hochauflösender Spektroskopie den radialen Metallizitätsgradienten der Scheibe als Funktion des Abstands von der Scheibenebene messen und zeigen, dass dieser Gradient oberhalb von 1 kpc positiv ist. Außerdem detektieren wir eine Lücke zwischen den Populationen I und II im chemischen [$\alpha$/Fe]-[Fe/H]-Häufigkeitsdiagramm, die im Gegensatz zur früheren Datenerhebungen schwerlich durch Selektionseffekte erklärt werden kann. Da für viele Sterne zudem 6-dimensionale Phasenrauminformationen vorliegen, können wir außerdem chemische Häufigkeitsdiagramme analysieren, in denen stellare Passanten aus anderen galaktischen Regionen ausgeblendet werden. Unsere Daten bestätigen zweifelsfrei die kurze Skalenlänge der dicken Milchstraßenscheibe (Population II). Im zweiten Teil der Arbeit nutzen wir zum ersten Mal kombinierte seismisch-spektroskopische Beobachtungen zum Zwecke der Galaktischen Archäologie. Wir analysieren dabei APOGEE-Beobachtungen von 606 roten Riesensternen in zwei CoRoT-Himmelsfeldern nahe der Galaktischen Ebene. Die Sterne sind über einen weiten Bereich der Galaktischen Scheibe verteilt (4.5 kpc $\lesssim R_{\rm Gal}\lesssim15$ kpc) und decken eine große Altersspanne ab (0.5 Gyr $\lesssim \tau\lesssim$ 13 Gyr), was es uns erlaubt, sowohl die Alters- als auch die radiale Abhängigkeit der [$\alpha$/Fe]-[Fe/H]-Verteilungen zu untersuchen. Dabei konstatieren wir, dass die Altersverteilung der Population-II-Sterne breiter ist als man es für ein monolithisches Kollaps-Szenario der dicken Scheibe erwarten würde. Vor Allem liegt das an einer vorher nicht bekannten, aber signifikanten Population scheinbar junger [$\alpha$/Fe]-reicher Sterne, deren Existenz mit Standardmodellen für die chemische Evolution der Galaktischen Scheibe nicht erklärbar ist. Diese eigentümlichen Objekte sind viel häufiger in der inneren Scheibe zu finden als in der äußeren, was darauf hindeutet, dass zumindest ein Teil dieser Population tatsächlich einen physikalischen Ursprung hat (etwa eine besondere chemische Entwicklung nahe des Galaktischen Balkens) und nicht etwa auf systematische Fehler in der Altersbestimmung zurückzuführen ist. Ein weiteres Resultat ergibt sich aus der Fülle von super-metallreichen Sternen in der äußeren Scheibe: der Effekt radialer Sternmigration scheint dort eine größere Rolle zu spielen als bisher angenommen. Im letzten Teil nutzen wir die CoRoGEE-Stichprobe, um die Zeitentwicklung des radialen Metallizitätsgradienten der dünnen Scheibe zu studieren; eine Unbekannte, die sowohl unter Theoretikern als auch unter Beobachtern in den letzten zwanzig Jahren immer wieder für Diskussionen sorgte. Wir teilen dazu die CoRoGEE-Daten in sechs Altersgruppen ein und erhalten durch eine sorgfältige statistische Analyse der radialen [Fe/H] Verteilungen unter Berücksichtigung systematischer Unsicherheiten verlässliche Werte für den Metallizitätsgradienten. Dessen Anstieg für die junge Population der roten Riesen ($-0.058\pm0.008$ [stat.] $\pm0.003$ [syst.] dex/kpc) ist konsistent mit den neuesten Messungen an Cepheiden. Im Altersbereich $1-4$ Gyr verzeichnen wir einen leicht steileren Gradienten ($-0.066\pm0.007\pm0.002$ dex/kpc), der für ältere Sterne (6--10 Gyr) wieder flacher ausfällt ($\sim-0.03$ dex/kpc). Diese Altersabhängigkeit des Metallizitätsgradienten lässt sich unter anderem durch ein Modell erklären, in dem der Metallizitätsgradient des interstellaren Medium etwa konstant bei $~-0.07$ dex/kpc liegt und in alten stellaren Populationen durch kinematische Effekte wie stellare Migration verwaschen wird. Stellare radiale Migration eröffnet uns außerdem eine elegante Erklärung für die verwundernde Tatsche, dass Sternhaufen mittleren Alters in der Sonnenumgebung oft höhere Metallizitäten aufweisen als junge Haufen. Um das zu erklären, schlagen wir ein Szenario vor, in dem nichtmigrierende Haufen eher durch gravitative Wechselwirkungen in der Scheibe zersöort werden als migrierende, was in der Sonnenumgebung eine Verzerrung zu Gunsten metallreicherer Haufen aus der inneren Scheibe nach sich zöge und, wie ebenfalls beobachtet, zur Folge hätte, dass der Metallizitätsgradient der mittelalten Haufenpopulation viel steiler wäre als der der jungen Haufen. KW - galactic astronomy KW - Milky Way evolution KW - Milky Way chemodynamics KW - red giant stars KW - asteroseismology KW - spectroscopy KW - galaktische Astrophysik KW - Entstehung der Milchstraße KW - Chemodynamik der Milchstraße KW - rote Riesensterne KW - Asteroseismologie KW - Spektroskopie Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396681 ER - TY - THES A1 - Bekeraitė, Simona T1 - Distribution functions of rotating galaxies T1 - Verteilungsfunktionen rotierender Galaxien BT - an Integral Field Spectroscopy perspective BT - eine Perspektive der Integrale-Feld-Spektroskopie N2 - The work done during the PhD studies has been focused on measurements of distribution functions of rotating galaxies using integral field spectroscopy observations. Throughout the main body of research presented here we have been using CALIFA (Calar Alto Legacy Integral Field Area) survey stellar velocity fields to obtain robust measurements of circular velocities for rotating galaxies of all morphological types. A crucial part of the work was enabled by well-defined CALIFA sample selection criteria: it enabled reconstructing sample-independent distributions of galaxy properties. In Chapter 2, we measure the distribution in absolute magnitude - circular velocity space for a well-defined sample of 199 rotating CALIFA galaxies using their stellar kinematics. Our aim in this analysis is to avoid subjective selection criteria and to take volume and large-scale structure factors into account. Using stellar velocity fields instead of gas emission line kinematics allows including rapidly rotating early type galaxies. Our initial sample contains 277 galaxies with available stellar velocity fields and growth curve r-band photometry. After rejecting 51 velocity fields that could not be modelled due to the low number of bins, foreground contamination or significant interaction we perform Markov Chain Monte Carlo (MCMC) modelling of the velocity fields, obtaining the rotation curve and kinematic parameters and their realistic uncertainties. We perform an extinction correction and calculate the circular velocity v_circ accounting for pressure support a given galaxy has. The resulting galaxy distribution on the M_r - v_circ plane is then modelled as a mixture of two distinct populations, allowing robust and reproducible rejection of outliers, a significant fraction of which are slow rotators. The selection effects are understood well enough that the incompleteness of the sample can be corrected and the 199 galaxies can be weighted by volume and large-scale structure factors enabling us to fit a volume-corrected Tully-Fisher relation (TFR). More importantly, we also provide the volume-corrected distribution of galaxies in the M_r - v_circ plane, which can be compared with cosmological simulations. The joint distribution of the luminosity and circular velocity space densities, representative over the range of -20 > M_r > -22 mag, can place more stringent constraints on the galaxy formation and evolution scenarios than linear TFR fit parameters or the luminosity function alone. In Chapter 3, we measure one of the marginal distributions of the M_r - v_circ distribution: the circular velocity function of rotating galaxies. The velocity function is a fundamental observable statistic of the galaxy population, being of a similar importance as the luminosity function, but much more difficult to measure. We present the first directly measured circular velocity function that is representative between 60 < v_circ < 320 km s^-1 for galaxies of all morphological types at a given rotation velocity. For the low mass galaxy population 60 < v_circ < 170 km s^-1, we use the HIPASS velocity function. For the massive galaxy population 170 < v_circ < 320 km s^-1, we use stellar circular velocities from CALIFA. The CALIFA velocity function includes homogeneous velocity measurements of both late and early-type rotation-supported galaxies. It has the crucial advantage of not missing gas-poor massive ellipticals that HI surveys are blind to. We show that both velocity functions can be combined in a seamless manner, as their ranges of validity overlap. The resulting observed velocity function is compared to velocity functions derived from cosmological simulations of the z = 0 galaxy population. We find that dark matter-only simulations show a strong mismatch with the observed VF. Hydrodynamic Illustris simulations fare better, but still do not fully reproduce observations. In Chapter 4, we present some other work done during the PhD studies, namely, a method that improves the precision of specific angular measurements by combining simultaneous Markov Chain Monte Carlo modelling of ionised gas 2D velocity fields and HI linewidths. To test the method we use a sample of 25 galaxies from the Sydney-AAO Multi-object Integral field (SAMI) survey that had matching ALFALFA HI linewidths. Such a method allows constraining the rotation curve both in the inner regions of a galaxy and in its outskirts, leading to increased precision of specific angular momentum measurements. It could be used to further constrain the observed relation between galaxy mass, specific angular momentum and morphology (Obreschkow & Glazebrook 2014). Mathematical and computational methods are presented in the appendices. N2 - Die Arbeit, die während dises Promotionsstudiums durchgeführt wurde, konzentrierte sich auf die Messungen von Verteilungsfunktionen rotierender Galaxien, unter Verwendung von integralen Feldspektroskopiebeobachtungen. Im Rahmen der hier vorgestellten Hauptforschung haben wir CALIFA (Calar Alto Legacy Integral Field Area) mit stellaren Geschwindigkeitsfeldern verwendet, um robuste Messungen von Kreisförmigen Geschwindigkeiten für rotierende Galaxien aller Morphologien zu erhalten. Der entscheidende Teil dieser Arbeit wurde durch wohl definierte CALIFA-Probenselektionskriterien ermöglicht: Es ermöglichte die Rekonstruktion von probenunabhängigen Verteilungen von Galaxieneigenschaften. In Kapitel 2 messen wir die Verteilung in absoluten Magnituden für eine wohldefinierte Stichprobe von 199 rotierenden CALIFA-Galaxien unter Berücksichtigung ihrer stellaren Kinematik. Die Selektionseffekte sind verstanden genug damit die Unvollständigkeit der Probe korrigiert werden kann und uns ermöglichen eine volumenkorrigierte Tully-Fisher-Relation (TFR) anzupassen. Noch wichtiger ist es, dass wir auch die volumenkorrigierte Verteilung von Galaxien in der Mr -vcirc Ebene bereitstellen, die mit kosmologischen Simulationen verglichen werden können. In Kapitel 3 messen wir die Kreisgeschwindigkeitsfunktion der rotierenden Galaxien. Die Geschwindigkeitsfunktion ist eine fundamentale, beobachtbare Messgröße der Galaxienpopulationen, welche von ähnlicher Bedeutung ist wie die Helligkeitsfunktion, aber viel schwerer zu messen ist. Wir präsentieren die erste direkt gemessene Kreisgeschwindigkeitsfunktion, die bei einer gegebenen Rotationsgeschwindigkeit zwischen 60 < vcirc < 320 km s ^-1 für Galaxien aller morphologischen Typen repräsentativ ist. Für die Galaxienpopulation mit niedrigen Massen verwenden wir die HIPASSGeschwindigkeitsfunktion. Für die massiven Galaxienpopulationen verwenden wir stellare Kreisgeschwindigkeiten von CALIFA. Die CALIFA-Geschwindigkeitsfunktion umfasst homogene Geschwindigkeitsmessungen sowohl der späten als auch der frühen Rotations-gestützten Galaxien. Wir zeigen, dass beide Geschwindigkeitsfunktionen nahtlos kombiniert werden können, da sich ihre Gültigkeitsbereiche überschneiden. Die resultierende beobachtete Geschwindigkeitsfunktion wird mit Geschwindigkeitsfunktionen verglichen, die von kosmologischen Simulationen bei lokale Galaxien abgeleitet sind. Wir finden, dass dunkle Materie-Simulationen und hydrodynamische Illustris Simulationen reproduzieren immer noch nicht vollständig die Beobachtungen. In Kapitel 4 stellen wir einige andere Arbeiten vor, die während der Promotion durchgeführt wurden. Mathematische und rechnerische Methoden werden in den Anhängen dargestellt. KW - galaxies: kinematics and dynamics KW - Galaxien: Kinematik und Dynamik KW - galaxies: statistics KW - galaxies: evolution KW - Galaxien: Statistiken KW - Galaxien: Evolution Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420950 ER - TY - THES A1 - Guber, Christoph Rudolf T1 - Dust depletion of Ca and Ti in quasar absorption-line systems Y1 - 2017 ER - TY - THES A1 - Sachse, Manuel T1 - Dynamics and distribution of dust ejected from the Galilean moons of Jupiter Y1 - 2017 ER - TY - THES A1 - Che, Xiaoyin T1 - E-lecture material enhancement based on automatic multimedia analysis T1 - Online-Vorlesung Materialverbesserung basierend auf automatischer Multimedia-Analyse N2 - In this era of high-speed informatization and globalization, online education is no longer an exquisite concept in the ivory tower, but a rapidly developing industry closely relevant to people's daily lives. Numerous lectures are recorded in form of multimedia data, uploaded to the Internet and made publicly accessible from anywhere in this world. These lectures are generally addressed as e-lectures. In recent year, a new popular form of e-lectures, the Massive Open Online Courses (MOOCs), boosts the growth of online education industry and somehow turns "learning online" into a fashion. As an e-learning provider, besides to keep improving the quality of e-lecture content, to provide better learning environment for online learners is also a highly important task. This task can be preceded in various ways, and one of them is to enhance and upgrade the learning materials provided: e-lectures could be more than videos. Moreover, this process of enhancement or upgrading should be done automatically, without giving extra burdens to the lecturers or teaching teams, and this is the aim of this thesis. The first part of this thesis is an integrated framework of multi-lingual subtitles production, which can help online learners penetrate the language barrier. The framework consists of Automatic Speech Recognition (ASR), Sentence Boundary Detection (SBD) and Machine Translation (MT), among which the proposed SBD solution is major technical contribution, building on Deep Neural Network (DNN) and Word Vector (WV) and achieving state-of-the-art performance. Besides, a quantitative evaluation with dozens of volunteers is also introduced to measure how these auto-generated subtitles could actually help in context of e-lectures. Secondly, a technical solution "TOG" (Tree-Structure Outline Generation) is proposed to extract textual content from the displaying slides recorded in video and re-organize them into a hierarchical lecture outline, which may serve in multiple functions, such like preview, navigation and retrieval. TOG runs adaptively and can be roughly divided into intra-slide and inter-slides phases. Table detection and lecture video segmentation can be implemented as sub- or post-application in these two phases respectively. Evaluation on diverse e-lectures shows that all the outlines, tables and segments achieved are trustworthily accurate. Based on the subtitles and outlines previously created, lecture videos can be further split into sentence units and slide-based segment units. A lecture highlighting process is further applied on these units, in order to capture and mark the most important parts within the corresponding lecture, just as what people do with a pen when reading paper books. Sentence-level highlighting depends on the acoustic analysis on the audio track, while segment-level highlighting focuses on exploring clues from the statistical information of related transcripts and slide content. Both objective and subjective evaluations prove that the proposed lecture highlighting solution is with decent precision and welcomed by users. All above enhanced e-lecture materials have been already implemented in actual use or made available for implementation by convenient interfaces. N2 - In der Ära der mit Hochgeschwindigkeit digitalisierten und globalisierten Welt ist die Online-Bildung nicht mehr ein kunstvoller Begriff im Elfenbeinturm, sondern eine sich schnell entwickelnde Industrie, die für den Alltag der Menschen eine wichtige Rolle spielt. Zahlreiche Vorlesungen werden digital aufgezeichnet und im Internet Online zur Verfügung gestellt, so dass sie vom überall auf der Welt erreichbar und zugänglich sind. Sie werden als e-Vorlesungen bezeichnet. Eine neue Form der Online-Bildung namens „Massive Open Online Courses“ (MOOCs), welche zum Trend seit dem letzten Jahr geworden ist, verstärket und beschleunigt die Entwicklung des Online-Lernens. Ein Online-Lernen Anbieter hat nicht nur die Qualität des Lerninhaltes sondern auch die Lernumgebung und die Lerntools ständig zu verbessern. Eine diese Verbesserungen ist die Form, in der das Lernmaterial aktualisiert und angeboten wird. Das Ziel dieser Dissertation ist die Untersuchung und die Entwicklung von Tools, die der Prozess der Verbesserung und Aktualisierung des Lernmaterials automatisch durchführen. Die entwickelten Tools sollen das Lehrerteam entlasten und seine Arbeit beschleunigen. Der erste Teil der Dissertation besteht aus einem integrierten Framework für die Generierung von mehrsprachigen Untertiteln. Dies kann den Online-Lernern ermöglichen, die Sprachbarriere beim Lernen zu überwinden. Das Framework besteht aus „Automatic Speech Recognition“ (ASR), „Sentence Boundary Detection“ (SBD), und „Machine Translation“ (MT). SBD ist realisiert durch die Anwendung von „Deep Neural Network“ (DNN) und „Word Vector“ (WV), wodurch die Genauigkeit der Stand der Technik erreicht ist. Außerdem quantitative Bewertung durch Dutzende von Freiwilligen ist also eingesetzt, um zu evaluieren, wie diese automaisch generierten Untertiteln in den E-Vorlesungen helfen können. Im zweiten Teil ist eine technische Lösung namens „Tree-Structure Outline Generation“ (TOG) für die Extraktion des textuellen Inhalts aus den Folien präsentiert. Der extrahierten Informationen werden dann in strukturierter Form dargestellt, welche die Outline der Vorlesung wiederspiegelt. Diese Darstellung kann verschiedenen Funktionen dienen, wie dem Vorschau, der Navigation, und dem Abfragen des Inhaltes. TOG ist adaptiv und kann grob in Intra-Folie und Inter-Folien Phasen unterteilt werden. Für diese Phasen, Tabellenerkennung und die Segmentierung von Vorlesungsvideo können als Sub- oder Post-Applikation jeweils implementiert werden. Die höhere Genauigkeit der extrahierten Outline, der Tabellen, und der Segmenten wird experimentell durch die Anwendung auf verschieden e-Vorlesungen gezeigt. Basierend auf den Untertiteln und dem Outline, die in vorher generiert wurden, Vorlesungsvideos können weiter in Satzeinheiten und Folien-basierten Segmenteinheiten gesplittet werden. Ein Hervorhebungsprozess wird weiter auf diese Einheiten angewendet, um die wichtigsten Teile innerhalb der entsprechenden Vorlesung zu erfassen und zu markieren. Dies entspricht genau, was die Lerner mit einem Stift beim Lesen von Büchern machen. Die Satz-Level-Hervorhebung hängt von der akustischen Analyse auf der Audiospur ab, während die Segment-Level-Hervorhebung auf die Erforschung von Hinweisen aus den statistischen Informationen der verwandten Transkripte und des Folieninhalts fokussiert. Die objektiven und subjektiven Auswertungen zeigen, dass die vorgeschlagene Vorlesungsvorhebungslösung mit anständiger Präzision und von den Benutzern akzeptiert wird. All diese Methoden für die Verbesserung der Online-Materialien wurden bereits für den Einsatz implementiert und durch komfortable Schnittstellen zur Verfügung gestellt. KW - E-Learning KW - deep learning KW - NLP KW - document analysis KW - E-Learning KW - Deep Learning KW - natürliche Sprachverarbeitung KW - Dokument Analyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408224 ER - TY - THES A1 - Lachmann, Sabrina C. T1 - Ecophysiology matters: Inorganic carbon acquisition in green microalgae related to different nutrient conditions Y1 - 2017 ER - TY - THES A1 - Grimm-Seyfarth, Annegret T1 - Effects of climate change on a reptile community in arid Australia T1 - Auswirkungen von Klimawandel auf eine Reptiliengemeinschaft im ariden Australien BT - exploring mechanisms and processes in a hot, dry, and mysterious ecosystem BT - eine Untersuchung von Mechanismen und Prozessen in einem heißen, trockenen, und rätselhaften Ökosystem N2 - Dies ist eine kumulative Dissertation, die drei Originalstudien umfasst (eine publiziert, eine in Revision, eine eingereicht; Stand Dezember 2017). Sie untersucht, wie Reptilienarten im ariden Australien auf verschiedene klimatische Parameter verschiedener räumlicher Skalen reagieren und analysiert dabei zwei mögliche zugrunde liegende Hauptmechanismen: Thermoregulatorisches Verhalten und zwischenartliche Wechselwirkungen. In dieser Dissertation wurden umfassende, individuenbasierte Felddaten verschiedener trophischer Ebenen kombiniert mit ausgewählten Feldexperimenten, statistischen Analysen, und Vorhersagemodellen. Die hier erkannten Mechanismen und Prozesse können nun genutzt werden, um mögliche Veränderungen der ariden Reptiliengesellschaft in der Zukunft vorherzusagen. Dieses Wissen wird dazu beitragen, dass unser Grundverständnis über die Konsequenzen des globalen Wandels verbessert und Biodiversitätsverlust in diesem anfälligen Ökosystem verhindert wird. N2 - This is a cumulative dissertation comprising three original studies (one published, one in revision, one submitted; Effective December 2017) investigating how reptile species in arid Australia respond to various climatic parameters at different spatial scales and analysing the two potential main underlying mechanisms: thermoregulatory behaviour and species interactions. This dissertation combines extensive individual-based field data across trophic levels, selected field experiments, statistical analyses, and predictive modelling techniques. Mechanisms and processes detected in this dissertation can now be used to predict potential future changes in the community of arid-zone lizards. This knowledge will help improving our fundamental understanding of the consequences of global change and thereby prevent biodiversity loss in a vulnerable ecosystem. KW - Australien KW - Reptilien KW - Australia KW - reptiles KW - Populationsökologie KW - population ecology KW - Thermoregulationsverhalten KW - thermoregulatory behaviour KW - interspezifische Wechselwirkungen KW - interspecific interactions KW - Vorhersagemodelle KW - predictive modelling KW - Klimawandel KW - climate change KW - Wüste KW - desert Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412655 ER - TY - THES A1 - Herbrich, Marcus T1 - Einfluss der erosionsbedingten Pedogenese auf den Wasserund Stoffhaushalt ackerbaulich genutzter Böden der Grundmoränenbodenlandschaft NO-Deutschlands - hydropedologische Untersuchungen mittels wägbarer Präzisionslysimeter T1 - Effects of erosion-affected soil evolution on water and dissolved carbon fluxes, soil hydraulic properties, and crop development of soils from a hummocky ground moraine landscape - hydropedological analysis using high precision weighing lysimeters N2 - In the arable soil landscape of hummocky ground moraines, an erosion-affected spatial differentiation of soils can be observed. Man-made erosion leads to soil profile modifications along slopes with changed solum thickness and modified properties of soil horizons due to water erosion in combination with tillage operations. Soil erosion creates, thereby, spatial patterns of soil properties (e.g., texture and organic matter content) and differences in crop development. However, little is known about the manner in which water fluxes are affected by soil-crop interactions depending on contrasting properties of differently-developed soil horizons and how water fluxes influence the carbon transport in an eroded landscape. To identify such feedbacks between erosion-induced soil profile modifications and the 1D-water and solute balance, high-precision weighing lysimeters equipped with a wide range of sensor technique were filled with undisturbed soil monoliths that differed in the degree of past soil erosion. Furthermore, lysimeter effluent concentrations were analyzed for dissolved carbon fractions in bi-weekly intervals. The water balance components measured by high precision lysimeters varied from the most eroded to the less eroded monolith up to 83 % (deep drainage) primarily caused due to varying amounts of precipitation and evapotranspiration for a 3-years period. Here, interactions between crop development and contrasting rainfall interception by above ground biomass could explain differences in water balance components. Concentrations of dissolved carbon in soil water samples were relatively constant in time, suggesting carbon leaching was mainly affected by water fluxes in this observation period. For the lysimeter-based water balance analysis, a filtering scheme was developed considering temporal autocorrelation. The minute-based autocorrelation analysis of mass changes from lysimeter time series revealed characteristic autocorrelation lengths ranging from 23 to 76 minutes. Thereby, temporal autocorrelation provided an optimal approximation of precipitation quantities. However, the high temporal resolution in lysimeter time series is restricted by the lengths of autocorrelation. Erosion-induced but also gradual changes in soil properties were reflected by dynamics of soil water retention properties in the lysimeter soils. Short-term and long-term hysteretic water retention data suggested seasonal wettability problems of soils increasingly limited rewetting of previously dried pore regions. Differences in water retention were assigned to soil tillage operations and the erosion history at different slope positions. The threedimensional spatial pattern of soil types that result from erosional soil profile modifications were also reflected in differences of crop root development at different landscape positions. Contrasting root densities revealed positive relations of root and aboveground plant characteristics. Differences in the spatially-distributed root growth between different eroded soil types provided indications that root development was affected by the erosion-induced soil evolution processes. Overall, the current thesis corroborated the hypothesis that erosion-induced soil profile modifications affect the soil water balance, carbon leaching and soil hydraulic properties, but also the crop root system is influenced by erosion-induced spatial patterns of soil properties in the arable hummocky post glacial soil landscape. The results will help to improve model predictions of water and solute movement in arable soils and to understand interactions between soil erosion and carbon pathways regarding sink-or-source terms in landscapes. N2 - Hydropedologische Wechselwirkungen zwischen Wasserflüssen und erosionsbedingten Veränderungen im Profilaufbau ackerbaulich genutzter Böden treten insbesondere in der Jungmoränenlandschaft auf, die sich durch eine überwiegend flachwellige bis kuppige Topographie auszeichnet. Mit der dynamischen Veränderung von Bodenprofilen, wie etwa der veränderten Solumtiefe und Horizontabfolgen, sowie deren Verteilungen in der Landschaft gehen Veränderungen in den bodenhydraulischen Eigenschaften einher. Über deren Auswirkungen auf den Wasser- und Stoffhaushalt ist bislang nur wenig bekannt. Im Rahmen dieser Dissertation wurden kontinuierliche Messungen aus vier Jahren (2011 bis 2014) unter Verwendung von wägbaren Lysimetern in der ackerbaulich genutzten Bodenlandschaft Nordostdeutschlands (Uckermark) erhoben. Dabei sollte die zentrale Frage, inwieweit die erosionsbedingte Pedogenese, in Wechselwirkung mit der pflanzenbaulichen Nutzung, den Wasser- und Kohlenstoffhaushalt beeinflusst, beantwortet werden. Ziel dieser Arbeit war es, 1D-Wasserflüsse und Austräge an gelöstem Kohlenstoff für unterschiedlich erodierte Bodenprofile zu quantifizieren. Damit einhergehend wurden Untersuchungen zu hydraulischen Bodeneigenschaften sowie möglichen Veränderungen im System Boden-Pflanze (Wurzeluntersuchungen) durchgeführt. Um derartige Veränderungen zwischen unterschiedlich erodierten Böden beschreiben zu können, wurden Bodenmonolithe in ungestörter Lagerung entnommen und in Lysimeteranlagen installiert. Zudem erfolgte eine Instrumentierung der einzelnen Lysimeter mit verschiedener Sensorik, u.a. um Wassergehalte und Matrixpotentiale zu messen. Für stoffhaushaltliche Untersuchungen wurden darüber hinaus Konzentrationen der gelösten Kohlenstofffraktion in der Bodenlösung in 14-tägigen Intervallen bestimmt. Der Wasserhaushalt von sechs gering bis stark erodierten Parabraunerden unterschied sich im Hinblick auf die bilanzierten Wasserhaushaltskomponenten deutlich. Anhand dieser Ergebnisse liegt die Vermutung nahe, dass die dynamischen Veränderungen im Gefüge- und Profilaufbau (in Abhängigkeit von der Bodenerosion) einen Effekt auf die Wasserbilanzen aufweisen. Über die mehrjährige Messperiode von 2011 bis 2014 konnte für das mit einer stark erodierten Parabraunerde gefüllte Lysimeter ein circa 83 Prozent höherer Abfluss als für das Lysimeter mit einer wenig erodierten Parabraunerde gemessen werden. Somit variierte der Abfluss am unteren Rand in Abhängigkeit zum Erosionsgrad. Neben dem unterschiedlichen Abflussverhalten variierten die Bodenmonolithe innerhalb der Lysimeter ebenfalls in den Evapotranspirations- und Niederschlagsmengen, hervorgerufenen durch die Differenzierung in den Horizontabfolgen, -mächtigkeiten und deren Einfluss auf die bodenhydraulischen Eigenschaften in Abhängigkeit vom Pflanzenbewuchs. Aufgrund der homogen verteilten Stoffkonzentrationen des gelösten organischen und anorganischen Kohlenstoffs am unteren Rand waren Kohlenstoffausträge maßgeblich von den Wasserflüssen abhängig. Als Grundlage der Lysimeter-basierten Wasserhaushaltsanalyse diente ein im Rahmen dieser Dissertation entwickeltes Auswertungsverfahren von kontinuierlichen Gewichtsänderungen unter Berücksichtigung der zeitlichen Autokorrelation. Um eine mögliche Periodizität in zeitlich hochaufgelösten Änderungen des Lysimeterwaagensystems zu ermitteln, fand eine Autokorrelationsfunktion in der Zeitreihenanalyse von vier saisonalen Messzeiträumen Anwendung. Die Ergebnisse der Arbeit deuten darauf hin, dass hochaufgelöste Lysimeterzeitreihen in einem Bereich von circa 30 min bis circa 60 min zeitlich autokorreliert sind. Die ermittelten Autokorrelationslängen bieten wiederum eine Möglichkeit zur Annäherung von (optimalen) Zeitintervallen für die Niederschlagsberechnung, basierend auf Änderungen in den Wiegedaten. Im Vergleich zu einem Kippwaagenregenmesser nahe der Lysimeterstation überstiegen die ermittelten Niederschlagsmengen der Lysimeter in Bodennähe die der in zwei Metern Höhe erfolgten Messung deutlich. Zur Charakterisierung der zeitlichen (Hysterese), als auch räumlichen (erosionsbedingter Pedogenese) Veränderungen der bodenhydraulischen Eigenschaften der Lysimeterböden wurden kontinuierliche Datenreihen des Wassergehaltes und Matrixpotentials analysiert. Die daraus abgeleiteten Wasserretentionskurven wurden in 3 Messtiefen (10, 30, 50 cm) unter Feldbedingungen ausgewertet und mit Labormessungen von Bodenkernen verglichen. Sowohl zwischen den unterschiedlich erodierten Bodenprofilen als auch zwischen den Feld- und Labormessungen waren Unterschiede in den Wasserretentionseigenschaften ersichtlich. Innerhalb eines Jahres (eingeschränkte Benetzbarkeit) sowie zwischen den Jahren (Veränderung der Porenmatrix) zeigten die Ergebnisse zudem eine zeitliche Veränderung der Wasserretentionseigenschaften. Diese dynamische Variabilität der Wasserretention wiederum unterliegt der räumlichen Heterogenität von Bodeneigenschaften, wie Textur und Lagerungsdichte. Für die Interpretation der unterschiedlichen bodenhydraulischen Eigenschaften sowie im Hinblick auf Veränderungen im Wasserhaushalt von ackerbaulich genutzten Lysimetern spielt das System Boden-Pflanze eine bedeutende Rolle. Diesbezüglich wurden Biomasse- und Wurzeluntersuchungen an unterschiedlich erodierten Böden durchgeführt. Die erzielten Ergebnisse verdeutlichen, dass erosionsbedingte Veränderungen im Profilaufbau beziehungsweise Horizonteigenschaften die Wurzelentwicklung beeinflussen können. Zudem stehen die Durchwurzelungsraten an grundwasserbeeinflussten Senkenstandorten in enger Beziehung zum Grundwasserstand (insbesondere im Frühjahr). Die oberirdisch beobachteten Unterschiede in der Biomasse korrelierten stark mit den ermittelten Wurzeldichten (Winterweizen), dies lässt vermuten, dass eine Abschätzung der Wurzelentwicklung mittels oberirdischer Biomasse möglich ist. Zusammenfassend zeigen die Ergebnisse der vorliegenden Lysimeterstudie komplexe Wechselwirkungen zwischen dem pedogenetischen Zustand erodierter Böden und dem Wasserhaushalt, den bodenhydraulischen Eigenschaften sowie der Wurzelentwicklung angebauter Kulturen. Zudem leisten die ermittelten unterschiedlichen Austragsraten an gelöstem Kohlenstoff einen Beitrag zur Abschätzung der langfristigen, in die Tiefe fortschreitenden Entkalkung sowie zur Beantwortung der Fragestellung, ob ackerbaulich genutzte Böden eher als Quell- oder als Senkenterm für Kohlendioxid fungieren. KW - Lysimeter KW - Wasserhaushalt KW - Kohlenstoff KW - lysimeter KW - water balance KW - carbon Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-408561 ER - TY - THES A1 - Jank, Anne-Marie T1 - Effects of senescence on microenvironment-progenitor cell interaction Y1 - 2017 ER - TY - THES A1 - Can Ucar, Mehmet T1 - Elastic interactions between antagonistic molecular motors Y1 - 2017 ER - TY - THES A1 - Reyna González, Emmanuel T1 - Engineering of the microviridin post-translational modification enzymes for the production of synthetic protease inhibitors T1 - Manipulation der posttranslationalen Modifikationsenzyme von Microviridin zur Herstellung synthetischer Proteaseinhibitoren N2 - Natural products and their derivatives have always been a source of drug leads. In particular, bacterial compounds have played an important role in drug development, for example in the field of antibiotics. A decrease in the discovery of novel leads from natural sources and the hope of finding new leads through the generation of large libraries of drug-like compounds by combinatorial chemistry aimed at specific molecular targets drove the pharmaceutical companies away from research on natural products. However, recent technological advances in genetics, bioinformatics and analytical chemistry have revived the interest in natural products. The ribosomally synthesized and post-translationally modified peptides (RiPPs) are a group of natural products generated by the action of post-translationally modifying enzymes on precursor peptides translated from mRNA by ribosomes. The great substrate promiscuity exhibited by many of the enzymes from RiPP biosynthetic pathways have led to the generation of hundreds of novel synthetic and semisynthetic variants, including variants carrying non-canonical amino acids (ncAAs). The microviridins are a family of RiPPs characterized by their atypical tricyclic structure composed of lactone and lactam rings, and their activity as serine protease inhibitors. The generalities of their biosynthetic pathway have already been described, however, the lack of information on details such as the protease responsible for cleaving off the leader peptide from the cyclic core peptide has impeded the fast and cheap production of novel microviridin variants. In the present work, knowledge on leader peptide activation of enzymes from other RiPP families has been extrapolated to the microviridin family, making it possible to bypass the need of a leader peptide. This feature allowed for the exploitation of the microviridin biosynthetic machinery for the production of novel variants through the establishment of an efficient one-pot in vitro platform. The relevance of this chemoenzymatic approach has been exemplified by the synthesis of novel potent serine protease inhibitors from both rationally-designed peptide libraries and bioinformatically predicted microviridins. Additionally, new structure-activity relationships (SARs) could be inferred by screening microviridin intermediates. The significance of this technique was further demonstrated by the simple incorporation of ncAAs into the microviridin scaffold. N2 - Naturstoffe und ihre Derivate waren schon immer eine Quelle von Leitstrukturen. Insbesondere haben bakterielle Verbindungen eine wichtige Rolle bei der Arzneimittelentwicklung gespielt, zum Beispiel im Bereich der Antibiotika. Die Abnahme von Entdeckungen neuer Leitstrukturen aus natürlichen Quellen und die Hoffnung, neue Leitstrukturen in großen Bibliotheken medikamentenähnlicher Verbindungen zu finden, welche auf spezifische molekulare Ziele gerichtet sind und mithilfe kombinatorischer Chemie erstellt wurden, trieben die Pharmaunternehmen weg von der Naturstoffforschung. Allerdings haben moderne technologische Fortschritte in der Genetik, der Bioinformatik und der analytischen Chemie das Interesse an Naturstoffen wiederbelebt. Die ribosomal synthetisierten und posttranslational modifizierten Peptide (RiPPs) sind eine Gruppe von Naturstoffen, die durch das Einwirken posttranslational modifizierender Enzymen auf Präkursorpeptide entstehen, welche ihrerseits aus mRNA durch Translation an den Ribosomen hervorgehen. Die durch viele der Enzyme aus RiPP Biosynthesewege gezeigte große Substrat- Promiskuität führte zur Erzeugung hunderter neuartiger synthetischer und halbsynthetischer Varianten, einschließlich Varianten mit nicht-kanonischen Aminosäuren. Die Microviridine sind eine Familie von RiPPs, die durch ihre atypische trizyklische Struktur aus Lacton- und Lactamringen und ihre Aktivität als Serin-Protease-Inhibitoren gekennzeichnet sind. Die Grundlagen ihres Biosyntheseweges sind bereits beschrieben worden, aber wesentliche Fragestellungen, zum Beispiel die für die Spaltung des Leader-Peptids vom zyklischen Core- Peptid verantwortliche Protease betreffend, sind weitgehend ungeklärt und erschweren die schnelle und kostengünstige Herstellung neuer Microviridinvarianten. In der vorliegenden Arbeit wurde das Wissen über die durch Leader-Peptid Aktivierung von Enzymen aus anderen RiPP-Familien auf die Microviridinfamilie extrapoliert, wodurch es möglich wurde, die Notwendigkeit eines Leader-Peptids zu umgehen. Diese Besonderheit erlaubt nunmehr, die Microviridin-Biosynthese-Enzyme für die Herstellung von neuartigen Varianten durch die Etablierung einer effizienten in vitro Synthese-Plattform auszunutzen. Die Relevanz dieses chemoenzymatischen Ansatzes wurde durch die Synthese von neuen potenten Serin-Protease- Inhibitoren aus sowohl rational gestalteten Peptidbibliotheken als auch bioinformatisch vorhergesagten Microviridinen veranschaulicht. Darüber hinaus wurden durch das Screenen von Microviridinzwischenprodukten neue Struktur-Funktionsbeziehungen abgeleitet. Die Bedeutung dieser Technik wurde durch den einfachen Einbau von nicht-kanonischen Aminosäuren in das Microviridin-Gerüst weiter demonstriert. KW - RiPP KW - microviridin KW - biosynthesis KW - natural products KW - peptide KW - protease inhibitor KW - Biosynthese KW - Naturstoffe KW - cyanobacteria KW - Cyanobakterien KW - Microviridin KW - Protease-Inhibitoren Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-406979 ER - TY - THES A1 - Mahlstedt, Robert T1 - Essays on job search behavior and labor market policies T1 - Empirische Studien zum Arbeitssuchverhalten und aktiver Arbeitsmarktpolitik BT - the role of subjective beliefs, geographical mobility and gender differences BT - der Einfluss subjektiver Erwartungen, regionaler Mobilität und geschlechtsspezifischen Unterschieden N2 - Persistently high unemployment rates are a major threat to the social cohesion in many societies. To moderate the consequences of unemployment industrialized countries spend substantial shares of their GDP on labor market policies, while in recent years there has been a shift from passive measures, such as transfer payments, towards more activating elements which aim to promote the reintegration into the labor market. Although, there exists a wide range of evidence about the effects of traditional active labor market policies (ALMP) on participants’ subsequent labor market outcomes, a deeper understanding of the impact of these programs on the job search behavior and the interplay with long-term labor market outcomes is necessary. This allows policy makers to improve the design of labor market policies and the allocation of unemployed workers into specific programs. Moreover, previous studies have shown that many traditional ALMP programs, like public employment or training schemes, do not achieve the desired results. This underlines the importance of understanding the effect mechanisms, but also the need to develop innovative programs that are more effective. This thesis extends the existing literature with respect to several dimensions. First, it analyzes the impact of job seekers’ beliefs about upcoming ALMPs programs on the effectiveness of realized treatments later during the unemployment spell. This provides important insights with respect to the job search process and relates potential anticipation effects (on the job seekers behavior before entering a program) to the vast literature evaluating the impact of participating in an ALMP program on subsequent outcomes. The empirical results show that training programs are more effective if the participants expect participation ex ante, while expected treatment effects are unrelated to the actual labor market outcomes of participants. A subsequent analysis of the effect mechanisms shows that job seekers who expect to participate also receive more information by their caseworker and show a higher willingness to adjust their search behavior in association with an upcoming ALMP program. The findings suggest that the effectiveness of training programs can be improved by providing more detailed information about the possibility of a future treatment early during the unemployment spell. Second, the thesis investigates the effects of a relatively new class of programs that aim to improve the geographical mobility of unemployed workers with respect to the job search behavior, the subsequent job finding prospects and the returns to labor market mobility. To estimate the causal impact of these programs, it is exploited that local employment agencies have a degree of autonomy when deciding about the regional-specific policy mix. The findings show that the policy style of the employment agency indeed affects the job search behavior of unemployed workers. Job seekers who are assigned to agencies with higher preferences for mobility programs increase their search radius without affecting the total number of job applications. This shift of the search effort to distant regions leads to a higher probability to find a regular job and higher wages. Moreover, it is shown that participants in one of the subsidy programs who move to geographically distant region a earn significantly higher wages, end up in more stable jobs and face a higher long-run employment probability compared to non-participants. Third, the thesis offers an empirical assessment of the unconfoundedness assumption with respect to the relevance of variables that are usually unobserved in studies evaluating ALMP programs. A unique dataset that combines administrative records and survey data allows us to observe detailed information on typical covariates, as well as usually unobserved variables including personality traits, attitudes, expectations, intergenerational information, as well as indicators about social networks and labor market flexibility. The findings show that, although our set of usually unobserved variables indeed has a significant effect on the selection into ALMP programs, the overall impact when estimating treatment effects is rather small. Finally, the thesis also examines the importance of gender differences in reservation wages that allows assessing the importance of special ALMP programs targeting women. In particular, when including reservation wages in a wage decomposition exercise, the gender gap in realized wages becomes small and statistically insignificant. The strong connection between gender differences in reservation wages and realized wages raises the question how these differences in reservation wages are set in the first place. Since traditional covariates cannot sufficiently explain the gender gap in reservation wages, we perform subgroup analysis to better understand what the driving forces behind this gender gap are. N2 - Anhaltend hohe Arbeitslosigkeit stellt eine der zentralen Herausforderungen für den sozialen Zusammenhalt moderner Gesellschaften dar. Aus diesem Grund wenden viele Industrienationen einen beachtlichen Teil ihrer Staatsausgaben zur Bekämpfung der Arbeitslosigkeit und den damit verbundenen Konsequenzen auf. Obwohl sich bereits eine Vielzahl ökonomischer Studien mit den Effekten traditioneller Maßnahmen der aktiven Arbeitsmarktpolitik (AAMP) auf den nachfolgenden Erfolg am Arbeitsmarkt beschäftigt, ist ein besseres Verständnis des Einflusses auf das Arbeitssuchverhalten und das daraus resultierende Zusammenspiel mit dem Erfolg am Arbeitsmarkt notwendig um die Gestaltung und Zuweisung dieser Maßnahmen zu optimieren. Darüber hinaus zeigen die Ergebnisse vorheriger Studien, dass viele traditionelle Maßnahmen nicht den gewünschten Erfolg erzielen. Dies unterstreicht die Notwendigkeit, zum einen die Wirkungsmechanismen aktiver Arbeitsmarktpolitik besser zu verstehen, und zum anderen innovative wirkungsvollere Maßnahmen zu entwickeln. Die vorliegende Dissertation liefert hierbei neue Erkenntnisse hinsichtlich verschiedener Faktoren. Zunächst wird der Einfluss subjektiver Erwartungen auf die Effektivität von Trainingsmaßnahmen untersucht. Diese Erwartungen betreffen die Wahrscheinlichkeit einer zukünftigen Programmteilnahme, sowie den erwarteten Einfluss auf den Erfolg am Arbeitsmarkt, und erlauben eine Verknüpfung von sogenannten Antizipationseffekten –einer Anpassung des Suchverhaltens vor einer tatsächlichen Teilnahme– mit dem traditionellen Vergleich von Teilnehmern und Nicht-Teilnehmern bezüglich ihres nachfolgendem Erfolgs am Arbeitsmarkt. Die empirische Analyse zeigt, dass Trainingsmaßnahmen einen positiveren Einfluss auf Teilnehmer haben, welche die Teilnahmewahrscheinlichkeit zu Beginn der Arbeitslosigkeit als hoch einstufen, verglichen mit Personen die diese Wahrscheinlichkeit als gering einschätzen. Im Gegensatz dazu besteht kein Zusammenhang zwischen den subjektiven Erwartungen bezüglich des Effekts der Maßnahme und dem tatsächlichen Arbeitsmarkterfolg von Teilnehmern. Es lässt sich feststellen, dass hohe Erwartungen bezüglich der Teilnahmewahrscheinlichkeit mit einer intensiveren Beratung durch die Arbeitsagentur und einer höheren Flexibilität der Suchstrategie verbunden sind. Die Ergebnisse zeigen, dass Arbeitsagenturen die Effektivität von spezifischen Arbeitsmarktprogrammen direkt beeinflussen können, in dem potentielle Teilnehmer umfangreich über bevorstehende Maßnahmen und die allgemeine Arbeitsmarktlage informiert werden. Ein weiterer Teil der Dissertation analysiert Maßnahmen zur Förderung regionaler Mobilität von Arbeitssuchenden. Im Speziellen, werden Reisekosten zu Jobinterviews, Fahrtkosten zum Arbeitsplatz oder Umzugskosten finanziell gefördert. Ziel dieser Maßnahmen ist es bestehende finanzielle Hindernisse zu beseitigen, welche die regionale Mobilität von Arbeitssuchenden einschränken. Die empirische Analyse zeigt, dass die Verfügbarkeit des Programms Arbeitssuchende dazu anhält sich auf Stellen zu bewerben welche einen Umzug erfordern und ihre Suchaktivitäten vom lokalen Arbeitsmarkt hinzu geografisch entfernten Regionen zu verlagern, ohne jedoch die Anzahl der Stellenbewerbungen insgesamt zu beeinflussen. Darüber hinaus führt der erweiterte Suchradius zu einer höheren Wiederbeschäftigungswahrscheinlichkeit und höheren Löhnen. Darauf aufbauend wird der Einfluss der tatsächlichen Nutzung einer spezifischen Mobilitätshilfe, der sogenannten Umzugskostenbeihilfe, auf den langfristigen Erfolg am Arbeitsmarkt untersucht. Es zeigt sich, dass Arbeitssuchende die zur Aufnahme einer neuen Beschäftigung umziehen und hierfür eine Unterstützung der Arbeitsagentur erhalten signifikant höhere Löhne beziehen und stabileren Beschäftigungsverhältnisse aufweisen. Des Weiteren wird die Relevanz von typischerweise nicht beobachtbaren Variablen bezüglich Persönlichkeitsmerkmalen, subjektiven Erwartungen, sozialen Netzwerken und generationenübergreifenden Informationen, im Kontext der Evaluierung typischer AAMP Programme, wie Trainingsmaßnahmen und Lohnkostenzuschüssen untersucht. Basierend auf einer Kombination von administrativen Daten und individuellen Befragungsdaten zeigt sich, dass diese Variablen einen signifikanten Einfluss auf die Teilnahmewahrscheinlichkeit haben, ihre Nichtberücksichtigung aber zu keiner Verzerrung der geschätzten Effekte führt. Abschließend wird die Rolle von Reservationslöhnen bei der Entwicklung von geschlechtsspezifischen Lohnunterschieden untersucht. Die empirische Analyse zeigt, dass der realisierte Lohnunterschied zwischen Männern und Frauen mit einem geschlechtsspezifischen Unterschied in Reservationslöhnen einhergeht. Dieser kann nicht durch Faktoren wie Bildung, unterschiedliche Erwerbsbiografien, sozio-demographische Eigenschaften und Persönlichkeitsmerkmale erklärt werden. Eine umfassende Subgruppenanalyse deutet an, dass, unterschiedliche Tätigkeitsvorlieben, der Erwartung von Diskriminierung gegenüber Frauen und unbeobachtbaren Produktivitätsunterschiede sowohl Unterschiede im Reservationslohn als auch im realisierten Lohn zwischen Männern und Frauen hervorrufen. KW - Labor market policies KW - Job search behavior KW - Microeconometrics KW - Geographical mobility KW - Subjective beliefs KW - treatment effects KW - Arbeitsmarktpolitik KW - Arbeitssuchverhalten KW - Mikroökonometrie KW - Regionale Mobilität KW - Subjektive Erwartungen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397081 ER - TY - THES A1 - Górka, Michal Jakub T1 - Establishing a pipeline for identification of protein- protein interactions using different native fractionation methods Y1 - 2017 ER - TY - THES A1 - Elad, Kizito Logan T1 - European Union Democracy Promotion in North Africa from 1990 to 2010 BT - Case Study on Morocco and Tunisia T2 - Schriftenreihe Demokratie und Demokratisierungsprozesse ; 12 N2 - Bisherige Studien zur Demokratieförderung analysierten „erfolgreiche“ Beispiele. Das ist teilweise eine Reflektion der politischen Ökonomie von Demokratieförderung, in der sie Beispielen im Inland erzeugter demokratischer Durchbrüche folgt. Dennoch kann eine wissenschaftliche Analyse externer Einflüsse auf interne Veränderungen sich nicht nur auf Fälle erfolgreicher Demokratieentwicklung beziehen, sondern muss Beispiele von Regimeveränderungen, die nicht in einer Demokratie resultierten, berücksichtigen, um Selektionsvorurteile zu vermeiden und die kausalen Mechanismen zu isolieren, die für einen demokratischen Wandel notwendig sind, neben dem Zusammenbruch eines autoritären Regimes und einer Liberalisierung. In dieser Studie dienen Marokko und Tunesien als Fallbeispiele, Länder, die nach langjähriger Diktaturerfahrung versuchen demokratische Strukturen aufzubauen und sich anderen Herausforderungen stellen müssen als sich demokratisierende Regime, die über einen relativ effektiven Staat verfügen. Da es wenig Austausch zwischen Analysten von demokratischen Übergängen, Konsolidierung und Post-Konflikt Staatenbildung gab, überrascht, dass diese radikal unterschiedliche Situation von demokratischem Wandel und variierenden Rollen externer Akteure in jeder Kategorie bisher nicht differenziert wurde. Die Studie widmet sich den hieraus resultierenden Kernfragen: „Wie, Warum und durch Was wird Demokratieförderung durch externe Akteure funktionieren?“ Die Frage nach dem „Wie“ ist hier die schwierigste, es ist eine Frage nach den Methoden und Strategien des Demokratisierungsprozesses sowie der Unterstützung, die sorgfältig durchdachte Techniken und ihre breite Akzeptanz durch eine Vielzahl von Partner erfordert. Antwort auf die Frage nach dem „Was“ und „Warum“ hingegen findet sich in der Grundlage schlechter Regierungsarbeit und schlechter Wirtschaftsleistung, die zu Aufständen der Bevölkerung führen. Die Resultate der Studie tragen zum Fortschritt in der Demokratieförderung bei. Y1 - 2017 SN - 978-3-8300-9586-6 PB - Kovac CY - Hamburg ER - TY - THES A1 - de Abreu e Lima, Francisco Anastacio T1 - Experimental validation of hybrid performance predictive models in Zea mays L. Y1 - 2017 ER - TY - THES A1 - Wu, Si T1 - Exploring the Arabidopsis metabolic landscape by genetic mapping integrated with network analysis Y1 - 2017 ER - TY - THES A1 - Moraes, Thiago Alexandre T1 - Exploring the role of the circadian clock in the regulation of starch turnover in changing light conditions in Arabidopsis Y1 - 2017 ER - TY - THES A1 - Lacroix, André T1 - Factors influencing the effectiveness of balance and resistance training in older adults T1 - Effektivität von Gleichgewichts- und Krafttraining bei älteren Menschen: beeinflussende Faktoren N2 - Hintergrund und Ziele: Altersbedingte Kraft- und Gleichgewichtsverluste sind mit Funktionseinschränkungen und einem erhöhten Sturzrisiko assoziiert. Kraft- und Gleichgewichtstraining haben das Potenzial, das Gleichgewicht und die Maximalkraft/Schnellkraft von gesunden älteren Menschen zu verbessern. Es ist jedoch noch nicht hinreichend untersucht, wie die Effektivität solcher Übungsprogramme von verschiedenen Faktoren beeinflusst wird. Hierzu gehören die Rolle der Rumpfmuskulatur, die Effekte von kombiniertem Kraft- und Gleichgewichtstraining sowie die Effekte der Trainingsanleitung. Die primären Ziele dieser Dissertation bestehen daher in der Überprüfung der Zusammenhänge von Rumpfkraft und Gleichgewichtsvariablen und der Effekte von kombiniertem Kraft- und Gleichgewichtstraining auf ein breites Spektrum an intrinsischen Sturzrisikofaktoren bei älteren Menschen. Ein wesentliches Ziel dieser Dissertation ist zudem die Überprüfung der Auswirkungen von angeleitetem gegenüber unangeleitetem Kraft- und/oder Gleichgewichtstraining auf Variablen des Gleichgewichts und der Maximal-/Schnellkraft bei älteren Menschen. Methoden: Gesunde ältere Erwachsene im Alter zwischen 63 und 80 Jahren wurden in einer Querschnittsstudie, einer Längsschnittstudie und einer Metaanalyse untersucht (Gruppenmittelwerte Meta-Analyse: 65.3-81.1 Jahre). Messungen des Gleichgewichts (statisches/dynamisches, proaktives, reaktives Gleichgewicht) wurden mittels klinischer (z. B. Romberg Test) und instrumentierter Tests (z. B. 10 Meter Gangtest inklusive elektrischer Erfassung von Gangparametern) durchgeführt. Die isometrische Maximalkraft der Rumpfmuskulatur wurde mit speziellen Rumpfkraft-Maschinen gemessen. Für die Überprüfung der dynamischen Maximal-/Schnellkraft der unteren Extremität wurden klinische Tests (z. B. Chair Stand Test) verwendet. Weiterhin wurde ein kombiniertes Kraft- und Gleichgewichtstraining durchgeführt, um trainingsbedingte Effekte auf Gleichgewicht und Maximal-/Schnellkraft sowie die Effekte der Trainingsanleitung bei älteren Erwachsenen zu untersuchen. Ergebnisse: Die Ergebnisse zeigten signifikante Korrelationen zwischen Rumpfkraft und statischem sowie ausgewählten Parametern des dynamischen Gleichgewichts (0.42 ≤ r ≤ 0.57). Kombiniertes Kraft- und Gleichgewichtstraining verbesserte das statische/dynamische (z. B. Romberg Test, Ganggeschwindigkeit), proaktive (z. B. Timed Up und Go Test) und reaktive Gleichgewicht (z. B. Push and Release Test) sowie die Maximal-/Schnellkraft (z. B. Chair Stand Test) von gesunden älteren Menschen (0.62 ≤ Cohen’s d ≤ 2.86; alle p < 0.05). Angeleitetes Training führte verglichen mit unangeleitetem Training zu größeren Effekten bei Gleichgewicht und Maximal-/Schnellkraft [Längsschnittstudie: Effekte in der angeleiteten Gruppe 0.26 ≤ d ≤ 2.86, Effekte in der unangeleiteten Gruppe 0.06 ≤ d ≤ 2.30; Metaanalyse: alle Standardisierte Mittelwertdifferenzen (SMDbs) zugunsten der angeleiteten Programme 0.24-0.53]. Die Metaanalyse zeigte zudem größere Effekte zugunsten der angeleiteten Programme, wenn diese mit komplett unbeaufsichtigten Programmen verglichen wurden (0.28 ≤ SMDbs ≤ 1.24). Diese Effekte zugunsten der angeleiteten Interventionen wurden jedoch abgeschwächt, wenn sie mit unangeleiteten Interventionen verglichen wurden, die wenige zusätzliche angeleitete Einheiten integrierten (−0.06 ≤ SMDbs ≤ 0.41). Schlussfolgerungen: Eine Aufnahme von Rumpfkraftübungen in sturzpräventive Trainingsprogramme für ältere Menschen könnte die Verbesserung von Gleichgewichtsparametern positiv beeinflussen. Die positiven Effekte auf eine Vielzahl wichtiger intrinsischer Sturzrisikofaktoren (z. B. Gleichgewichts-, Kraftdefizite) implizieren, dass besonders die Kombination aus Kraft- und Gleichgewichtstraining eine durchführbare und effektive sturzpräventive Intervention ist. Aufgrund größerer Effekte von angeleitetem im Vergleich zu unangeleitetem Training sollten angeleitete Einheiten in sturzpräventive Übungsprogramme für ältere Erwachsene integriert werden. N2 - Background and objectives: Age-related losses of lower extremity muscle strength/power and deficits in static and particularly dynamic balance are associated with impaired functional performance and the occurrence of falls. It has been shown that balance and resistance training have the potential to improve balance and muscle strength in healthy older adults. However, it is still open to debate how the effectiveness of balance and resistance training in older adults is influenced by different factors. This includes the role of trunk muscle strength, the comprehensive effects of combined balance and resistance training, and the role of exercise supervision. Therefore, the primary objectives of this doctoral thesis are to investigate the relationship between trunk muscle strength and balance performance and to examine the effects of an expert-based balance and resistance training protocol on various measures of balance and lower extremity muscle strength/power in older adults. Furthermore, the impact of supervised versus unsupervised balance and/or resistance training interventions in the elderly will be evaluated. Methods: Healthy older adults aged 63-80 years were included in a cross-sectional study, a longitudinal study, and a meta-analysis (range group means meta-analysis: 65.3-81.1 years) registering balance and muscle strength/power performance. Different measures of balance (i.e., static/dynamic, proactive, reactive) were examined using clinical (e.g., Romberg test) and instrumented tests (e.g., 10 meter walking test on a sensor-equipped walkway). Isometric strength of the trunk muscles was assessed using instrumented trunk muscle strength apparatus and lower extremity dynamic muscle strength/power was examined using clinical tests (e.g., Chair Stand Test). Further, a combined balance and resistance training protocol was applied to examine training-induced effects on balance and muscle strength/power as well as the role of supervision in older adults. Results: Findings revealed that measures of trunk muscle strength and static steady-state balance as well as specific measures of dynamic steady-state balance were significantly associated in the elderly (0.42 ≤ r ≤ 0.57). Combined balance and resistance training significantly improved older adults' static/dynamic steady-state (e.g., Romberg test; habitual gait speed), pro-active (e.g., Timed Up and Go Test), and reactive balance (e.g., Push and Release Test) as well as muscle strength/power (e.g., Chair Stand Test) (0.62 ≤ Cohen’s d ≤ 2.86; all p < 0.05). Supervised compared to unsupervised balance and/or resistance training was superior in enhancing older adults' balance and muscle strength/power performance regarding all observed outcome categories [longitudinal study: effects for the supervised group 0.26 ≤ d ≤ 2.86, effects for the unsupervised group 0.06 ≤ d ≤ 2.30; meta-analysis: all between-subject standardized mean differences (SMDbs) in favor of the supervised training programs 0.24-0.53]. The meta-analysis additionally showed larger effects in favor of supervised interventions when compared to completely unsupervised interventions (0.28 ≤ SMDbs ≤ 1.24). These effects in favor of the supervised programs faded when compared with studies that implemented a small amount of supervised sessions in their unsupervised interventions (−0.06 ≤ SMDbs ≤ 0.41). Conclusions: Trunk muscle strength is associated with steady-state balance performance and may therefore be integrated in fall-preventive exercise interventions for older adults. The examined positive effects on a large number of important intrinsic fall risk factors (e.g., balance deficits, muscle weakness) imply that particularly the combination of balance and resistance training appears to be a feasible and effective exercise intervention for fall prevention. Owing to the beneficial effects of supervised compared to unsupervised interventions, supervised sessions should be integrated in fall-preventive balance and/or resistance training programs for older adults. KW - Senioren KW - Gleichgewicht KW - Maximalkraft/Schnellkraft KW - Rumpfkraft KW - Gleichgewichtstraining KW - Krafttraining KW - Übungsanleitung KW - elderly KW - balance KW - lower extremity muscle strength/power KW - trunk muscle strength KW - balance training KW - resistance training KW - exercise supervision Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411826 ER - TY - THES A1 - Tanski, George T1 - Fate of organic matter mobilized from eroding permafrost coasts Y1 - 2017 ER - TY - THES A1 - Golly, Antonius T1 - Formation and evolution of channel steps and their role for sediment dynamics in a steep mountain stream T1 - Formation und Evolution von Bachstufen und ihr Einfluss auf die Sedimentdynamik eines steilen Gebirgseinzugsgebietes N2 - Steep mountain channels are an important component of the fluvial system. On geological timescales, they shape mountain belts and counteract tectonic uplift by erosion. Their channels are strongly coupled to hillslopes and they are often the main source of sediment transported downstream to low-gradient rivers and to alluvial fans, where commonly settlements in mountainous areas are located. Hence, mountain streams are the cause for one of the main natural hazards in these regions. Due to climate change and a pronounced populating of mountainous regions the attention given to this threat is even growing. Although quantitative studies on sediment transport have significantly advanced our knowledge on measuring and calibration techniques we still lack studies of the processes within mountain catchments. Studies examining the mechanisms of energy and mass exchange on small temporal and spatial scales in steep streams remain sparse in comparison to low-gradient alluvial channels. In the beginning of this doctoral project, a vast amount of experience and knowledge of a steep stream in the Swiss Prealps had to be consolidated in order to shape the principal aim of this research effort. It became obvious, that observations from within the catchment are underrepresented in comparison to experiments performed at the catchment’s outlet measuring fluxes and the effects of the transported material. To counteract this imbalance, an examination of mass fluxes within the catchment on the process scale was intended. Hence, this thesis is heavily based on direct field observations, which are generally rare in these environments in quantity and quality. The first objective was to investigate the coupling of the channel with surrounding hillslopes, the major sources of sediment. This research, which involved the monitoring of the channel and adjacent hillslopes, revealed that alluvial channel steps play a key role in coupling of channel and hillslopes. The observations showed that hillslope stability is strongly associated with the step presence and an understanding of step morphology and stability is therefore crucial in understanding sediment mobilization. This finding refined the way we think about the sediment dynamics in steep channels and motivated continued research of the step dynamics. However, soon it became obvious that the technological basis for developing field tests and analyzing the high resolution geometry measured in the field was not available. Moreover, for many geometrical quantities in mountain channels definitions and a clear scientific standard was not available. For example, these streams are characterized by a high spatial variability of the channel banks, preventing straightforward calculations of the channel width without a defined reference. Thus, the second and inevitable part of this thesis became the development and evaluation of scientific tools in order to investigate the geometrical content of the study reach thoroughly. The developed framework allowed the derivation of various metrics of step and channel geometry which facilitated research on the a large data set of observations of channel steps. In the third part, innovative, physically-based metrics have been developed and compared to current knowledge on step formation, suggested in the literature. With this analyses it could be demonstrated that the formation of channel steps follow a wide range of hydraulic controls. Due to the wide range of tested parameters channel steps observed in a natural stream were attributed to different mechanisms of step formation, including those based on jamming and those based on key-stones. This study extended our knowledge on step formation in a steep stream and harmonized different, often time seen as competing, processes of step formation. This study was based on observations collected at one point in time. In the fourth part of this project, the findings of the snap-shot observations were extended in the temporal dimension and the derived concepts have been utilized to investigate reach-scale step patterns in response to large, exceptional flood events. The preliminary results of this work based on the long-term analyses of 7 years of long profile surveys showed that the previously observed channel-hillslope mechanism is the responsible for the short-term response of step formation. The findings of the long-term analyses of step patterns drew a bow to the initial observations of a channel-hillslope system which allowed to join the dots in the dynamics of steep stream. Thus, in this thesis a broad approach has been chosen to gain insights into the complex system of steep mountain rivers. The effort includes in situ field observations (article I), the development of quantitative scientific tools (article II), the reach-scale analyses of step-pool morphology (article III) and its temporal evolution (article IV). With this work our view on the processes within the catchment has been advanced towards a better mechanistic understanding of these fluvial system relevant to improve applied scientific work. N2 - Gebirgsbäche sind stark gekoppelt mit angrenzenden Hängen, welche eine Hauptquelle von Sediment darstellen. Dieses Sediment wird durch erosive Prozesse weiter im fluvialen System stromabwärts transportiert, häufig auch in Bereiche alpiner Besiedlung. Das transportierte Sediment kann dort verheerende Schäden an Gebäuden und Infrastruktur anrichten. Daher stellen Gebirgsbäche eine Hauptursache für Naturgefahren in steilen Regionen dar, welche durch den Wandel des Klimas und die fortschreitende Besiedlung durch den Menschen noch verstärkt werden. Wenngleich quantitative Studien unser Wissen über Mess- und Kalibrierungstechniken zur Erfassung von Sedimenttransport erweitert haben, so sind doch viele Prozesse innerhalb der Einzugsgebiete in Hinblick auf Erosion und Sedimentverfügbarkeit weitgehend unerforscht. So stellen Beobachtungen von Mechanismen von Energie- und Massenaustausch auf kleinen räumlichen und zeitlichen Skalen innerhalb steiler Gebirgseinzugsgebiete eine Ausname dar. Diese Doktorarbeit basiert auf hoch-qualitativen Feldbeobachtungen in einem schweizer Gebirgsbach um Forschungsfragen in Hinblick auf die Sediementdyanmik zu behandeln. Das erste Ziel war es, die Gerinne-Hang-Kopplung zu erforschen und zu verstehen, um mögliche Sedimentquellen zu identifizieren, sowie die Mechanismen und Prozesse der Sedimentgenerierung in den Kontext der allgemeinen Dynamik von Gebirgsbächen zu bringen. Die erste Studie, welche auf visuellen Beobachtungen basiert, offenbarte eine Schlüsselrolle von Bachstufen in der Gerinne-Hang-Kopplung. Auf dieser Grundlage wurde ein konzeptuelles Modell entwickelt (Artikel I): durch die Erosion von Bachstufen werden angrenzende Hänge destabilisiert und ermöglichen anhaltenden Sedimenteintrag. Diese Forschung regte eine genauere Beobachtung der räumlichen und zeitlichen Evolution von Bachstufen an. Die weitere Forschung erforderte jedoch neue technologische Werkzeuge und Methoden welche zunächst in dieser Doktorarbeit eigens entwickelt wurden (Artikel II). Mit diesen Werkzeugen wurde dann ein Datensatz eingemessener Bachstufen in Hinblick auf den Formationsprozess analysiert (Artikel III). Mit dieser Analyse konnten verschiedene Stufenbildungstheorien überprüft und und zwei dominante Mechanismen verifiziert werden: Bachstufen formen sich in engen und verengenden Bachabchnitten durch Verklemmung, sowie in breiten und breiter werdenden Abschnitten durch die Ablagerung von Schlüsselsteinen. Durch diese Beobachtung wurde unser Wissen über Stufenbildung erweitert indem verschiedene hypothetisierte Mechanismen in einem Gebirgsbach harmonisiert wurden. Zu guter Letzt wurde diese Punktbeobachtung schließlich in den zeitlichen Kontext gesetzt, indem die Muster von Bachstufen über 7 Jahre nach einem hydrologischen Großereignis in 2010 untersucht wurden (Artikel IV). Die vorläufigen Ergebnisse zeigen, dass Großereignisse einen erheblichen Einfluss auf die Gerinnebreite haben: sowohl die räumlich gemittelte Gerinnebreite, als auch die mittlere Gerinnebreite an Bachstufen ist unmittelbar nach dem Großereignis deutlich erhöht. Weiterhin ist die relative Anzahl der Bachstufen welche durch Schlüsselsteine erzeugt werden größer nach dem Großereignis. Dies deutet darauf hin, dass der zuerst beobachtete Mechanismus der Gerinne-Hang-Kopplung (Artikel I) verantwortlich ist für die zeitliche Evolution der Bachstufen nach Großereignissen (Artikel IV). KW - Geomorphologie KW - geomorphology KW - Naturgefahren KW - natural hazards KW - Gebirgsbäche KW - mountain rivers KW - Geschiebetransport KW - bedload transport KW - Bachstufen KW - channel steps KW - Gerinne-Hang-Kopplung KW - channel-hillslope coupling Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411728 ER - TY - THES A1 - Schiprowski, Amelie T1 - Four empirical essays on the economics of job search T1 - Vier Empirische Studien zum Arbeitssuchverhalten N2 - Modern welfare states aim at designing unemployment insurance (UI) schemes which minimize the length of unemployment spells. A variety of institutions and incentives, which are embedded in UI schemes across OECD countries, reflect this attempt. For instance, job seekers entering UI are often provided with personal support through a caseworker. They also face the requirement to regularly submit a minimum number of job applications, which is typically enforced through benefit cuts in the case of non-compliance. Moreover, job seekers may systematically receive information on their re-employment prospects. As a consequence, UI design has become a complex task. Policy makers need to define not only the amount and duration of benefit payments, but also several other choice parameters. These include the intensity and quality of personal support through caseworkers, the level of job search requirements, the strictness of enforcement, and the information provided to unemployed individuals. Causal estimates on how these parameters affect re-employment outcomes are thus central inputs to the design of modern UI systems: how much do individual caseworkers influence the transition out of unemployment? Does the requirement of an additional job application translate into increased job finding? Do individuals behave differently when facing a strict versus mild enforcement system? And how does information on re-employment prospects influence the job search decision? This dissertation proposes four novel research designs to answer this question. Chapters one to three elaborate quasi-experimental identification strategies, which are applied to large-scale administrative data from Switzerland. They, respectively, measure how personal interactions with caseworkers (chapter one), the level of job search requirements (chapter two) and the strictness of enforcement (chapter three) affect re-employment outcomes. Chapter four proposes a structural estimation approach, based on linked survey and administrative data from Germany. It studies how over-optimism on future wage offers affects the decision to search for work, and how the provision of information changes this decision. N2 - In modernen Wohlfahrtsstaaten dient die Arbeitslosenversicherung zwei primären Zielen: Zum einen sollen Einkommensverluste abgefedert werden, die durch die Arbeitslosigkeit entstehen. Zum anderen soll die Re-integration in den Arbeitsmarkt mithilfe verschiedener Instrumente unterstützt werden. Die vorliegende Dissertation beschäftigt sich mit der Wirkung dieser Instrumente. Sie entwickelt vier Forschungsdesigns, um den kausalen Effekt verschiedener Anreize und Institutionen zu messen, die zahlreiche OECD-Länder in ihre Arbeitslosenversicherung integriert haben: Kapitel eins analysiert, wie die Anzahl und Qualität persönlicher Gespräche mit einem Fallberater die Dauer der Arbeitslosigkeit beeinflusst. Kapitel zwei misst den Effekt von Bewerbungen, die durch Suchvorgaben seitens der Arbeitslosenversicherung erwirkt werden. In Kapitel drei wird die Stringenz evaluiert, mit dem die Einhaltung der Vorgaben durchgesetzt werden. Schließlich untersucht Kapitel vier, wie Informationen über zukünftige Lohnperspektiven zu unterschiedlichen Zeitpunkten in der Arbeitslosigkeit wirken. Kapitel eins bis drei beruhen auf quasi-experimentellen Forschungsdesigns, wohingegen Kapitel vier einen strukturellen Schätzansatz verfolgt. Im Folgenden werden die vier Kapitel zusammengefasst und ihre Implikationen für die Gestaltung von Arbeitslosenversicherungssystemen sowie für weitere Politikfelder diskutiert. KW - unemployment insurance KW - job search KW - Arbeitslosenversicherung KW - Arbeitssuche KW - microeconometric analyses KW - mikrökonometrische Analysen Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413508 ER - TY - THES A1 - Becker, Stefanie Lyn T1 - From regimes to grassroots innovations BT - a framework for understanding the causes of the barriers to community-based initiatives and their impacts on transitions Y1 - 2017 ER - TY - THES A1 - Zuo, Zhe T1 - From unstructured to structured: Context-based named entity mining from text T1 - Von unstrukturiert zu strukturiert: Kontextbasierte Gewinnung benannter Entitäten von Text N2 - With recent advances in the area of information extraction, automatically extracting structured information from a vast amount of unstructured textual data becomes an important task, which is infeasible for humans to capture all information manually. Named entities (e.g., persons, organizations, and locations), which are crucial components in texts, are usually the subjects of structured information from textual documents. Therefore, the task of named entity mining receives much attention. It consists of three major subtasks, which are named entity recognition, named entity linking, and relation extraction. These three tasks build up an entire pipeline of a named entity mining system, where each of them has its challenges and can be employed for further applications. As a fundamental task in the natural language processing domain, studies on named entity recognition have a long history, and many existing approaches produce reliable results. The task is aiming to extract mentions of named entities in text and identify their types. Named entity linking recently received much attention with the development of knowledge bases that contain rich information about entities. The goal is to disambiguate mentions of named entities and to link them to the corresponding entries in a knowledge base. Relation extraction, as the final step of named entity mining, is a highly challenging task, which is to extract semantic relations between named entities, e.g., the ownership relation between two companies. In this thesis, we review the state-of-the-art of named entity mining domain in detail, including valuable features, techniques, evaluation methodologies, and so on. Furthermore, we present two of our approaches that focus on the named entity linking and relation extraction tasks separately. To solve the named entity linking task, we propose the entity linking technique, BEL, which operates on a textual range of relevant terms and aggregates decisions from an ensemble of simple classifiers. Each of the classifiers operates on a randomly sampled subset of the above range. In extensive experiments on hand-labeled and benchmark datasets, our approach outperformed state-of-the-art entity linking techniques, both in terms of quality and efficiency. For the task of relation extraction, we focus on extracting a specific group of difficult relation types, business relations between companies. These relations can be used to gain valuable insight into the interactions between companies and perform complex analytics, such as predicting risk or valuating companies. Our semi-supervised strategy can extract business relations between companies based on only a few user-provided seed company pairs. By doing so, we also provide a solution for the problem of determining the direction of asymmetric relations, such as the ownership_of relation. We improve the reliability of the extraction process by using a holistic pattern identification method, which classifies the generated extraction patterns. Our experiments show that we can accurately and reliably extract new entity pairs occurring in the target relation by using as few as five labeled seed pairs. N2 - Mit den jüngsten Fortschritten in den Gebieten der Informationsextraktion wird die automatisierte Extrahierung strukturierter Informationen aus einer unüberschaubaren Menge unstrukturierter Textdaten eine wichtige Aufgabe, deren manuelle Ausführung unzumutbar ist. Benannte Entitäten, (z.B. Personen, Organisationen oder Orte), essentielle Bestandteile in Texten, sind normalerweise der Gegenstand strukturierter Informationen aus Textdokumenten. Daher erhält die Aufgabe der Gewinnung benannter Entitäten viel Aufmerksamkeit. Sie besteht aus drei groen Unteraufgaben, nämlich Erkennung benannter Entitäten, Verbindung benannter Entitäten und Extraktion von Beziehungen. Diese drei Aufgaben zusammen sind der Grundprozess eines Systems zur Gewinnung benannter Entitäten, wobei jede ihre eigene Herausforderung hat und für weitere Anwendungen eingesetzt werden kann. Als ein fundamentaler Aspekt in der Verarbeitung natürlicher Sprache haben Studien zur Erkennung benannter Entitäten eine lange Geschichte, und viele bestehenden Ansätze erbringen verlässliche Ergebnisse. Die Aufgabe zielt darauf ab, Nennungen benannter Entitäten zu extrahieren und ihre Typen zu bestimmen. Verbindung benannter Entitäten hat in letzter Zeit durch die Entwicklung von Wissensdatenbanken, welche reiche Informationen über Entitäten enthalten, viel Aufmerksamkeit erhalten. Das Ziel ist es, Nennungen benannter Entitäten zu unterscheiden und diese mit dazugehörigen Einträgen in einer Wissensdatenbank zu verknüpfen. Der letzte Schritt der Gewinnung benannter Entitäten, die Extraktion von Beziehungen, ist eine stark anspruchsvolle Aufgabe, nämlich die Extraktion semantischer Beziehungen zwischen Entitäten, z.B. die Eigentümerschaft zwischen zwei Firmen. In dieser Doktorarbeit arbeiten wir den aktuellen Stand der Wissenschaft in den Domäne der Gewinnung benannter Entitäten auf, unter anderem wertvolle Eigenschaften und Evaluationsmethoden. Darüberhinaus präsentieren wir zwei Ansätze von uns, die jeweils ihren Fokus auf die Verbindung benannter Entitäten sowie der Aufgaben der Extraktion von Beziehungen legen. Um die Aufgabe der Verbindung benannter Entitäten zu lösen schlagen wir hier die Verbindungstechnik BEL vor, welche auf einer textuellen Bandbreite relevanter Begriffe agiert und Entscheidungen einer Kombination von einfacher Klassifizierer aggregiert. Jeder dieser Klassifizierer arbeitet auf einer zufällig ausgewählten Teilmenge der obigen Bandbreite. In umfangreichen Experimenten mit handannotierten sowie Vergleichsdatensätzen hat unser Ansatz andere Lösungen zur Verbindung benannter Entitäten, die auf dem Stand der aktuellen Technik beruhen, sowie in Bezug auf Qualität als auch Effizienz geschlagen. Für die Aufgabe der Extraktion von Beziehungen fokussieren wir uns auf eine bestimmte Gruppe schwieriger Beziehungstypen, nämlich die Geschäftsbeziehungen zwischen Firmen. Diese Beziehungen können benutzt werden, um wertvolle Erkenntnisse in das Zusammenspiel von Firmen zu gelangen und komplexe Analysen ausführen, beispielsweise die Risikovorhersage oder Bewertung von Firmen. Unsere teilbeaufsichtigte Strategie kann Geschäftsbeziehungen zwischen Firmen anhand nur weniger nutzergegebener Startwerte von Firmenpaaren extrahieren. Dadurch bieten wir auch eine Lösung für das Problem der Richtungserkennung asymmetrischer Beziehungen, beispielsweise der Eigentumsbeziehung. Wir verbessern die Verlässlichkeit des Extraktionsprozesses, indem wir holistische Musteridentifikationsmethoden verwenden, welche die erstellten Extraktionsmuster klassifizieren. Unsere Experimente zeigen, dass wir neue Entitätenpaare akkurat und verlässlich in der Zielbeziehung mit bereits fünf bezeichneten Startpaaren extrahieren können. KW - named entity mining KW - information extraction KW - natural language processing KW - Gewinnung benannter Entitäten KW - Informationsextraktion KW - maschinelle Verarbeitung natürlicher Sprache Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412576 ER - TY - THES A1 - de Souza, Leonardo Perez T1 - Functional characterization of biosynthesis and regulation of plant secondary metabolism Y1 - 2017 ER - TY - THES A1 - Castellanos, Reynel Urrea T1 - Functional characterization of FGT2, a positive regulator of heat stress memory Y1 - 2017 ER - TY - THES A1 - Bülbül, Selin T1 - Functional characterization of the BBX14 transcription factor from Arabidopsis thaliana Y1 - 2017 ER - TY - THES A1 - Mbaya Mani, Christian T1 - Functional nanoporous carbon-based materials derived from oxocarbon-metal coordination complexes T1 - Funktionale nanoporöse Kohlenstoffmaterialien auf Basis von Oxokohlenstoff-Metal Koordinationskomplexe N2 - Nanoporous carbon based materials are of particular interest for both science and industry due to their exceptional properties such as a large surface area, high pore volume, high electroconductivity as well as high chemical and thermal stability. Benefiting from these advantageous properties, nanoporous carbons proved to be useful in various energy and environment related applications including energy storage and conversion, catalysis, gas sorption and separation technologies. The synthesis of nanoporous carbons classically involves thermal carbonization of the carbon precursors (e.g. phenolic resins, polyacrylonitrile, poly(vinyl alcohol) etc.) followed by an activation step and/or it makes use of classical hard or soft templates to obtain well-defined porous structures. However, these synthesis strategies are complicated and costly; and make use of hazardous chemicals, hindering their application for large-scale production. Furthermore, control over the carbon materials properties is challenging owing to the relatively unpredictable processes at the high carbonization temperatures. In the present thesis, nanoporous carbon based materials are prepared by the direct heat treatment of crystalline precursor materials with pre-defined properties. This synthesis strategy does not require any additional carbon sources or classical hard- or soft templates. The highly stable and porous crystalline precursors are based on coordination compounds of the squarate and croconate ions with various divalent metal ions including Zn2+, Cu2+, Ni2+, and Co2+, respectively. Here, the structural properties of the crystals can be controlled by the choice of appropriate synthesis conditions such as the crystal aging temperature, the ligand/metal molar ratio, the metal ion, and the organic ligand system. In this context, the coordination of the squarate ions to Zn2+ yields porous 3D cube crystalline particles. The morphology of the cubes can be tuned from densely packed cubes with a smooth surface to cubes with intriguing micrometer-sized openings and voids which evolve on the centers of the low index faces as the crystal aging temperature is raised. By varying the molar ratio, the particle shape can be changed from truncated cubes to perfect cubes with right-angled edges. These crystalline precursors can be easily transformed into the respective carbon based materials by heat treatment at elevated temperatures in a nitrogen atmosphere followed by a facile washing step. The resulting carbons are obtained in good yields and possess a hierarchical pore structure with well-organized and interconnected micro-, meso- and macropores. Moreover, high surface areas and large pore volumes of up to 1957 m2 g-1 and 2.31 cm3 g-1 are achieved, respectively, whereby the macroscopic structure of the precursors is preserved throughout the whole synthesis procedure. Owing to these advantageous properties, the resulting carbon based materials represent promising supercapacitor electrode materials for energy storage applications. This is exemplarily demonstrated by employing the 3D hierarchical porous carbon cubes derived from squarate-zinc coordination compounds as electrode material showing a specific capacitance of 133 F g-1 in H2SO4 at a scan rate of 5 mV s-1 and retaining 67% of this specific capacitance when the scan rate is increased to 200 mV s-1. In a further application, the porous carbon cubes derived from squarate-zinc coordination compounds are used as high surface area support material and decorated with nickel nanoparticles via an incipient wetness impregnation. The resulting composite material combines a high surface area, a hierarchical pore structure with high functionality and well-accessible pores. Moreover, owing to their regular micro-cube shape, they allow for a good packing of a fixed-bed flow reactor along with high column efficiency and a minimized pressure drop throughout the packed reactor. Therefore, the composite is employed as heterogeneous catalyst in the selective hydrogenation of 5-hydroxymethylfurfural to 2,5-dimethylfuran showing good catalytic performance and overcoming the conventional problem of column blocking. Thinking about the rational design of 3D carbon geometries, the functions and properties of the resulting carbon-based materials can be further expanded by the rational introduction of heteroatoms (e.g. N, B, S, P, etc.) into the carbon structures in order to alter properties such as wettability, surface polarity as well as the electrochemical landscape. In this context, the use of crystalline materials based on oxocarbon-metal ion complexes can open a platform of highly functional materials for all processes that involve surface processes. N2 - Nanoporöse Kohlenstoffmaterialien zeichnen sich u. a. durch ihre außergewöhnlichen Eigenschaften aus wie z. B. hohe Oberfläche, hohes Porenvolumen, hohe elektrische Leitfähigkeit und auch hohe chemische und thermische Stabilität. Aufgrund dessen finden sie Anwendung in den unterschiedlichsten Bereichen von der Speicherung elektrischer Energie bis hin zur Katalyse und Gasspeicherung. Die klassische Synthese von porösen Kohlenstoffmaterialien basiert u. a. auf der Nutzung von sogenannten anorganischen bzw. organischen Templaten und/oder chemischen Aktivierungsagenzien. Allerdings gelten diese Methoden eher als kompliziert, kostspielig und umweltschädlich. Außerdem wird eine gezielte Kontrolle der Produkteigenschaften durch die zahlreichen Prozesse erschwert, die sich bei den hohen Karbonisierungstemperaturen abspielen und folglich die Materialeigenschaften unvorhersehbar verändern können. In der vorliegenden Arbeit wird ein alternatives Konzept für die Synthese von nanoporösen Kohlenstoffmaterialien mit gezielt einstellbaren Eigenschaften vorgestellt. Diese basiert auf der Nutzung von kristallinen Vorläufermaterialien, die aus der Koordination von den Anionen der Quadratsäure bzw. der Krokonsäure mit verschiedenen Metallionen (Zn2+, Cu2+, Ni2+ und Co2+) resultieren. Diese haben den Vorteil, dass Eigenschaften wie z. B. die Partikelmorphologie und Porosität gezielt durch die Wahl geeigneter Syntheseparameter (z. B. Temperatur, molares Verhältnis, Metallion und Ligand) eingestellt werden können. Beispielsweise führen Koordinationskomplexe von der Quadratsäure mit Zn2+ in Wasser zu porösen 3D würfelförmigen Mikrokristallen, die durch einfache thermische Behandlung unter Schutzgasatmosphäre zu den entsprechenden Kompositen umgewandelt werden. Ein anschließender Waschschritt führt zu den entsprechenden Kohlenstoffmaterialien unter Erhalt der makroskopischen Struktur der kristallinen Vorläufermaterialien. In diesem Zusammenhang weisen die resultierenden Kohlenstoffe ebenfalls eine 3D Würfelform mit einer hierarchischen Porenstruktur bestehend aus vernetzten Mikro-, Meso- und Makroporen auf. Ferner besitzen die Kohlenstoffe hohe Oberflächen und Porenvolumen von bis zu 1.957 m2 g-1 bzw. 2,31 cm3 g-1. Um die Vorteile dieser Eigenschaften zu demonstrieren, werden sie als Elektrodenmaterial für Superkondensatoren getestet und zeigen dabei vielversprechende Kapazitäten. Außerdem, werden sie auch als Trägermaterial für die Immobilisierung von Nickel-Nanopartikel verwendet und als heterogene Katalysatoren in der selektiven Hydrierung von 5-hydroxymethylfurfural zu 2,5-dimethylfuran in einem Festbettreaktor eingesetzt. Dabei wird eine gute Katalysatorleistung (Produktivität) bei minimalem Druckabfall in der Reaktorsäule erreicht. KW - squaric acid KW - Quadratsäure KW - mesocrystals KW - Mesokristalle KW - nanoporöser Kohlenstoffpartikel KW - nanoporous carbon particles KW - Nanopartikel KW - nanoparticles KW - Koordinationskomplexe KW - coordination complexes KW - oxocarbon KW - Oxo-Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407866 ER - TY - THES A1 - Zhang, Weiyi T1 - Functional Poly(ionic liquid) Materials based on Poly(1,2,4-triazolium)s Y1 - 2017 ER - TY - THES A1 - Olejko, Lydia T1 - Förster resonance energy transfer (FRET)-based nanophotonics using DNA origami structures T1 - Förster-Resonanzenergietransfer (FRET) basierende Nanophotonik auf DNA Origami Strukturen N2 - The field of nanophotonics focuses on the interaction between electromagnetic radiation and matter on the nanometer scale. The elements of nanoscale photonic devices can transfer excitation energy non-radiatively from an excited donor molecule to an acceptor molecule by Förster resonance energy transfer (FRET). The efficiency of this energy transfer is highly dependent on the donor-acceptor distance. Hence, in these nanoscale photonic devices it is of high importance to have a good control over the spatial assembly of used fluorophores. Based on molecular self-assembly processes, various nanostructures can be produced. Here, DNA nanotechnology and especially the DNA origami technique are auspicious self-assembling methods. By using DNA origami nanostructures different fluorophores can be introduced with a high local control to create a variety of nanoscale photonic objects. The applications of such nanostructures range from photonic wires and logic gates for molecular computing to artificial light harvesting systems for artificial photosynthesis. In the present cumulative doctoral thesis, different FRET systems on DNA origami structures have been designed and thoroughly analyzed. Firstly, the formation of guanine (G) quadruplex structures from G rich DNA sequences has been studied based on a two-color FRET system (Fluorescein (FAM)/Cyanine3 (Cy3)). Here, the influences of different cations (Na+ and K+), of the DNA origami structure and of the DNA sequence on the G-quadruplex formation have been analyzed. In this study, an ion-selective K+ sensing scheme based on the G-quadruplex formation on DNA origami structures has been developed. Subsequently, the reversibility of the G-quadruplex formation on DNA origami structures has been evaluated. This has been done for the simple two-color FRET system which has then been advanced to a switchable photonic wire by introducing additional fluorophores (FAM/Cy3/Cyanine5 (Cy5)/IRDye®700). In the last part, the emission intensity of the acceptor molecule (Cy5) in a three-color FRET cascade has been tuned by arranging multiple donor (FAM) and transmitter (Cy3) molecules around the central acceptor molecule. In such artificial light harvesting systems, the excitation energy is absorbed by several donor and transmitter molecules followed by an energy transfer to the acceptor leading to a brighter Cy5 emission. Furthermore, the range of possible excitation wavelengths is extended by using several different fluorophores (FAM/Cy3/Cy5). In this part of the thesis, the light harvesting efficiency (antenna effect) and the FRET efficiency of different donor/transmitter/acceptor assemblies have been analyzed and the artificial light harvesting complex has been optimized in this respect. N2 - Nanotechnologie hat in den letzten Jahrzehnten durch die Herstellung von Materialien mit außergewöhnlichen Eigenschaften für Anwendungen im Bereich der Medizin und Materialwissenschaften immer mehr an Popularität gewonnen. Die Herstellungsmethoden von Nanostrukturen sind weit gefächert. Auch Desoxyribonukleinsäure (DNS bzw. engl. DNA, deoxyribonucleic acid) kann für die Herstellung von Strukturen im Nanometerbereich genutzt werden. Diese sogenannte DNA-Nanotechnologie wurde in den frühen 1980er Jahren von Nadrian C. Seeman begründet. Ungefähr 30 Jahre später wurde eine neue Methodik für die Herstellung von DNA-Nanostrukturen von Paul W. K. Rothemund entwickelt, die er „scaffold DNA origami“ (Gerüst-DNA-Origami) nannte. DNA-Origami-Nanostrukturen können relativ einfach hergestellt werden und eignen sich perfekt für die Anordnung unterschiedlicher Moleküle (zum Beispiel Fluorophore) mit hoher räumlicher Kontrolle und Präzision. Daher können sie als Substrate genutzt werden, um verschiedene Förster-Resonanzenergietransfer (FRET) Systeme zu entwerfen und zu untersuchen. FRET ist ein strahlungsloser Energietransfer, bei dem die Anregungsenergie von einem Donor- auf ein Akzeptor-Molekül übertragen wird. In dieser kumulativen Doktorarbeit wurden verschiedene FRET-Systeme auf DNA-Origami-Nanostrukturen entwickelt und mithilfe der Fluoreszenzspektroskopie untersucht. Hierbei wurde zuerst die durch einwertige Kationen (Kalium oder Natrium) induzierte Guanin-Quadruplex-Faltung von freier Telomer-DNA und Telomer-DNA auf DNA-Origami-Strukturen mittels FRET analysiert. Diese Untersuchungen haben gezeigt, dass die freie umgedrehte menschliche Telomer-Sequenz (RevHumTel, 5'-(GGG ATT)4) generell sensitiver auf K+ als auf Na+ reagiert. Durch die Immobilisierung der Telomer-DNA auf DNA-Origami-Strukturen kann eine vollständige Selektivität für K+ erreicht werden. Interessanterweise wird die Ionenselektivität aufgehoben, wenn die menschliche Telomer-Sequenz (HumTel, 5'-(TTA GGG)4) verwendet wird. Basierend auf der G-Quadruplex-Faltung konnten schaltbare FRET-Systeme entwickelt werden, da sich die G-Quadruplexe wieder entfalten, wenn die Kationen mithilfe von zum Beispiel Kryptanden entfernt werden. In den hier untersuchten FRET-Systemen konnte zwischen hoher FRET-Effizienz (gefalteter G-Quadruplex) und niedriger FRET-Effizienz (entfalteter DNA Einzelstrang) durch Zugabe KCl bzw. cryptand gewechselt werden. Da sich DNA-Origami-Strukturen recht einfach modifizieren lassen, wurde das ursprüngliche zwei-Farben-FRET-System durch Hinzufügen eines weiteren etwas rotverschobenen Farbstoffes erweitert (drei-Farben-FRET-Kaskade). Schließlich konnte ein schaltbarer photonischer Draht durch Einfügen eines vierten Farbstoffes entwickelt werden. Die Emissionsintensität des finalen Akzeptors ist in einer einfachen drei-Farben-FRET-Kaskade (ein Donor, ein Transmitter und ein Akzeptor) verhältnismäßig gering und kann durch das Anordnen von mehreren Donor- und Transmitter-Molekülen um ein zentrales Akzeptor-Molekül herum stark erhöht werden. In diesen sogenannten künstlichen Lichtsammelkomplexen absorbieren die Donor-Moleküle das Anregungslicht und übertragen dieses über mehrere FRET-Stufen zum Akzeptor-Molekül. Dadurch wird der Wellenlängenbereich der elektromagnetischen Strahlung, welcher vom Akzeptor absorbiert werden kann, vergrößert und die Emissionsintensität des Akzeptors verstärkt. In diesem Teil der Arbeit wurde die Anzahl der Farbstoffe und die Anordnung dieser unterschiedlichen Farbstoffe variiert und die Lichtsammeleffizienz und FRET-Effizienz bestimmt. Hierbei wurden diese Parameter optimiert und aufgrund der gefundenen Ergebnisse konnten Design-Regeln für solche künstlichen Lichtsammelkomplexe aufgestellt werden. KW - DNA origami KW - FRET KW - Förster resonance energy transfer KW - DNA Origami KW - FRET KW - Förster-Resonanzenergietransfer Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396747 ER - TY - THES A1 - Nagel, Rebecca T1 - Genetic and behavioral investigations into African weakly electric fish (Osteoglossomorpha: Mormyridae) speciation Y1 - 2017 ER - TY - THES A1 - Bredow, Eva T1 - Geodynamic models of plume-ridge interaction T1 - Geodynamische Modelle der Interaktion von Plumes und Mittelozeanischen Rücken BT - case studies of the Réunion, Iceland and Kerguelen mantle plumes BT - Fallstudien der Réunion-, Island- und Kerguelen-Mantleplumes N2 - According to the classical plume hypothesis, mantle plumes are localized upwellings of hot, buoyant material in the Earth’s mantle. They have a typical mushroom shape, consisting of a large plume head, which is associated with the formation of voluminous flood basalts (a Large Igneous Province) and a narrow plume tail, which generates a linear, age-progressive chain of volcanic edifices (a hotspot track) as the tectonic plate migrates over the relatively stationary plume. Both plume heads and tails reshape large areas of the Earth’s surface over many tens of millions of years. However, not every plume has left an exemplary record that supports the classical hypothesis. The main objective of this thesis is therefore to study how specific hotspots have created the crustal thickness pattern attributed to their volcanic activities. Using regional geodynamic models, the main chapters of this thesis address the challenge of deciphering the three individual (and increasingly complex) Réunion, Iceland, and Kerguelen hotspot histories, especially focussing on the interactions between the respective plume and nearby spreading ridges. For this purpose, the mantle convection code ASPECT is used to set up three-dimensional numerical models, which consider the specific local surroundings of each plume by prescribing time-dependent boundary conditions for temperature and mantle flow. Combining reconstructed plate boundaries and plate motions, large-scale global flow velocities and an inhomogeneous lithosphere thickness distribution together with a dehydration rheology represents a novel setup for regional convection models. The model results show the crustal thickness pattern produced by the plume, which is compared to present-day topographic structures, crustal thickness estimates and age determinations of volcanic provinces associated with hotspot activity. Altogether, the model results agree well with surface observations. Moreover, the dynamic development of the plumes in the models provide explanations for the generation of smaller, yet characteristic volcanic features that were previously unexplained. Considering the present-day state of a model as a prediction for the current temperature distribution in the mantle, it cannot only be compared to observations on the surface, but also to structures in the Earth’s interior as imaged by seismic tomography. More precisely, in the case of the Réunion hotspot, the model demonstrates how the distinctive gap between the Maldives and Chagos is generated due to the combination of the ridge geometry and plume-ridge interaction. Further, the Rodrigues Ridge is formed as the surface expression of a long-distance sublithospheric flow channel between the upwelling plume and the closest ridge segment, confirming the long-standing hypothesis of Morgan (1978) for the first time in a dynamic context. The Réunion plume has been studied in connection with the seismological RHUM-RUM project, which has recently provided new seismic tomography images that yield an excellent match with the geodynamic model. Regarding the Iceland plume, the numerical model shows how plume material may have accumulated in an east-west trending corridor of thin lithosphere across Greenland and resulted in simultaneous melt generation west and east of Greenland. This provides an explanation for the extremely widespread volcanic material attributed to magma production of the Iceland hotspot and demonstrates that the model setup is also able to explain more complicated hotspot histories. The Iceland model results also agree well with newly derived seismic tomographic images. The Kerguelen hotspot has an extremely complex history and previous studies concluded that the plume might be dismembered or influenced by solitary waves in its conduit to produce the reconstructed variable melt production rate. The geodynamic model, however, shows that a constant plume influx can result in a variable magma production rate if the plume interacts with nearby mid-ocean ridges. Moreover, the Ninetyeast Ridge in the model is created by on-ridge activities, while the Kerguelen plume was located beneath the Australian plate. This is also a contrast to earlier studies, which described the Ninetyeast Ridge as the result of the Indian plate passing over the plume. Furthermore, the Amsterdam-Saint Paul Plateau in the model is the result of plume material flowing from the upwelling toward the Southeast Indian Ridge, whereas previous geochemical studies attributed that volcanic province to a separate deep plume. In summary, the three case studies presented in this thesis consistently highlight the importance of plume-ridge interaction in order to reconstruct the overall volcanic hotspot record as well as specific smaller features attributed to a certain hotspot. They also demonstrate that it is not necessary to attribute highly complicated properties to a specific plume in order to account for complex observations. Thus, this thesis contributes to the general understanding of plume dynamics and extends the very specific knowledge about the Réunion, Iceland, and Kerguelen mantle plumes. N2 - Nach der klassischen Plume-Hypothese sind Mantelplumes lokalisierte Aufströme aus heißem, aufsteigenden Material im Erdmantel und haben eine typische pilzförmige Struktur. Sie bestehen aus einem großen Plume-Kopf, der mit der Bildung von voluminösen Flutbasalten (einer Magmatischen Großprovinz) assoziiert wird und einem engen Plume-Schlauch, der eine lineare Kette von Vulkanen mit aufsteigendem Alter (einen Hotspot-Track) erzeugt, indem die tektonische Platte über den relativ stationären Plume wandert. Sowohl Plume-Köpfe als auch Plume-Schläuche formen große Gebiete der Erdoberfläche über viele zehn Millionen Jahre um. Allerdings hat nicht jeder Plume mustergültige Spuren hinterlassen, die die klassische Hypothese unterstützen. Das Hauptziel dieser Arbeit ist daher zu untersuchen, wie ein spezifischer Hotspot den ihm zugeordneten Hotspot-Track erzeugt hat. Mit Hilfe regionaler geodynamischer Modelle stellen sich die Hauptkapitel dieser Arbeit der Herausforderung, die drei individuellen (und zunehmend komplexen) Geschichten des Réunion-, Island- und Kerguelen-Hotspots zu entschlüsseln, wobei insbesondere die Wechselwirkungen zwischen dem jeweiligen Plume und nahegelegenen Mittelozeanischen Rücken im Mittelpunkt stehen. Zu diesem Zweck wird der Mantelkonvektions-Code ASPECT verwendet, um dreidimensionale numerische Modelle zu erstellen, die die spezielle lokale Umgebung jedes Plumes berücksichtigen, indem zeitabhängige Randbedingungen für Temperatur und Mantelströmung vorgeschrieben werden. Die Kombination von rekonstruierten Plattengrenzen und Plattenbewegungen, großräumigen globalen Strömungsgeschwindigkeiten und einer inhomogenen Lithosphärendickenverteilung zusammen mit einer Dehydrierungs-Rheologie stellt eine neue Konfiguration für regionale Konvektionsmodelle dar. Die Modellergebnisse zeigen die vom Plume produzierte Verteilung von vulkanischem Material, die mit heutigen topographischen Strukturen, Schätzungen der Krustendicke und Altersbestimmungen vulkanischer Provinzen verglichen wird. Insgesamt stimmen die Modellergebnisse gut mit den Oberflächenbeobachtungen überein. Darüber hinaus liefert die dynamische Entwicklung der Plumes in den Modellen Erklärungen für die Erzeugung kleinerer, aber charakteristischer vulkanischer Strukturen, deren Herkunft bisher unerklärt war. Betrachtet man den heutigen Zustand eines Modells als Vorhersage für die aktuelle Temperaturverteilung im Mantel, kann man ihn nicht nur mit Beobachtungen an der Oberfläche vergleichen, sondern auch mit Strukturen im Erdinneren, wie sie durch seismische Tomographie abgebildet werden. Genauer gesagt zeigt das Modell im Falle des Réunion-Hotspots, wie die charakteristische Lücke zwischen den Malediven und Chagos aufgrund der Kombination der Geometrie des Mittelozeanischen Rückens und der Interaktion zwischen Plume und Rücken erzeugt wird. Des Weiteren wird der Rodrigues-Rücken als Oberflächenerscheinung eines sublithosphärischen Strömungskanals zwischen dem aufsteigenden Plume und dem nächstgelegenen Segment des Mittelozeanischen Rückens gebildet, was die langjährige Hypothese von Morgan (1978) zum ersten Mal in einem dynamischen Kontext bestätigt. Der Réunion-Plume wurde im Rahmen des seismo- logischen RHUM-RUM-Projektes untersucht, das kürzlich neue seismische Tomographiebilder ergeben hat, die eine exzellente Übereinstimmung mit dem geodynamischen Modell aufweisen. Was den Island-Plume betrifft, so zeigt das numerische Modell, wie sich Plume-Material in einem von Ost nach West verlaufenden Korridor dünner Lithosphäre in Grönland angesammelt haben könnte und zu einer gleichzeitigen Schmelzerzeugung westlich und östlich von Grönland geführt hat. Dies erklärt das extrem weit verbreitete vulkanische Material, das der Magmaproduktion des Island-Hotspots zugeschrieben wird, und demonstriert, dass der Modell-Aufbau auch kompliziertere Hotspot-Geschichten erklären kann. Die Ergebnisse des Island-Modells stimmen ebenfalls gut mit neu erzeugten seismischen Tomographiebildern überein. Der Kerguelen-Hotspot hat eine äußerst komplexe Geschichte und frühere Studien kamen zu dem Schluss, dass der Plume eine zerrissene Struktur oder durch einzelne Wellen im Schlauch beeinflusst sein könnte, um die rekonstruierte variable Schmelzproduktionsrate zu erzeugen. Das geodynamische Modell zeigt jedoch, dass ein konstanter Plume-Einstrom zu einer variablen Magmaproduktionsrate führen kann, wenn der Plume mit nahegelegenen mittelozeanischen Rücken interagiert. Darüber hinaus wird der Neunzig-Grad-Ost-Rücken im Modell am Mittelozeanischen Rücken erschaffen, während der Kerguelen-Plume unter der australischen Platte lag. Dies steht auch im Gegensatz zu früheren Studien, die den Neunzig-Grad-Ost-Rücken als Ergebnis der über den Plume wandernden indischen Platte beschrieben haben. Darüber hinaus ist das Amsterdam-Saint Paul-Plateau im Modell das Ergebnis von Plume-Material, das von der Aufstiegsregion in Richtung des Südostindischen Rückens fließt, wohingegen frühere geochemische Studien diese vulkanische Provinz einem separaten tiefen Plume zugeschrieben haben. Zusammenfassend verdeutlichen die drei in dieser Arbeit präsentierten Fallstudien die Bedeutung der Interaktion zwischen Plume und Mittelozeanischen Rücken für die Rekonstruktion der Verteilung des gesamten vom Hotspot erzeugten vulkanischen Materials sowie von spezifischen kleineren Strukturen, die einem bestimmten Hotspot zugeordnet sind. Es wird auch gezeigt, dass es nicht notwendig ist, einem bestimmten Plume hochkomplizierte Eigenschaften zuzuschreiben, um komplexe Beobachtungen zu erklären. Somit trägt diese Arbeit zum allgemeinen Verständnis der Dynamik von Plumes bei und erweitert das sehr spezifische Wissen über die Réunion-, Island-, und Kerguelen-Mantelplumes. KW - geodynamic models KW - plume-ridge interaction KW - Réunion KW - Iceland KW - Kerguelen KW - mantle plumes KW - geodynamische Modelle KW - Plume-Rücken Interaktion KW - Réunion KW - Island KW - Kerguelen KW - Mantleplumes Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411732 ER - TY - THES A1 - Heck, Christian T1 - Gold and silver nanolenses self-assembled by DNA origami T1 - Gold- und Silbernanolinsen, selbstassembliert durch DNA-Origami N2 - Nanolenses are linear chains of differently-sized metal nanoparticles, which can theoretically provide extremely high field enhancements. The complex structure renders their synthesis challenging and has hampered closer analyses so far. Here, the technique of DNA origami was used to self-assemble DNA-coated 10 nm, 20 nm, and 60 nm gold or silver nanoparticles into gold or silver nanolenses. Three different geometrical arrangements of gold nanolenses were assembled, and for each of the three, sets of single gold nanolenses were investigated in detail by atomic force microscopy, scanning electron microscopy, dark-field scattering and Raman spectroscopy. The surface-enhanced Raman scattering (SERS) capabilities of the single nanolenses were assessed by labelling the 10 nm gold nanoparticle selectively with dye molecules. The experimental data was complemented by finite-difference time-domain simulations. For those gold nanolenses which showed the strongest field enhancement, SERS signals from the two different internal gaps were compared by selectively placing probe dyes on the 20 nm or 60 nm gold particles. The highest enhancement was found for the gap between the 20 nm and 10 nm nanoparticle, which is indicative of a cascaded field enhancement. The protein streptavidin was labelled with alkyne groups and served as a biological model analyte, bound between the 20 nm and 10 nm particle of silver nanolenses. Thereby, a SERS signal from a single streptavidin could be detected. Background peaks observed in SERS measurements on single silver nanolenses could be attributed to amorphous carbon. It was shown that the amorphous carbon is generated in situ. N2 - Nanolinsen sind Strukturen aus linear angeordneten, unterschiedlich großen metallischen Nanopartikeln. Elektromagnetische Felder können durch sie theoretisch extrem verstärkt werden, aufgrund ihres komplexen Aufbaus sind sie bislang aber wenig erforscht. Im Rahmen dieser Dissertation wurden Nanolinsen mit Hilfe der DNA-Origami-Technik aus DNA-beschichteten 10 nm-, 20 nm- und 60 nm-Gold- oder Silbernanopartikeln hergestellt. Für Goldnanolinsen sind die Partikel dabei in drei unterschiedlichen Geometrien angeordnet worden. Einzelne Goldnanolinsen wurden mittels Rasterkraftmikroskopie, Rasterelektronenmikroskopie, Dunkelfeld- und Ramanspektroskopie untersucht. Um die Raman-Verstärkung quantifizieren zu können, trugen dabei jeweils die 10 nm-Goldpartikel Farbstoffmoleküle in ihrer Beschichtung. Die Interpretation der Messdaten wurde durch numerische Simulationen unterstützt. Nanolinsen zeichnen sich durch eine stufenweise Feldverstärkung aus. Dieser Effekt konnte experimentell bestätigt werden, indem selektiv die 20 nm- oder 60 nm-Partikel von Goldnanolinsen mit Farbstoffen markiert und die resultierenden Raman-Signale verglichen wurden. Ein mit Alkingruppen markiertes Protein ist ortsselektiv in Silbernanolinsen integriert worden. Es war möglich, das für das Alkin charakteristische oberflächenverstärkte Raman-Signal im Spektrum einer einzelnen Nanolinse und damit eines einzelnen Proteins zu beobachten. Bei den Messungen mit Silbernanolinsen sind für amorphe Kohlenstoffspezies charakterstische Hintergrundsignale beobachtet worden. Durch zeitabhängige Messungen konnte gezeigt werden, dass diese Spezies erst in situ gebildet werden. KW - DNA origami KW - gold nanoparticles KW - silver nanoparticles KW - SERS KW - self-assembly KW - plasmonics KW - nanolenses KW - DNA-Origami KW - Goldnanopartikel KW - Silbernanopartikel KW - SERS KW - Selbstassemblierung KW - Plasmonik KW - Nanolinsen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409002 ER - TY - THES A1 - Bunk, Bettina T1 - Governance and the Politics of Local Economic Development - South Africa and Mozambique Y1 - 2017 ER - TY - THES A1 - Braun, Max T1 - Heterogeneous Catalysis for the Conversion of Fructose to Chemicals and Fuel in a Continuous Flow Process T1 - Umsetzung von Fruktose zu Chemikalien und Treibstoff mittels heterogener Katalysatoren in einem kontinuierlichen Prozess N2 - Die Umsetzung von Zucker (Kohlenhydrate) in einem kontinuierlichen Prozess eröffnet Möglichkeiten der Synthese diverser Chemikalien und Treibstoff aus erneuerbaren Ressourcen, welche heute überwiegend aus fossilen Quellen stammen. Passend zum Konzept der Bioraffinerie und der „grünen Chemie“, liegt der Fokus dieser Arbeit auf der Umsetzung von in Ethanol gelöster Fruktose in einem kontinuierlichen Verfahren, mit Hilfe eigens entwickelter heterogener Katalysatoren. Die Dehydratisierung von Fruktose wird mit einem heterogenen Säurekatalysator realisiert, während die Folgeprodukte mittels einer Hydrodesoxygenierung umgesetzt werden. Für den zweiten Schritt kommen Metallkatalysatoren auf Basis von Nickel und Wolframcarbid (WC) zum Einsatz, wodurch der Einsatz teurer Edelmetalle vermieden werden kann. Hauptprodukte des zweistufigen Verfahrens sind 2,5-Dimethylfuran (DMF) und Ethyllevulinat (EL). Beide Moleküle sind vielversprechende alternative Treibstoffe, bzw. können gebräuchlichen Treibstoffen beigemischt werden, um deren Einsatz zu reduzieren und schrittweise zu substituieren. Alternativ können die Zwischenprodukte der Dehydratisierung, sowie DMF und EL weiter zu Chemikalien umgesetzt werden, welche in der Polymersynthese, als Lösungsmittel oder als Grundchemikalien eingesetzt werden können. Die Entwicklung der jeweiligen Katalysatoren für Dehydratisierungs- und Hydrodesoxygenierungsreaktionen erfolgt auf Basis von karbonisierter Biomasse, sowie Wolframcarbid. Die jeweiligen Reaktivitäten werden durch Standardreaktionen getestet, wobei sich Wolframcarbid in Nanopartikelform, in Kombination mit Wasserstoff als sehr aktiv erwiesen hat. Der selbst entwickelte aktivierte Kohlenstoff, das kommerzielle Amberlyst 15, sowie Wolframcarbid mit zusätzlichen Nickel-Nanopartikeln werden für weiterführende Reaktionen in einem kontinuierlichen Prozess herangezogen und kombiniert. Um den Umsatz von Fruktose zu DMF in einer „zwei Reaktoren Anlage“ zu ermöglichen, wird eine Erweiterung eines kommerziellen Reaktorsystems um einen weiteren Reaktor vorgenommen. Die Verweilzeit in der Reaktoranlage beträgt somit ca. 14 Minuten, wobei 11 Minuten auf die erste Säule (Dehydratisierung) und 3 Minuten auf die zweite Säule (Hydrodesoxygenierung) entfallen. In diesem kontinuierlichen und zweistufigen System lassen sich Ausbeuten von 38.5 % DMF und 47 % EL erzielen. Ein kontinuierlicher Lauf von sieben Stunden zeigt die Stabilität der eingesetzten Katalysatoren, auch wenn eine geringe Deaktivierung des Dehydratisierungskatalysators beobachtet werden kann. Der Ni@WC Katalysator zeigte hingegen keine Abnahme der Nickel Konzentration und somit kommt es zu keiner Auswaschung des Metalls. Das gebildete EL wurde hingegen nicht umgesetzt und verbleibt unverändert in Lösung. Das zweistufige System wurde schließlich in einem Mischkatalysatorsystem kombiniert, wobei auf aktivierten und sulfonierten Kohlenstoff zurückgegriffen wurde. Dieser zeigte bereits eine Transferhydrodesoxygenierungsaktivität. Diese Beobachtung ist deshalb bemerkenswert, da erst seit kurzem bekannt ist, dass Graphenstrukturen an sich katalytisch aktiv sein können. Um diese Aktivität weiter zu steigern, wurde der aktivierte Kohlenstoff mit 10 wt% Ni@WC gemischt, sodass beide Katalysatoren in einer Säule vorliegen. Die ursprünglichen 2 % DMF Ausbeute mit reinem aktivierten Kohlenstoff können somit auf 12 % gesteigert werden, da das Folgeprodukt EL hierbei vermieden wird und das Zwischenprodukt „HMF Derivat“ direkt zu DMF weiter reagieren kann. Dieses Ergebnis zeigt das Potential der „ein Reaktor Umsetzung“, weshalb eine kontinuierliche Durchflussreaktoranlage im Litermaßstab als Scale-Up des vorhergehenden Labormaßstabs realisiert wurde. Der 800 mm x 28.5 mm Reaktor bedient eine maximale Flussrate von 50 mL min-1, Drücke von 100 bar und Temperaturen bis zu 500 °C. N2 - The valorization of carbohydrates is one of the most promising fields in green chemistry, as it enables to produce bulk chemicals and fuels out of renewable and abundant resources, instead of further exploiting fossil feedstocks. The focus in this thesis is the conversion of fructose, using dehydration and hydrodeoxygenation reactions. The main goal is to find an easy continuous process, including the solubility of the sugar in a green solvent, the conversion over a solid acid as well as over a metal@tungsten carbide catalyst. At the beginning of this thesis, solid acid catalysts are synthesized by using carbohydrate material like glucose and starch at high temperatures (up to 600 °C). Additionally a third carbon is synthesized, using an activation method based on Ca(OH)2. After carbonization and further sulfonation, using fuming sulfuric acid, the three resulting catalysts are characterized together with sulfonated carbon black and Amberlyst 15 as references. In order to test all solid acid catalysts in reaction, a 250 mm x 4.6 mm stainless steel column is used as a fixed-bed continuous reactor. The temperature (110 °C to 250 °C) and residence time (2 to 30 minutes) is varied, and a direct relationship between contact time and selectivity is determined. The reaction mechanism, as well as the product distribution is showing a dehydration step of fructose towards 5-hydroxymethylfurfural (HMF). These furan-ring molecules are considered as “sleeping giants”, due to the possibility of using them as fuel, but also for upgrading them to chemicals like terephthalic acid or p-xylene. Consecutive reactions are producing levulinic acid, as well as condensation products with ethanol and formic acid. The activated carbon is additionally showing a 2 % yield of 2,5-Dimethylfuran (DMF) production, pointing towards the extraordinary properties of this catalyst. Without a metal catalyst present, what is normally necessary for hydrogenation reactions, a transferhydrogenation (with formic acid) is observed. The active catalyst was therefore carbon itself, what activated the hydrogen on its surface. This phenomenon was just very rarely observed so far. Expensive noble metals are the material of choice, when it comes to hydrogenation reactions nowadays and cheaper alternatives are necessary. By postulating a similar electronic structure of tungsten carbide (WC) to platinum by Lewy and Boudart, research is focusing on the replacement of Pt. The production of nano-sized tungsten carbide particles (7.5 ± 2.5 nm, 70 m2 g-1) is enabled by the so called “urea glass route” and its catalytic performances are compared to commercial material. It is shown, that the activity is strongly dependent on the size of the particles as well as the surface area. Nano-sized tungsten carbide is showing activity for hydrogenation reactions under mild conditions (maximum 150 °C, 30 bar). This material therefore opens up new possibilities for replacing the rare and expensive platinum with tungsten carbide based catalysts. Additionally different metal nanoparticles of palladium, copper and nickel are deposited on top of WC to further promote its reactivity. The nickel nanoparticles are strongly connected to WC and showed the best activity as well as selectivity for upgrading HMF with hydrodeoxygenation. The Ni@WC is not leaching and is showing very good hydrodeoxygenation properties with DMF yields up to 90 percent. Copper@WC is not showing good activity and palladium@WC enables undesired consecutive reactions, hydrogenating the furan ring system. In order to enable the upgrade of fructose to DMF directly in a continuous system, the current H CUBE Pro TM hydrogenation system is customized with a second reaction column. A 250 mm x 4.6 mm stainless steel reactor column is connected ahead of the hydrogen insertion, enabling the dehydration of fructose to HMF derivatives, before pumping these products into the second column for hydrogenation. The overall residence time in the two column reactor system is 14 minutes. The overall results are an almost full conversion with a yield of 38.5 % DMF and 47 % yield of EL. The main disadvantage is the formation of higher mass products, so called humins, which start depositing on top of the catalysts, blocking their active sites. In general it can be stated, that a two column system goes along with a higher investment as well as more maintenance costs, compared to a one column catalytic approach. To develop a catalyst, which is on the one hand able to dehydrate as well as hydrodeoxygenate the reactants, is aimed for at the last part of the thesis. The activated carbon however shows already activity for hydrodeoxygenation without any metal present and offers itself therefore as an alternative to overcome the temperature instability of Amberlyst 15 (max. 120 °C) for a combined DMF production directly from fructose. The activity for the upgrade to DMF is increased from 2 % to 12 % DMF yield in one mixed continuous column. In order to scale up the entire one column approach, an 800 mm x 28.5 mm inner diameter column was planned and manufactured. The system is scaled up and assembled, whereas this flow reactor system is able to be run with 50 mL min-1 maximum flow rate, to stand a pressure of maximum 100 bar and be heated to around 500 °C. The tubing and connections, as well as the used devices are planned according to be safe and easy in use. The scaled-up approach offers a reaction column 120 times bigger (510 ml) then the first extension of the commercial system. This further extension offers the possibility of ranging between 1 and 1000 mL min-1, making it possible to use the approach in pilot plant applications. KW - Biorefinery KW - Catalysis KW - Hydroxymethylfurfural KW - Upgrade of Fructose KW - Bioraffinerie KW - Katalyse KW - Hydroxymethylfurfural KW - Aufarbeitung von Fruktose Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410370 ER - TY - THES A1 - González Manrique, Sergio Javier T1 - High-Resolution Observations of Emerging Flux Regions Y1 - 2017 ER - TY - THES A1 - Santilli, Mario T1 - Higher order rectifiability in Euclidean space T1 - Rektifizierbarkeit höherer Ordnung in Euklidischen Räumen N2 - The first main goal of this thesis is to develop a concept of approximate differentiability of higher order for subsets of the Euclidean space that allows to characterize higher order rectifiable sets, extending somehow well known facts for functions. We emphasize that for every subset A of the Euclidean space and for every integer k ≥ 2 we introduce the approximate differential of order k of A and we prove it is a Borel map whose domain is a (possibly empty) Borel set. This concept could be helpful to deal with higher order rectifiable sets in applications. The other goal is to extend to general closed sets a well known theorem of Alberti on the second order rectifiability properties of the boundary of convex bodies. The Alberti theorem provides a stratification of second order rectifiable subsets of the boundary of a convex body based on the dimension of the (convex) normal cone. Considering a suitable generalization of this normal cone for general closed subsets of the Euclidean space and employing some results from the first part we can prove that the same stratification exists for every closed set. N2 - Das erste Ziel dieser Arbeit ist die Entwicklung eines Konzepts zur Beschreibung von Differenzierbarkeit höherer Ordnung für Teilmengen des euklidischen Raumes, welche es erlaubt von höherer Ordnung rektifizierbare Mengen zu charakterisieren. Wir betonen, dass wir für jede Teilmenge A des euklidischen Raumes und jede ganze Zahl k ≥ 2 ein approximatives Differenzial der Ordnung k einführen und beweisen, dass es sich dabei um eine Borelfunktion handelt deren Definitionsbereich eine (möglicherweise leere) Borelmenge ist. Unser Konzept könnte hilfreich für die Behandlung von höherer Ordnung rektifizierbarer Mengen in Anwendungen sein. Das andere Ziel ist die Verallgemeinerung auf beliebige abgeschlossene Mengen eines bekannten Satzes von Alberti über Rektifizierbarkeit zweiter Ordnung des Randes konvexer Körper. Für den Rand eines solchen konvexen Körper liefert Albertis Resultat eine Stratifikation durch von zweiter Ordnung rektifizierbare Teilmengen des Randes basierend auf der Dimension des (konvexen) Normalenkegels. Für eine geeignete Verallgemeinerung dieses Normalenkegels auf allgemeine abgeschlossene Teilmengen des euklidischen Raumes und unter Verwendung einiger Resultate aus dem ersten Teil können wir zeigen dass eine solche Stratifiaktion für alle abgeschlossenen Mengen existiert. KW - higher order rectifiability KW - approximate differentiability KW - Borel functions KW - normal bundle KW - coarea formula KW - Rektifizierbarkeit höherer Ordnung KW - approximative Differenzierbarkeit KW - Borel Funktionen KW - Coarea Formel KW - Normalenbündel Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403632 ER - TY - THES A1 - de Souza Silveira, Raul T1 - Human substrate metabolism at upper oxidative capacities T1 - Substrat-Metabolismus bei oberen oxidativen Kapazitäten BT - how intensity and pre-exercise nutrition affect the oxidative regulation of carbohydrate and fat during metabolic targeted running BT - wie Intensität und Ernährung vor dem Sport die oxidative Regulierung von Kohlenhydraten und Fett auf metabolisch gezielte Laufeinheiten wirken N2 - Introduction: Carbohydrate (CHO) and fat are the main substrates to fuel prolonged endurance exercise, each having its oxidation patterns regulated by several factors such as intensity, duration and mode of the activity, dietary intake pattern, muscle glycogen concentrations, gender and training status. Exercising at intensities where fat oxidation rates are high has been shown to induce metabolic benefits in recreational and health-oriented sportsmen. The exercise intensity (Fatpeak) eliciting peak fat oxidation rates is therefore of particular interest when aiming to prescribe exercise for the purpose of fat oxidation and related metabolic effects. Although running and walking are feasible and popular among the target population, no reliable protocols are available to assess Fatpeak as well as its actual velocity (VPFO) during treadmill ergometry. Moreover, to date, it remains unclear how pre-exercise CHO availability modulates the oxidative regulation of substrates when exercise is conducted at the intensity where the individual anaerobic threshold (IAT) is located (VIAT). That is, a metabolic marker representing the upper border where constant load endurance exercise can be sustained, being commonly used to guide athletic training or in performance diagnostics. The research objectives of the current thesis were therefore, 1) to assess the reliability and day-to-day variability of VPFO and Fatpeak during treadmill ergometry running; 2) to assess the impact of high CHO (HC) vs. low CHO (LC) diets (where on the LC day a combination of low CHO diet and a glycogen depleting exercise was implemented) on the oxidative regulation of CHOs and fat while exercise is conducted at VIAT. Methods: Research objective 1: Sixteen recreational athletes (f=7, m=9; 25 ± 3 y; 1.76 ± 0.09 m; 68.3 ± 13.7 kg; 23.1 ± 2.9 kg/m²) performed 2 different running protocols on 3 different days with standardized nutrition the day before testing. At day 1, peak oxygen uptake (VO2peak) and the velocities at the aerobic threshold (VLT) and respiratory exchange ratio (RER) of 1.00 (VRER) were assessed. At days 2 and 3, subjects ran an identical submaximal incremental test (Fat-peak test) composed of a 10 min warm-up (70% VLT) followed by 5 stages of 6 min with equal increments (stage 1 = VLT, stage 5 = VRER). Breath-by-breath gas exchange data was measured continuously and used to determine fat oxidation rates. A third order polynomial function was used to identify VPFO and subsequently Fatpeak. The reproducibility and variability of variables was verified with an intraclass correlation coefficient (ICC), Pearson’s correlation coefficient, coefficient of variation (CV) and the mean differences (bias) ± 95% limits of agreement (LoA). Research objective 2: Sixteen recreational runners (m=8, f=8; 28 ± 3 y; 1.76 ± 0.09 m; 72 ± 13 kg; 23 ± 2 kg/m²) performed 3 different running protocols, each allocated on a different day. At day 1, a maximal stepwise incremental test was implemented to assess the IAT and VIAT. During days 2 and 3, participants ran a constant-pace bout (30 min) at VIAT that was combined with randomly assigned HC (7g/kg/d) or LC (3g/kg/d) diets for the 24 h before testing. Breath-by-breath gas exchange data was measured continuously and used to determine substrate oxidation. Dietary data and differences in substrate oxidation were analyzed with a paired t-test. A two-way ANOVA tested the diet X gender interaction (α = 0.05). Results: Research objective 1: ICC, Pearson’s correlation and CV for VPFO and Fatpeak were 0.98, 0.97, 5.0%; and 0.90, 0.81, 7.0%, respectively. Bias ± 95% LoA was -0.3 ± 0.9 km/h for VPFO and -2 ± 8% of VO2peak for Fatpeak. Research objective 2: Overall, the IAT and VIAT were 2.74 ± 0.39 mmol/l and 11.1 ± 1.4 km/h, respectively. CHO oxidation was 3.45 ± 0.08 and 2.90 ± 0.07 g/min during HC and LC bouts respectively (P < 0.05). Likewise, fat oxidation was 0.13 ± 0.03 and 0.36 ± 0.03 g/min (P < 0.05). Females had 14% (P < 0.05) and 12% (P > 0.05) greater fat oxidation compared to males during HC and LC bouts, respectively. Conclusions: Research objective 1: In summary, relative and absolute reliability indicators for VPFO and Fatpeak were found to be excellent. The observed LoA may now serve as a basis for future training prescriptions, although fat oxidation rates at prolonged exercise bouts at this intensity still need to be investigated. Research objective 2: Twenty-four hours of high CHO consumption results in concurrent higher CHO oxidation rates and overall utilization, whereas maintaining a low systemic CHO availability significantly increases the contribution of fat to the overall energy metabolism. The observed gender differences underline the necessity of individualized dietary planning before exerting at intensities associated with performance exercise. Ultimately, future research should establish how these findings can be extrapolated to training and competitive situations and with that provide trainers and nutritionists with improved data to derive training prescriptions. N2 - Einleitung: Kohlenhydrate (CHO) und Fett sind die bedeutendsten Energieträger bei anhaltender Ausdauerbelastung. Diese Substrate haben individuelle Oxidationsmuster, die von Intensität, Dauer und Art der Aktivität, sowie Nahrungszufuhr, Muskelglykogen-konzentration, Geschlecht und Trainingsstatus abhängen. Es ist bekannt, dass körperliche Aktivität unter hohen Fettverbrennungsraten, vorteilhafte metabolische Effekte bei freizeitaktiven und gesundheitsorientierten Sportlern hervorrufen. Die durch Belastungsintensität (Fatpeak) hervorgerufene höchste Fettoxidationsrate ist daher von besonderer Bedeutung für Empfehlungen von Fettverbrennungsaktivitäten und hierzu gehörigen metabolischen Effekten. Obgleich Joggen und Laufen als praktikabel und verbreitet in entsprechenden Zielgruppen angesehen wird, existieren keine reliablen Protokolle um Fatpeak und die hierzu spezifische Geschwindigkeit (VPFO) bei einer Laufbandergometrie zu bestimmen. Darüberhinaus, ist bis heute ungeklärt, inwiefern die Verfügbarkeit von CHO vor körperlicher Belastung, die oxidative Regulation von Substraten beeinflusst, wenn die Belastungsintensität bei der individuelle anaeroben Schwelle (IAT) durchgeführt wird (VIAT). Die IAT beschreibt hierbei einen metabolischen Schwellenwert, bis zu welchem eine konstante Ausdauerleistung aufrecht erhalten werden kann. Dieser Schwellenwert wird üblicherweise zur Trainingssteuerung oder Leistungsdiagnostik herangezogen. Die Forschungsziele der hier vorgelegten Thesis sind daher: 1) Die Überprüfung der Reliabilität und Variabilität von VPFO und Fatpeak während einer Laufbandergometrie; 2) Die Überprüfung des Einflusses von kohlenhydratreicher (HC) im Vergleich zu kohlenhydratarmer (LC) Nahrungszufuhr auf die Regulierung der Oxidation von Kohlenhydraten und Fetten während körperlicher Aktivität bei VIAT. Hierbei wurde am LC Tag eine Kombination von geringer CHO Zufuhr und einer Glykogen verarmenden Belastung implementiert. Methoden: Forschungsziel 1: Sechszehn Freizeitsportler (f=7, m=9; 25 ± 3 y; 1.76 ± 0.09 m; 68.3 ± 13.7 kg; 23.1 ± 2.9 kg/m²) durchliefen 2 verschiedene Laufprotokolle an drei verschiedenen Tagen unter standardisierter Nahrungszufuhr vor den Untersuchungen. Am Tag 1 wurden die höchste Sauerstoffaufnahme (VO2peak) und die Geschwindigkeiten bei der aeroben Schwelle (VLT), sowie beim respiratorische Quotient (RER) von 1.00 (VRER) erfasst. Am Tag 2 und 3 absolvierten die Probanden einen identischen submaximalen Stufentest (Fat-peak test), welcher aus einer 10 min Erwärmungsphase (70% VLT) gefolgt von 5 gleichmäßig ansteigenden Stufen à 6 min (Stufe 1 = VLT, Stufe 5 = VRER) bestand. Atemgasdaten wurden durch „Breath-by-breath“-Analyse kontinuierlich gemessen und herangezogen um Fettoxidationsraten zu bestimmen. Aus diesen Daten wurde über eine Polynomfunktion dritter Ordnung VPFO und folglich Fatpeak identifiziert. Die Reproduzierbarkeit und Variabilität dieser Parameter wurde mittels des Intraklassen-Korrelationskoeffizient (ICC), des Pearson’s Korrelationskoeffizient, des Variabilitätskoeffizient (CV) und der mittleren Differenz (bias) ± 95% „limits of agreement“ (LoA) überprüft. Forschungsziel 2: Sechzehn Freizeitläufer (m=8, f=8; 28 ± 3 y; 1.76 ± 0.09 m; 72 ± 13 kg; 23 ± 2 kg/m²) durchliefen 3 verschiedene Laufprotokolle an jeweils unterschiedlichen Tagen. Am Tag 1 wurde ein maximaler Stufentest durchgeführt, um die IAT und VIAT zu erfassen. Am zweiten und dritten Tag absolvierten die Probanden eine Laufeinheit (30 min) in konstanter Geschwindigkeit bei VIAT, unter Berücksichtigung einer 24 h zuvor durchgeführten und zufällig zugewiesenen Diät mit entweder HC (7g/kg/d) oder LC (3g/kg/d). „Breath-by-breath“-Atemgasdaten wurden kontinuierlich erfasst und für die Bestimmung der Substratoxidation herangezogen. Ernährungsdaten und Unterschiede in Substratoxidation wurden mittels t-test für abhängige Probanden analysiert. Interaktionseffekte zwischen Diät und Geschlecht wurden mittels einer Zwei-Wege ANOVA getestet (α = 0.05). Ergebnisse: Forschungsziel 1: ICC, Pearson’s Korrelationskoeffizient und CV von VPFO und Fatpeak waren 0.98, 0.97, 5.0%; und respektive 0.90, 0.81, 7.0%. Bias ± 95% LoA betrug -0.3 ± 0.9 km/h für VPFO und -2 ± 8% von VO2peak für Fatpeak. Forschungsziel 2: Insgesamt waren IAT 2.74 ± 0.39 mmol/l und VIAT 11.1 ± 1.4 km/h. CHO Oxidation war 3.45 ± 0.08 g/min während HC und respektive 2.90 ± 0.07 g/min während LC Laufeinheiten (P < 0.05). Gleichermaßen war Fettoxidation 0.13 ± 0.03 und 0.36 ± 0.03 g/min (P < 0.05). Frauen hatten im Vergleich zu Männern 14% (P < 0.05) und 12% (P > 0.05) größere Fettoxidation in HC und respektive LC Laufeinheiten. Schlussfolgerungen: Forschungsziel 1: Zusammenfassend wurde eine exzellente relative und absolute Reliabilität für VPFO und Fatpeak gezeigt. Die gefundenen LoA könnten als Basis für zukünftige Trainingssteuerungsempfehlungen genutzt werden, obwohl Fettoxidationsraten bei anhaltenden Ausdauertrainingseinheiten bei dieser Intensität noch untersucht werden müssen. Forschungsziel 2: Hohe CHO-Zufuhr 24 h vor Belastung führt zu einhergehenden höheren CHO-Oxidationsraten und -verwertung, wobei eine niedrige systemische CHO-Verfügbarkeit den Anteil an Fettoxidation im gesamten Energiemetabolismus signifikant erhöht. Die beobachteten Geschlechtsunterschiede unterstreichen die Notwendigkeit einer individualisierten Ernährungsplanung im Vorfeld einer Belastung unter leistungsorientierten Intensitäten. Schlussendlich sollte zukünftige Forschung feststellen, wie hiesige Ergebnisse in Training und Wettkampfsituationen umgesetzt werden können, um somit Trainern und Ernährungswissenschaftlern verbesserte Daten für Trainingsempfehlungen bereitzustellen. KW - fat oxidation KW - carbohydrate oxidation KW - individual anaerobic threshold KW - Fettoxidation KW - Kohlenhydratoxidation KW - individuelle anaerobe Schwelle Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423338 ER - TY - THES A1 - Kasch, Juliane T1 - Impact of maternal high-fat consumption on offspring exercise performance, skeletal muscle energy metabolism, and obesity susceptibility T1 - Einfluss der maternalen Ernährung auf den Energiestoffwechsel des Skelettmuskels, die Ausdauerleistung und die Adipositasentwicklung der Nachkommen N2 - Background: Obesity is thought to be the consequence of an unhealthy nutrition and a lack of physical activity. Although the resulting metabolic alterations such as impaired glucose homeostasis and insulin sensitivity can usually be improved by physical activity, some obese patients fail to enhance skeletal muscle metabolic health with exercise training. Since this might be largely heritable, maternal nutrition during pregnancy and lactation is hypothesized to impair offspring skeletal muscle physiology. Objectives: This PhD thesis aims to investigate the consequences of maternal high-fat diet (mHFD) consumption on offspring skeletal muscle physiology and exercise performance. We could show that maternal high-fat diet during gestation and lactation decreases the offspring’s training efficiency and endurance performance by influencing the epigenetic profile of their skeletal muscle and altering the adaptation to an acute exercise bout, which in long-term, increases offspring obesity susceptibility. Experimental setup: To investigate this issue in detail, we conducted several studies with a similar maternal feeding regime. Dams (C57BL/6J) were either fed a low-fat diet (LFD; 10 energy% from fat) or high-fat diet (HFD; 40 energy% from fat) during pregnancy and lactation. After weaning, male offspring of both maternal groups were switched to a LFD, on which they remained until sacrifice in week 6, 15 or 25. In one study, LFD feeding was followed by HFD provision from week 15 until week 25 to elucidate the effects on offspring obesity susceptibility. In week 7, all mice were randomly allocated to a sedentary group (without running wheel) or an exercised group (with running wheel for voluntary exercise training). Additionally, treadmill endurance tests were conducted to investigate training performance and efficiency. In order to uncover regulatory mechanisms, each study was combined with a specific analytical setup, such as whole genome microarray analysis, gene and protein expression analysis, DNA methylation analyses, and enzyme activity assays. Results: mHFD offspring displayed a reduced training efficiency and endurance capacity. This was not due to an altered skeletal muscle phenotype with changes in fiber size, number, and type. DNA methylation measurements in 6 week old offspring showed a hypomethylation of the Nr4a1 gene in mHFD offspring leading to an increased gene expression. Since Nr4a1 plays an important role in the regulation of skeletal muscle energy metabolism and early exercise adaptation, this could affect offspring training efficiency and exercise performance in later life. Investigation of the acute response to exercise showed that mHFD offspring displayed a reduced gene expression of vascularization markers (Hif1a, Vegfb, etc) pointing towards a reduced angiogenesis which could possibly contribute to their reduced endurance capacity. Furthermore, an impaired glucose utilization of skeletal muscle during the acute exercise bout by an impaired skeletal muscle glucose handling was evidenced by higher blood glucose levels, lower GLUT4 translocation and diminished Lactate dehydrogenase activity in mHFD offspring immediately after the endurance test. These points towards a disturbed use of glucose as a substrate during endurance exercise. Prolonged HFD feeding during adulthood increases offspring fat mass gain in mHFD offspring compared to offspring from low-fat fed mothers and also reduces their insulin sensitivity pointing towards a higher obesity and diabetes susceptibility despite exercise training. Consequently, mHFD reduces offspring responsiveness to the beneficial effects of voluntary exercise training. Conclusion: The results of this PhD thesis demonstrate that mHFD consumption impairs the offspring’s training efficiency and endurance capacity, and reduced the beneficial effects of exercise on the development of diet-induced obesity and insulin resistance in the offspring. This might be due to changes in skeletal muscle epigenetic profile and/or an impaired skeletal muscle angiogenesis and glucose utilization during an acute exercise bout, which could contribute to a disturbed adaptive response to exercise training. N2 - Hintergrund: Übergewicht ist die Folge einer ungesunden Ernährung und einem Mangel an körperlicher Aktivität. Obwohl die daraus resultierenden metabolischen Veränderungen wie die beeinträchtigte Glukose-Homöostase und die Insulinsensitivität in der Regel durch körperliche Aktivität verbessert werden können, sind einige adipöse Patienten nicht in der Lage ihren Skelettmuskel-Metabolismus durch regelmäßiges Training zu verbessern. Da dies weitgehend vererbbar sein könnte, wird vermutet, dass die maternale Ernährung während der Gestation und Laktation einen beeinträchtigten Energiestoffwechsel des Skelettmuskels der Nachkommen begünstigt. Ziel: Ziel dieser Dissertation war es, den Einfluss der maternalen Hochfett-Diät (mHFD) auf den Skelettmuskel des Nachkommens zu untersuchen. Wir konnten zeigen, dass eine mHFD während der Gestation und Laktation die Trainingseffizienz und die Ausdauerleistung der Nachkommen verringert, verursacht durch die Veränderung des epigenetischen Profils des Skelettmuskels der Nachkommen und der verminderten Anpassung an eine akute Trainingsleistung, was langfristig die Anfälligkeit für die Entwicklung einer Adipositas im Nachkommen erhöht. Experimentelles Setup: Um dieses Thema ausführlich zu erforschen, hatten wir ein komplexes Studiendesign. Allen vier Studien ging dasselbe maternale Fütterungsregime voraus. Weibliche C57BL/6J Mäuse wurden entweder mit einer Niedrigfett-Diät (LFD; 10 Energie% aus Fett) oder Hochfett-Diät (HFD; 40 Energie% aus Fett) während der Gestation und Laktation gefüttert. Nach Absatz wurden die männlichen Nachkommen beider Gruppen auf eine LFD umgestellt, auf der sie bis zum Ende der jeweiligen Studie in der Woche 6, 15 oder 25 blieben. In einer Studie folgte auf die LFD-Fütterung eine HFD-Versorgung von Woche 15 bis Woche 25, um den Einfluss der maternalen Diät auf die Entwicklung einer Adipositas der Nachkommen aufzuklären. In der 7. Woche wurden alle Mäuse zufällig einer sesshaften Gruppe (ohne Laufrad) oder einer Trainingsgruppe (mit Laufrad für freiwilliges Trainingstraining) zugewiesen. Darüber hinaus wurden Laufband-Ausdauertests durchgeführt, um die Trainingsleistung und -effizienz zu untersuchen. Um die regulatorischen Mechanismen aufzudecken, wurde jede Studie mit einem spezifischen analytischen Aufbau kombiniert, wie z. B. einer Mikroarray-Analyse, Gen- und Protein-Expressionsanalysen, DNA-Methylierungsanalysen und Enzymaktivitäts-Assays. Ergebnisse: mHFD Nachkommen zeigten eine reduzierte Trainingseffizienz und Ausdauerkapazität. Dies ist nicht auf einen veränderten Skelettmuskel-Phänotyp mit Veränderungen der Muskelfasergröße, der Anzahl und der Muskelfasertypen zurückzuführen. DNA-Methylierungsmessungen bei 6 Wochen alten Nachkommen zeigten eine Hypomethylierung des Nr4a1-Gens in mHFD-Nachkommen, was wiederum in einer erhöhten Genexpression resultierte. Da Nr4a1 eine wichtige Rolle bei der Regulierung des Skelettmuskel-Energiestoffwechsels und der frühen Trainingsanpassung spielt, könnte dies die Trainingseffizienz und -leistung der Nachkommen im späteren Leben beeinflussen. Bei der Untersuchung der Reaktion auf eine akute Ausdauerleistung zeigten die mHFD-Nachkommen eine reduzierte Genexpression von Vaskularisierungsmarkern (Hif1a, Vegfb usw.), die auf eine reduzierte Angiogenese hindeuteten, welche eine Ursache für ihre verminderte Ausdauerkapazität darstellen könnte. Darüber hinaus wurde eine beeinträchtigte Glucoseverwertung des Skelettmuskels während des akuten Ausdauertrainings durch eine beeinträchtigte Glucose-Nutzung des Skelettmuskels mit erhöhten Blutzuckerwerten, einer verminderten GLUT4-Translokation und Laktatdehydrogenase-Aktivität in mHFD-Nachkommen unmittelbar nach dem Ausdauertest gezeigt. Dies weist auf eine gestörte Verwertung der Glucose als Substrat während des Ausdauertrainings hin. Länger andauernde HFD-Fütterung während des Erwachsenenalters erhöht die Fettmasse in mHFD-Nachkommen im Vergleich zu mLFD-Nachkommen und verringert zudem ihre Insulinsensitivität, was Hinweise auf eine erhöhte Adipositas- und Diabetes-Anfälligkeit gibt. Folglich führt die mHFD zu einer verminderten Anpassung der Nachkommen an die positiven Effekte des freiwilligen Laufrad-Trainings. Schlussfolgerung: Die Ergebnisse dieser Dissertation zeigen, dass der mHFD-Konsum die Trainingseffizienz und Ausdauerkapazität der Nachkommen beeinträchtigt, was die Adipositas- und Diabetes-Anfälligkeit im Erwachsenenalter erhöhen kann. Dies könnte auf Veränderungen im epigenetischen Profil des Skelettmuskels und/oder Beeinträchtigungen der Angiogenese und Glukoseverwertung im Skelettmuskel während eines akuten Ausdauertrainings zurückzuführen sein, was zu einer gestörten Anpassung der Nachkommen an das Training beitragen könnte. KW - maternal diet KW - offspring KW - exercise performance KW - skeletal muscle KW - obesity KW - maternale Ernährung KW - Nachkommen KW - Ausdauerleistung KW - Skelettmuskel KW - Adipositas Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-409703 ER - TY - THES A1 - Morling, Karoline T1 - Import and decomposition of dissolved organic carbon in pre-dams of drinking water reservoirs T1 - Eintrag und Abbau von gelösten Kohlenstoffen in Vorsperren von Trinkwassertalsperren N2 - Dissolved organic carbon (DOC) depicts a key component in the aquatic carbon cycle as well as for drinking water production from surface waters. DOC concentrations increased in water bodies of the northern hemisphere in the last decades, posing ecological consequences and water quality problems. Within the pelagic zone of lakes and reservoirs, the DOC pool is greatly affected by biological activity as DOC is simultaneously produced and decomposed. This thesis aimed for a conceptual understanding of organic carbon cycling and DOC quality changes under differing hydrological and trophic conditions. Further, the occurrence of aquatic priming was investigated, which has been proposed as a potential process facilitating the microbial decomposition of stable allochthonous DOC within the pelagic zone. To study organic carbon cycling under different hydrological conditions, quantitative and qualitative investigations were carried out in three pre-dams of drinking water reservoirs exhibiting a gradient in DOC concentrations and trophic states. All pre-dams were mainly autotrophic in their epilimnia. Discharge and temperature were identified as the key factors regulating net production and respiration in the upper water layers of the pre-dams. Considerable high autochthonous production was observed during the summer season under higher trophic status and base flow conditions. Up to 30% of the total gained organic carbon was produced within the epilimnia. Consequently, this affected the DOC quality within the pre-dams over the year and enhanced characteristics of algae-derived DOC were observed during base flow in summer. Allochthonous derived DOC dominated at high discharges and oligotrophic conditions when production and respiration were low. These results underline that also small impoundments with typically low water residence times are hotspots of carbon cycling, significantly altering water quality in dependence of discharge conditions, temperature and trophic status. Further, it highlights that these factors need to be considered in future water management as increasing temperatures and altered precipitation patterns are predicted in the context of climate change. Under base flow conditions, heterotrophic bacteria preferentially utilized older DOC components with a conventional radiocarbon age of 195-395 years before present (i.e. before 1950). In contrast, younger carbon components (modern, i.e. produced after 1950) were mineralized following a storm flow event. This highlights that age and recalcitrance of DOC are independent from each other. To assess the ages of the microbially consumed DOC, a simplified method was developed to recover the respired CO2 from heterotrophic bacterioplankton for carbon isotope analyses (13C, 14C). The advantages of the method comprise the operation of replicate incubations at in-situ temperatures using standard laboratory equipment and thus enabling an application in a broad range of conditions. Aquatic priming was investigated in laboratory experiments during the microbial decomposition of two terrestrial DOC substrates (peat water and soil leachate). Thereby, natural phytoplankton served as a source of labile organic matter and the total DOC pool increased throughout the experiments due to exudation and cell lysis of the growing phytoplankton. A priming effect for both terrestrial DOC substrates was revealed via carbon isotope analysis and mixing models. Thereby, priming was more pronounced for the peat water than for the soil leachate. This indicates that the DOC source and the amount of the added labile organic matter might influence the magnitude of a priming effect. Additional analysis via high-resolution mass spectrometry revealed that oxidized, unsaturated compounds were more strongly decomposed under priming (i.e. in phytoplankton presence). Given the observed increase in DOC concentrations during the experiments, it can be concluded that aquatic priming is not easily detectable via net concentration changes alone and could be considered as a qualitative effect. The knowledge gained from this thesis contributes to the understanding of aquatic carbon cycling and demonstrated how DOC dynamics in freshwaters vary with hydrological, seasonal and trophic conditions. It further demonstrated that aquatic priming contributes to the microbial transformation of organic carbon and the observed decay of allochthonous DOC during transport in inland waters. N2 - Gelöster organischer Kohlenstoff (dissolved organic carbon, DOC) bildet nicht nur eine zentrale Komponente des aquatischen Kohlenstoffkreislaufs, sondern auch für die Gewinnung von Trinkwasser aus Oberflächengewässern. In den letzten Jahrzehnten stiegen die DOC-Konzentrationen in Gewässern der nördlichen Hemisphäre an und führen sowohl zu ökologischen Konsequenzen als auch zu Wasserqualitätsproblemen. Die Zusammensetzung des DOC im Pelagial von Seen und Talsperren wird erheblich durch biologische Aktivität beeinflusst, da DOC-Verbindungen gleichzeitig produziert und abgebaut werden. Im Fokus meiner Dissertation standen ein konzeptionelles Verständnis des organischen Kohlenstoffkreislaufs und die damit verbundenen Änderungen in der DOC-Qualität unter verschiedenen hydrologischen und trophischen Bedingungen. Weiterhin wurde das Auftreten eines aquatischen Priming-Effektes untersucht, welcher den mikrobiellen Abbau von stabilem allochthonem DOC im Pelagial fördern könnte. Quantitative und qualitative Untersuchungen wurden unter verschiedenen hydrologischen Bedingungen in drei Vorsperren von Trinkwassertalsperren durchgeführt, die einen Gradienten an DOC-Konzentrationen und Trophie aufwiesen. Alle Vorsperren waren im Epilimnion überwiegend autotroph. Abfluss und Temperatur wurden als Schlüsselfaktoren identifiziert, die Produktion und Respiration in den oberen Wasserschichten der Vorsperren regulieren. Eine vergleichsweise hohe autotrophe Produktion wurde während der Sommer-monate bei hoher Trophie und Basisabfluss beobachtet. Bis zu 30% des gesamten eingetragenen organischen Kohlenstoffes wurde im Epilimnion produziert. Dies beeinflusste die DOC-Qualität in den Vorsperren erheblich und es traten vermehrt Charakteristiken von algenbürtigem DOC unter Basisabfluss in den Sommermonaten auf. Allochthoner DOC dominierte bei hohen Abflüssen und unter oligotrophen Bedingungen, wenn Produktion und Respiration gering waren. Diese Ergebnisse unterstreichen, dass auch kleine Speicherbecken mit typischerweise kurzen Wasser-aufenthaltszeiten „Hotspots“ für Kohlenstoffumsetzung sind und die Wasserqualität signifikant in Abhängigkeit von Abflussbedingungen, Temperatur und Trophie verändern. Diese Faktoren sind auch für zukünftiges Wassermanagement bedeutsam, da steigende Temperaturen und veränderte Niederschläge im Zuge des Klimawandels prognostiziert werden. Unter Basisabfluss verwerteten heterotrophe Bakterien vorrangig ältere DOC-Komponenten mit einem konventionellen Radiokarbonalter von 195-395 Jahren B.P. („before present“, d. h. vor 1950). Im Gegensatz dazu wurden jüngere DOC-Komponenten (modern, d. h. nach 1950 produziert) nach einem Regenwetterzufluss abgebaut. Daraus lässt sich schließen, dass Alter und mikrobielle Verwertbarkeit des DOC voneinander unabhängig sind. Um das Alter des genutzten DOC zu bestimmen, wurde eine vereinfachte Methode entwickelt, die das Auffangen des bakteriell respirierten CO2 und eine anschließende Analyse der Kohlenstoffisotope (13C, 14C) ermöglicht. Die Vorteile der Methode liegen vor allem in der Verwendung von Replikaten, die bei in-situ Temperaturen inkubiert werden können und in der Nutzung von gängiger Laborausstattung. Dies ermöglicht eine Anwendung der Methode unter einer weiten Bandbreite von Bedingungen. Der aquatische Priming-Effekt wurde in Laborexperimenten während des mikrobiellen Abbaus von zwei terrestrischen DOC-Substraten (Moorwasser und Bodeneluat) untersucht. Phytoplankton diente als Quelle für labile organische Substanz und die DOC-Konzentrationen nahmen durch Exudation und Zelllysis des wachsenden Phytoplanktons während des Experimentes zu. Ein Priming-Effekt wurde für beide terrestrischen DOC-Substrate mittels Analyse von Kohlenstoffisotopen und Mischungsmodellen nachgewiesen, wobei der Priming-Effekt für das Moorwasser stärker ausgeprägt war als für das Bodeneluat. Analysen mittels hochauflösender Massenspektrometrie zeigten, dass verstärkt oxidierte und ungesättigte Verbindungen während des Primings (d. h. in Anwesenheit von Phytoplankton) abgebaut wurden. Aus den angestiegenen DOC-Konzentrationen während des Experimentes kann geschlussfolgert werden, dass ein aquatischer Priming-Effekt nicht allein über Konzentrationsänderungen nachweisbar ist und vielmehr als ein qualitativer Effekt betrachtet werden kann. Diese Arbeit trägt zum Verständnis des aquatischen Kohlenstoffkreislaufs bei und zeigt wie DOC-Dynamiken in Süßgewässern mit hydrologischen, saisonalen und trophischen Bedingungen variieren. Weiterhin wurde gezeigt, dass der aquatische Priming-Effekt zu dem mikrobiellen Umsatz von organischem Kohlenstoff und dem beobachteten Abbau von terrestrischen DOC während des Transportes in Binnengewässern beiträgt. KW - organic carbon KW - water reservoir KW - freshwater ecosystems KW - carbon isotopes KW - degradation KW - radiocarbon KW - autotrophy KW - net production KW - organic matter quality KW - high resolution mass spectrometry KW - microbial decomposition KW - organischer Kohlenstoff KW - Talsperre KW - Kohlenstoffisotope KW - Radiokarbon KW - Autotrophie KW - Nettoproduktion KW - organisches Material KW - hochauflösende Massenspektrometrie KW - mikrobieller Abbau KW - gelöster organischer Kohlenstoff Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-399110 ER - TY - THES A1 - Backmann, Pia T1 - Individual- and trait-based modelling of plant communities and their herbivores Y1 - 2017 ER - TY - THES A1 - Solms, Alexander Maximilian T1 - Integrating nonlinear mixed effects and physiologically–based modeling approaches for the analysis of repeated measurement studies T1 - Integration nicht-linearer gemischter Modelle und physiologie-basierte Modellierung Ansätze in die Auswertung longitudinaler Studien BT - with applications in quantitative pharmacology and quantitative psycholinguistics N2 - During the drug discovery & development process, several phases encompassing a number of preclinical and clinical studies have to be successfully passed to demonstrate safety and efficacy of a new drug candidate. As part of these studies, the characterization of the drug's pharmacokinetics (PK) is an important aspect, since the PK is assumed to strongly impact safety and efficacy. To this end, drug concentrations are measured repeatedly over time in a study population. The objectives of such studies are to describe the typical PK time-course and the associated variability between subjects. Furthermore, underlying sources significantly contributing to this variability, e.g. the use of comedication, should be identified. The most commonly used statistical framework to analyse repeated measurement data is the nonlinear mixed effect (NLME) approach. At the same time, ample knowledge about the drug's properties already exists and has been accumulating during the discovery & development process: Before any drug is tested in humans, detailed knowledge about the PK in different animal species has to be collected. This drug-specific knowledge and general knowledge about the species' physiology is exploited in mechanistic physiological based PK (PBPK) modeling approaches -it is, however, ignored in the classical NLME modeling approach. Mechanistic physiological based models aim to incorporate relevant and known physiological processes which contribute to the overlying process of interest. In comparison to data--driven models they are usually more complex from a mathematical perspective. For example, in many situations, the number of model parameters outrange the number of measurements and thus reliable parameter estimation becomes more complex and partly impossible. As a consequence, the integration of powerful mathematical estimation approaches like the NLME modeling approach -which is widely used in data-driven modeling -and the mechanistic modeling approach is not well established; the observed data is rather used as a confirming instead of a model informing and building input. Another aggravating circumstance of an integrated approach is the inaccessibility to the details of the NLME methodology so that these approaches can be adapted to the specifics and needs of mechanistic modeling. Despite the fact that the NLME modeling approach exists for several decades, details of the mathematical methodology is scattered around a wide range of literature and a comprehensive, rigorous derivation is lacking. Available literature usually only covers selected parts of the mathematical methodology. Sometimes, important steps are not described or are only heuristically motivated, e.g. the iterative algorithm to finally determine the parameter estimates. Thus, in the present thesis the mathematical methodology of NLME modeling is systemically described and complemented to a comprehensive description, comprising the common theme from ideas and motivation to the final parameter estimation. Therein, new insights for the interpretation of different approximation methods used in the context of the NLME modeling approach are given and illustrated; furthermore, similarities and differences between them are outlined. Based on these findings, an expectation-maximization (EM) algorithm to determine estimates of a NLME model is described. Using the EM algorithm and the lumping methodology by Pilari2010, a new approach on how PBPK and NLME modeling can be combined is presented and exemplified for the antibiotic levofloxacin. Therein, the lumping identifies which processes are informed by the available data and the respective model reduction improves the robustness in parameter estimation. Furthermore, it is shown how apriori known factors influencing the variability and apriori known unexplained variability is incorporated to further mechanistically drive the model development. Concludingly, correlation between parameters and between covariates is automatically accounted for due to the mechanistic derivation of the lumping and the covariate relationships. A useful feature of PBPK models compared to classical data-driven PK models is in the possibility to predict drug concentration within all organs and tissue in the body. Thus, the resulting PBPK model for levofloxacin is used to predict drug concentrations and their variability within soft tissues which are the site of action for levofloxacin. These predictions are compared with data of muscle and adipose tissue obtained by microdialysis, which is an invasive technique to measure a proportion of drug in the tissue, allowing to approximate the concentrations in the interstitial fluid of tissues. Because, so far, comparing human in vivo tissue PK and PBPK predictions are not established, a new conceptual framework is derived. The comparison of PBPK model predictions and microdialysis measurements shows an adequate agreement and reveals further strengths of the presented new approach. We demonstrated how mechanistic PBPK models, which are usually developed in the early stage of drug development, can be used as basis for model building in the analysis of later stages, i.e. in clinical studies. As a consequence, the extensively collected and accumulated knowledge about species and drug are utilized and updated with specific volunteer or patient data. The NLME approach combined with mechanistic modeling reveals new insights for the mechanistic model, for example identification and quantification of variability in mechanistic processes. This represents a further contribution to the learn & confirm paradigm across different stages of drug development. Finally, the applicability of mechanism--driven model development is demonstrated on an example from the field of Quantitative Psycholinguistics to analyse repeated eye movement data. Our approach gives new insight into the interpretation of these experiments and the processes behind. N2 - Für die Erforschung und Entwicklung eines neuen Arzneistoffes wird die sichere und wirksame Anwendung in präklinischen und klinischen Studien systematisch untersucht. Ein wichtiger Bestandteil dieser Studien ist die Bestimmung der Pharmakokinetik (PK), da über diese das Wirkungs- und Nebenwirkungsprofil maßgeblich mitbestimmt wird. Um die PK zu bestimmen wird in der Studienpopulation die Wirkstoffkonzentration im Blut wiederholt über die Zeit gemessen. Damit kann sowohl der Konzentrations-Zeit-Verlauf als auch die dazugehörige Variabilität in der Studienpopulation bestimmt werden. Darüber hinaus ist ein weiteres Ziel, die Ursachen dieser Variabilität zu identifizieren. Fär die Auswertung der Daten werden nichtlineare, gemischte Effektmodelle (NLME) eingesetzt. Im Vorfeld der klinischen Studien sind bereits viele Eigenschaften des Wirkstoffes bekannt, da der Wirkstoff-Testung am Menschen die Bestimmung der PK an verschiedenen Tierspezies voraus geht. Auf Basis dieser wirkstoffspezifischen Daten und des Wissens um die spezifische humane Physiologie können mittels mechanistisch physiologiebasierter Modelle Vorhersagen für die humane PK getroffen werden. Bei der Analyse von PK Daten mittels NLME Modellen wird dieses vorhandene Wissen jedoch nicht verwertet. In physiologiebasierten Modellen werden physiologische Prozesse, die die PK bestimmen und beeinflussen können, ber+cksichtigt. Aus mathematischer Sicht sind solche mechanistischen Modelle im Allgemeinen deutlich komplexer als empirisch motivierte Modelle. In der Anwendung kommt es deswegen häufig zu Situationen, in denen die Anzahl der Modellparameter die Anzahl der zugrunde liegenden Beobachtungen übertrifft. Daraus folgt unter anderem, dass die Parameterschätzung, wie sie in empirisch motivierten Modellen genutzt wird, in der Regel unzuverlässig bzw. nicht möglich ist. In Folge dessen werden klinische Daten in der mechanistischen Modellierung meist nur zur Modellqualifizierung genutzt und nicht in die Modell(weiter)entwicklung integriert. Ein weiterer erschwerender Umstand, NLME und PBPK Modelle in der Anwendung zu kombinieren, beruht auch auf der Komplexität des NLME Ansatzes. Obwohl diese Methode seit Jahrzehnten existiert, sind in der Literatur nur ausgewählte Teilstücke der zugrunde liegenden Mathematik beschrieben und hergeleitet; eine lückenlose Beschreibung fehlt. Aus diesem Grund werden in der vorliegenden Arbeit systematisch die Methodik und mathematischen Zusammenhänge des NLME Ansatzes, von der ursprüngliche Idee und Motivation bis zur Parameterschätzung beschrieben. In diesem Kontext werden neue Interpretationen der unterschiedlichen Methoden, die im Rahmen der NLME Modellierung verwendet werden, vorgestellt; zudem werden Gemeinsamkeiten und Unterschiede zwischen diesen herausgearbeitet. Mittels dieser Erkenntnisse wird ein Expectation-Maximization (EM) Algorithmus zur Parameterschätzung in einer NLME Analyse beschrieben. Mittels des neuen EM Algorithmus, kombiniert mit dem Lumping-Ansatz von Pilari und Huisinga (S. Pilari, W. Huisinga, JPKPD Vol. 37(4), 2010.) wird anhand des Antibiotikums Levofloxacin ein neuer konzeptioneller Ansatz entwickelt, der PBPK- und NLME-Modellierung zur Datenanalyse integriert. Die Lumping-Methode definiert hierbei, welche Prozesse von den verfügbaren Daten informiert werden, sie verbessert somit die Robustheit der Parameterschätzung. Weiterhin wird gezeigt, wie a-priori Wissen über Variabilität und Faktoren, die diese beeinflussen, sowie unerklärte Variabilität in das Modell integriert werden können. Ein elementarer Vorteil von PBPK Modellen gegenüber empirisch motivieren PK Modellen besteht in der Möglichkeit, Wirkstoffkonzentrationen innerhalb von Organen und Gewebe im Körper vorherzusagen. So kann das PBPK-Modell für Levofloxacin genutzt werden, um Wirkstoffkonzentrationen innerhalb der Gewebe vorherzusagen, in denen typischerweise Infektionen auftreten. Für Muskel- und Fettgewebe werden die PBPK-Vorhersagen mit Mikrodialyse Gewebemessungen verglichen. Die gute übereinstimmung von PBPK-Modell und Mikrodialyse stellt eine noch nicht vorhanden Validierung des PBPK-Gewebemodells im Menschen dar. In dieser Dissertation wird gezeigt, wie mechanistische PBPK Modelle, die in der Regel in der frühen Phase der Arzneimittelentwicklung entwickelt werden, erfolgreich zur Analyse von klinischen Studien eingesetzt werden können. Das bestehende Wissen über den neuen Wirkstoff wird somit gezielt genutzt und mit klinischen Daten von Probanden oder Patienten aktualisiert. Im Fall von Levofloxacin konnte Variabilität in mechanistischen Prozessen identifiziert und quantifiziert werden. Dieses Vorgehen liefert einen weiteren Beitrag zum learn & confirm Paradigma im Forschungs- und Entwicklungsprozess eines neuen Wirkstoffes. Abschließend wird anhand eines weiteren real world-Beispieles aus dem Bereich der quantitativen Psycholinguistik die Anwendbarkeit und der Nutzen des vorgestellten integrierten Ansatz aus mechanistischer und NLME Modellierung in der Analyse von Blickbewegungsdaten gezeigt. Mittels eines mechanistisch motivierten Modells wird die Komplexität des Experimentes und der Daten abgebildet, wodurch sich neue Interpretationsmöglichkeiten ergeben. KW - NLME KW - PBPK KW - EM KW - lumping KW - popPBPK KW - mechanistic modeling KW - population analysis KW - popPK KW - microdialysis KW - nicht-lineare gemischte Modelle (NLME) KW - physiologie-basierte Pharmacokinetic (PBPK) KW - EM KW - Lumping KW - popPBPK KW - popPK KW - mechanistische Modellierung KW - Populations Analyse KW - Microdialyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397070 ER - TY - THES A1 - Lysyakova, Liudmila T1 - Interaction of azobenzene containing surfactants with plasmonic nanoparticles T1 - Wechselwirkung zwischen Azobenzol-haltigen Tensiden und plasmonischen Nanoteilchen N2 - The goal of this thesis is related to the question how to introduce and combine simultaneously plasmonic and photoswitching properties to different nano-objects. In this thesis I investigate the complexes between noble metal nanoparticles and cationic surfactants containing azobenzene units in their hydrophobic tail, employing absorption spectroscopy, surface zeta-potential, and electron microscopy. In the first part of the thesis, the formation of complexes between negatively charged laser ablated spherical gold nanoparticles and cationic azobenzene surfactants in trans- conformation is explored. It is shown that the constitution of the complexes strongly depends on a surfactant-to-gold molar ratio. At certain molar ratios, particle self-assembly into nanochains and their aggregation have been registered. At higher surfactant concentrations, the surface charge of nanoparticles turned positive, attributed to the formation of the stabilizing double layer of azobenzene surfactants on gold nanoparticle surfaces. These gold-surfactant complexes remained colloidally stable. UV light induced trans-cis isomerization of azobenzene surfactant molecules and thus perturbed the stabilizing surfactant shell, causing nanoparticle aggregation. The results obtained with silver and silicon nanoparticles mimick those for the comprehensively studied gold nanoparticles, corroborating the proposed model of complex formation. In the second part, the interaction between plasmonic metal nanoparticles (Au, Ag, Pd, alloy Au-Ag, Au-Pd), as well as silicon nanoparticles, and cis-isomers of azobenzene containing compounds is addressed. Cis-trans thermal isomerization of azobenzenes was enhanced in the presence of gold, palladium, and alloy gold-palladium nanoparticles. The influence of the surfactant structure and nanoparticle material on the azobenzene isomerization rate is expounded. Gold nanoparticles showed superior catalytic activity for thermal cis-trans isomerization of azobenzenes. In a joint project with theoretical chemists, we demonstrated that the possible physical origin of this phenomenon is the electron transfer between azobenzene moieties and nanoparticle surfaces. In the third part, complexes between gold nanorods and azobenzene surfactants with different tail length were exposed to UV and blue light, inducing trans-cis and cis-trans isomerization of surfactant, respectively. At the same time, the position of longitudinal plasmonic absorption maximum of gold nanorods experienced reversible shift responding to the changes in local dielectric environment. Surface plasmon resonance condition allowed the estimation of the refractive index of azobenzene containing surfactants in solution. N2 - Das Ziel dieser Arbeit ist mit der Fragestellung verwandt, wie plasmonische und photoschaltende Eigenschaften in Nano-Objekten simultan herbeigeführt und kombiniert werden können. Diese Arbeit untersucht Komplexe aus Edelmetall-Nanoteilchen und kationischen Tensiden, deren hydrophober Teil Azobenzol enthält, mithilfe von Absorptionsspektroskopie, Oberflächen-Zeta-Potentialen und Elektronenmikroskopie. Im Teil 1 wird die Bildung von Komplexen aus negativ geladenen, Laser ablatierten, sphärischen Goldnanopartikeln und kationischen Azobenzol-haltigen Tensiden in trans-Konfiguration untersucht. Es wird gezeigt, dass die Zusammensetzung des Komplexes stark vom Tensid-Gold Molverhältnis abhängt. Bei bestimmten Molverhältnissen wurde beobachtet, dass sich die Partikel selbst zu Nanoketten zusammensetzten und aggregieren. Bei höheren Tensid-Konzentrationen wurde die Oberflächen-Ladung der Nanopartikel positiv, erklärt durch das Formen einer stabilen Doppel-Schicht von azobenzolhaltigen Tensiden auf der Gold-Oberfläche. Diese Gold-Tensidkomplexe bleiben kolloidal stabil. UV-Licht induziert eine Trans-Cis Isomerisation von Azobenzoltensidmolekülen und stört somit die stabilisierenden Tensidhüllen, welche die Nanopartikelaggregation bewirken. Die Ergebnisse der Silber- und Silikonnanopartikel decken sich mit den Ergebnissen der ausführlich untersuchten Goldnanopartikel, was den vorgeschlagenen Mechanismus der Komplexbildung bekräftigt. Im Teil 2 wird die Wechselwirkung zwischen plasmonischen Metallnanopartikeln und Cis-Isomeren der Azobenzol beinhaltenden Verbindungen adressiert. Die Studie beinhaltet Gold, Silber, Palladium, Gold-Silber und Gold-Palladium Legierungen, und außerdem Silikonnanopartikel, und eine Serie von Azobenzol-Derivaten. Cis-Trans thermale Isomerisation von Azobenzolen wurde verbessert in der Gegenwart von Gold, Palladium und Gold-Palladium legierten Nanopartikeln. Der Einfluss der Tensidstruktur und Nanopartikelmaterialien auf die Isomerisationsrate wird erläutert. Goldnanopartikel zeigen eine hervorragende katalytische Aktivität für die thermale Cis-Trans Isomerisation von Azobenzolen. In einem gemeinsamen Projekt mit Theoretischen Chemikern haben wir demonstriert, dass ein möglicher Mechanismus der Elektronentransfer von der absorbierten Azobenzolhälfte zur Goldoberfläche ist. Im Teil 3 werden die Komplexe zwischen Goldnanostäbchen und Azobenzol-haltigen Timethylammoniumbromide mit verschiedenen Endlängen UV-Licht und blauem Licht ausgesetzt, was eine Trans-Cis und Cis-Trans Isomerisation von Tensiden induziert. Zur gleichen Zeit erfährt das longitudinale plasmonische Absorptionsmaximum von Goldnanostäbchen eine reversible Verschiebung als Reaktion auf die Änderungen in der lokalen dielektrischen Umgebung. Die Oberflächenplasmonenresonanzbedingung erlaubte die Bestimmung des Brechungsindex von Azobenzol-haltigen Tensiden in wässeriger Lösung. KW - azobenzene surfactant KW - Azobenzol-haltiges Tensid KW - plasmon nano-particles KW - plasmonische Nanopartikeln KW - catalytic azobenzene isomerization KW - katalytische Isomerisation von Azobenzolen KW - azobenzene refractive index KW - Brechungsindex von Azobenzol-haltigen Tensiden KW - азобензолсодержащие ПАВ KW - плазмонные наночастицы KW - каталитическая изомеризация азобензолов KW - показатель преломления азобензолов Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403359 ER - TY - THES A1 - Schürmann, Robin Mathis T1 - Interaction of the potential DNA-radiosensitizer 8-bromoadenine with free and plasmonically generated electrons T1 - Wechselwikung des potentiellen DNA-Radiosensibilisators 8-Bromoadenin mit freien und plasmonisch erzeugten Elektronen N2 - In Germany more than 200.000 persons die of cancer every year, which makes it the second most common cause of death. Chemotherapy and radiation therapy are often combined to exploit a supra-additive effect, as some chemotherapeutic agents like halogenated nucleobases sensitize the cancerous tissue to radiation. The radiosensitizing action of certain therapeutic agents can be at least partly assigned to their interaction with secondary low energy electrons (LEEs) that are generated along the track of the ionizing radiation. In the therapy of cancer DNA is an important target, as severe DNA damage like double strand breaks induce the cell death. As there is only a limited number of radiosensitizing agents in clinical practice, which are often strongly cytotoxic, it would be beneficial to get a deeper understanding of the interaction of less toxic potential radiosensitizers with secondary reactive species like LEEs. Beyond that LEEs can be generated by laser illuminated nanoparticles that are applied in photothermal therapy (PTT) of cancer, which is an attempt to treat cancer by an increase of temperature in the cells. However, the application of halogenated nucleobases in PTT has not been taken into account so far. In this thesis the interaction of the potential radiosensitizer 8-bromoadenine (8BrA) with LEEs was studied. In a first step the dissociative electron attachment (DEA) in the gas phase was studied in a crossed electron-molecular beam setup. The main fragmentation pathway was revealed as the cleavage of the C-Br bond. The formation of a stable parent anion was observed for electron energies around 0 eV. Furthermore, DNA origami nanostructures were used as platformed to determine electron induced strand break cross sections of 8BrA sensitized oligonucleotides and the corresponding nonsensitized sequence as a function of the electron energy. In this way the influence of the DEA resonances observed for the free molecules on the DNA strand breaks was examined. As the surrounding medium influences the DEA, pulsed laser illuminated gold nanoparticles (AuNPs) were used as a nanoscale electron source in an aqueous environment. The dissociation of brominated and native nucleobases was tracked with UV-Vis absorption spectroscopy and the generated fragments were identified with surface enhanced Raman scattering (SERS). Beside the electron induced damage, nucleobase analogues are decomposed in the vicinity of the laser illuminatednanoparticles due to the high temperatures. In order to get a deeper understanding of the different dissociation mechanisms, the thermal decomposition of the nucleobases in these systems was studied and the influence of the adsorption kinetics of the molecules was elucidated. In addition to the pulsed laser experiments, a dissociative electron transfer from plasmonically generated ”hot electrons” to 8BrA was observed under low energy continuous wave laser illumination and tracked with SERS. The reaction was studied on AgNPs and AuNPs as a function of the laser intensity and wavelength. On dried samples the dissociation of the molecule was described by fractal like kinetics. In solution, the dissociative electron transfer was observed as well. It turned out that the timescale of the reaction rates were slightly below typical integration times of Raman spectra. In consequence such reactions need to be taken into account in the interpretation of SERS spectra of electrophilic molecules. The findings in this thesis help to understand the interaction of brominated nucleobases with plasmonically generated electrons and free electrons. This might help to evaluate the potential radiosensitizing action of such molecules in cancer radiation therapy and PTT. N2 - Mit deutschlandweit über 200.000 Todesfällen pro Jahr ist Krebs die zweithäufigste Todesursache. In der Krebstherapie werden häufig Strahlenund Chemotherapie kombiniert, da das Krebsgewebe durch die Gabe bestimmter Chemotherapeutika, z.B. halogenierte Nukleinbasen, gegenüber ionisierender Strahlung sensibilisiert wird. Die Wirkung dieser sogenannten Radiosensibilatoren lässt sich zumindest teilweise auf ihre Wechselwirkung mit niederenergetischen Elektronen zurückführen, welche in hoher Zahl entlang der Trajektorie hochenergetischer Teilchen oder Photonen erzeugt werden. In der Krebstherapie ist die DNA ein wichtiger Angriffspunkt, da schwere DNA-Schäden wie Doppelstrangbrüche zum Zelltod führen können. In der klinischen Praxis ist die Anzahl der eingesetzten meist zytotoxischen Radiosensibilisatoren relativ begrenzt. Zur Verbesserung der bestehenden Therapien durch den Einsatz von Medikamenten mit geringeren Nebenwirkungen, ist es notwendig die Wechselwirkungen zwischen potentiellen Radiosensibilisatoren und reaktiven Sekundärteilchen wie niederenergetischen Elektronen besser zu verstehen. Neben der Strahlentherapie werden niederenergetische Elektronen auch durch Laserbestrahlung von plasmonischen Nanopartikeln erzeugt, welche in der Photothermaltherapie (PTT) Anwendung finden. Die mögliche Anwendung von halogenierten Nukleinbasen zur Verbesserung der Photothermaltherapie ist jedoch bisher noch nicht in Erwägung gezogen worden. Im Rahmen dieser kumulativen Dissertation wird die Wechselwirkung des potentiellen Radiosensibilisators 8-Bromoadenin (8BrA) mit niederenergetischen Elektronen untersucht. Unter Verwendung eines gekreuzten Molekül-Elektronenstrahls wurde in einem ersten Schritt die dissoziative Elektronenanlagerung (DEA) an 8BrA untersucht. Dabei zeigte sich, dass der Hauptzerfallskanal in dem Aufbrechen der C-Br Bindung besteht. Darüberhinausgehend wurde bei der Anlagerung von Elektronen mit einer Energie von 0 eV ein stabiles 8BrA Anion beobachtet. Um den Einfluss der DEA-Resonanzen, die für freie Moleküle in der Gasphase beobachtet wurden, auf die elektroneninduzierten DNA-Strangbrüche zu untersuchen wurden DNA- Origami-Nanostrukturen mit Elektronen bestrahlt. Die DNAOrigami-Strukturen wurden sowohl mit 8BrA modifizierten Oligonukleotiden und der nicht modifizierten Kontrollsequenz bestückt und die Strangbruch Wirkungsquerschnitte in Abhängigkeit von der Elektronenenergie bestimmt. DEA-Prozesse hängen stark von dem umgebenden Medium ab. Aus diesem Grund wurden laserbestrahlte Gold-Nanopartikel (AuNPs) als Elektronenquellen auf der Nanoebene verwendet. Der Zerfall von bromierten und unmodifizierten Nukleinbasen wurde mit UV-Vis-Absorptions-Spektroskopie verfolgt, während die Identifizierung der entstandenen Fragmente über Oberflächenverstärkte Ramanstreuung (SERS) erfolgte. Neben dem elektroneninduzierten Schaden, werden die Nukleinbasen in der Umgebung der AuNPs durch die hohen Temperaturen auch thermisch zersetzt. Um diese verschiedenen Prozesse auseinander halten zu können, wurde die thermische Zersetzung auf den laserbestrahlten AuNPs detailliert untersucht und der Einfluss der Adsorptionskinetik herausgearbeitet. Elektroneninduzierte Reaktionen auf Nanopartikeln finden nicht nur bei Bestrahlung mit intensiven Laser-Pulsen statt. Ein dissoziativer Elektronentransfer auf 8BrA, der zum Aufbrechen der C-Br Bindung führt, konnte ebenfalls während der Bestrahlung mit einem kontinuierlichen Laser geringer Intensität mit SERS beobachtet werden. Mit Hilfe von fraktaler Kinetik konnten dabei die Reaktionen auf getrockneten Proben beschrieben werden. Auf diese Art wurde die Reaktion sowohl auf AuNPs als auch auf AgNPs als Funktion der Laserintensität und -Wellenlänge untersucht. Ebenfalls in Lösung konnte das Auftrennen der C-Br Bindung beobachtet werden, wobei die Zeitskalen der Reaktion ein wenig kürzer als die typischen Integrationszeiten bei Ramanmessungen waren. Aus diesem Grund müssen Dissoziative-ElektronenTransfer- Reaktionen bei der Interpretation von SERS Spektren mit in Betracht gezogen werden. Die Ergebnisse dieser kumulativen Doktorarbeit fördern das Verständnis der Wechselwirkungen zwischen bromierten Nukleinbasen mit freien und plasmonisch erzeugten Elektronen. Dies könnte dabei helfen das Potential von 8BrA als möglicher Radiosensibilisator besser beurteilen zu können. KW - DNA damage KW - Radiosensitization KW - dissociative electron attachment KW - nanoparticles KW - plasmonic catalysis KW - DNA-Schädigung KW - dissoziative Elektronen Anlagerung KW - Nanopartikel KW - plasmonische Katalyse Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407017 ER - TY - THES A1 - Kirsch, Fabian T1 - Intrapersonal risk factors of aggressive behavior in childhood T1 - Intrapersonale Risikofaktoren für die Entwicklung aggressiven Verhaltens in der Kindheit BT - a longitudinal perspective BT - eine längsschnittliche Perspektive N2 - BACKGROUND: Aggressive behavior at an early age is linked to a broad range of psychosocial problems in later life. That is why risk factors of the occurrence and the development of aggression have been examined for a long time in psychological science. The present doctoral dissertation aims to expand this research by investigating risk factors in three intrapersonal domains using the prominent social-information processing approach by Crick and Dodge (1994) as a framework model. Anger regulation was examined as an affective, theory of mind as a cognitive, and physical attractiveness as an appearance-related developmental factor of aggression in middle childhood. An additional goal of this work was to develop and validate a behavioral observation assessment of anger regulation as past research lacked in ecologically valid measures of anger regulation that are applicable for longitudinal studies. METHODS: Three empirical studies address the aforementioned intrapersonal risk factors. In each study, data from the PIER-project were used, a three-wave-longitudinal study covering three years with a total sample size of 1,657 children in the age between 6 and 11 years (at the first measurement point). The central constructs were assessed via teacher-reports (aggression), behavioral observation (anger regulation), computer tests (theory of mind), and independent ratings (physical attractiveness). The predictive value of each proposed risk factor for the development of aggressive behavior was examined via structural equation modeling. RESULTS AND CONCLUSION: The newly developed behavioral observation measure was found to be a reliable and valid tool to assess anger regulation in middle childhood, but limited in capturing a full range of relevant regulation strategies. That might be the reason, why maladaptive anger regulation was not found to function as a risk factor of subsequent aggressive behavior. However, children’s deficits in theory of mind and a low level in physical attractiveness significantly predicted later aggression. Problematic peer relationships were identified as underlying the link between low attractiveness and aggression. Thus, fostering children’s skills in theory of mind and their ability to call existing beliefs about the nature of more versus less attractive individuals into question may be important starting points for the prevention of aggressive behavior in middle childhood. N2 - HINTERGRUND: Aggressives Verhalten in einem sehr jungen Alter steht im Zusammenhang mit einer Vielzahl psychosozialer Probleme im späteren Leben. Aus diesem Grund sind Risikofaktoren für das Auftreten von Aggression seit langer Zeit Gegenstand psychologischer Forschung. Die vorliegende Dissertation knüpft an dieser Forschung an und zielt darauf ab, potentielle Risikofaktoren aus drei intrapersonalen Domänen zu untersuchen. Als Grundlage wird das prominente Modell der sozialen Informationsverarbeitung von Crick und Dodge (1994) herangezogen. Hierbei wird Ärgerregulation als ein affektiver, Theory of Mind als ein kognitiver, und physische Attraktivität als ein aussehensbezogener Entwicklungsfaktor aggressiven Verhaltens in der mittleren Kindheit näher betrachtet. Ein zusätzliches Ziel dieser Arbeit besteht darin, ein Verhaltensbeobachtungsverfahren zur Erfassung der Ärgerregulation zu entwickeln und zu validieren, da in der Forschung ein Mangel an ökologisch validen Verfahren, die insbesondere auch für längsschnittliche Studien geeignet sind, besteht. METHODIK: Drei empirische Studien nehmen sich den benannten intrapersonalen Risikofaktoren an. Dabei werden in jeder Studie Daten aus dem PIER-Projekt genutzt, einer Längsschnittstudie, die drei Messzeitpunkte über drei Jahre abdeckt und eine Stichprobe von insgesamt 1657 Kinder im Alter zwischen 6 und 11 Jahren umfasst (zum ersten Messzeitpunkt). Die zentralen Konstrukte wurden mittels Lehrerberichte (aggressives Verhalten), Verhaltensbeobachtung (Ärgerregulation), Computerverfahren (Theory of Mind), und unabhängigen Ratings (physische Attraktivität) operationalisiert. Der prädiktive Wert der Risikofaktoren im Hinblick auf die Entwicklung aggressiven Verhaltens wurde mithilfe von Strukturgleichungsmodellen ermittelt. ERGEBNISSE UND KONKLUSION: Das neu entwickelte Verhaltensbeobachtungsverfahren hat sich als ein reliables und valides Instrument zur Messung ärgerregulativer Kompetenzen innerhalb der mittleren Kindheit herausgestellt; gleichzeitig wird deutlich, dass nicht alle relevanten Regulationsstrategien von solch einem Verfahren erfasst werden können. Das könnte ein Grund sein, dass sich maladaptive Ärgerregulation nicht als ein Risikofaktor für späteres aggressives Verhalten herausstellte. Allerdings zeigte sich, dass Defizite in der Theory of Mind und eine niedrig ausgeprägte physische Attraktivität signifikant spätere Aggression vorhersagte. Problematische Peerbeziehungen konnten als ein vermittelnder Mechanismus für den Zusammenhang von niedriger Attraktivität und Aggression identifiziert werden. Die Förderung der Theory of Mind und der Fähigkeit, bereits existierende Überzeugungen über die Persönlichkeit von attraktiven und weniger attraktiven Individuen in Frage zu stellen, können wichtige Ansatzpunkte für die Prävention aggressiven Verhaltens in der mittleren Kindheit darstellen. KW - aggression KW - anger regulation KW - theory of mind KW - physical attractiveness KW - development KW - childhood KW - longitudinal methodology KW - Aggression KW - Ärgerregulation KW - Theory of Mind KW - physische Attraktivität KW - Entwicklung KW - Kindheit KW - Längsschnitt Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407369 ER - TY - THES A1 - Richter, Nicole T1 - Investigating hazards and the evolution of volcanic landscapes by means of terrestrial and satellite remote sensing data and modelling Y1 - 2017 ER - TY - THES A1 - Lubitz, Christin T1 - Investigating local surface displacements associated with anthropogenic activities by satellite radar interferometry T1 - Untersuchung lokaler Verschiebungen der Erdoberfläche im Zusammenhang mit anthropogenen Aktivitäten durch satellitengestützte Radarinterferometrie BT - application to Staufen im Breisgau and Ketzin BT - Anwendung für Staufen im Breisgau und Ketzin N2 - Direct anthropogenic influences on the Earth’s subsurface during drilling, extraction or injection activities, can affect land stability by causing subsidence, uplifts or lateral displacements. They can occur in localized as well as in uninhabited and inhabited regions. Thus the associated risks for humans, infrastructure, and environment must be minimized. To achieve this, appropriate surveillance methods must be found that can be used for simultaneous monitoring during such activities. Multi-temporal synthetic aperture radar interferometry (MT-InSAR) methods like the Persistent Scatterer Interferometry (PSI) and the Small BAseline Subsets (SBAS) have been developed as standard approaches for satellite-based surface displacement monitoring. With increasing spatial resolution and availability of SAR sensors in recent years, MT-InSAR can be valuable for the detection and mapping of even the smallest man-made displacements. This doctoral thesis aims at investigating the capacities of the mentioned standard methods for this purpose, and comprises three main objectives against the backdrop of a user-friendly surveillance service: (1) the spatial and temporal significance assessment against leveling, (2) the suitability evaluation of PSI and SBAS under different conditions, and (3) the analysis of the link between surface motion and subsurface processes. Two prominent case studies on anthropogenic induced subsurface processes in Germany serve as the basis for this goal. The first is the distinct urban uplift with severe damages at Staufen im Breisgau that has been associated since 2007 with a failure to implement a shallow geothermal energy supply for an individual building. The second case study considers the pilot project of geological carbon dioxide (CO2) storage at Ketzin, and comprises borehole drilling and fluid injection of more than 67 kt CO2 between 2008 and 2013. Leveling surveys at Staufen and comprehensive background knowledge of the underground processes gained from different kinds of in-situ measurements at both locations deliver a suitable basis for this comparative study and the above stated objectives. The differences in location setting, i.e. urban versus rural site character, were intended to investigate the limitations in the applicability of PSI and SBAS. For the MT-InSAR analysis, X-band images from the German TerraSAR-X and TanDEM-X satellites were acquired in the standard Stripmap mode with about 3 m spatial resolution in azimuth and range direction. Data acquisition lasted over a period of five years for Staufen (2008-2013), and four years for Ketzin (2009-2013). For the first approximation of the subsurface source, an inversion of the InSAR outcome in Staufen was applied. The modeled uplift based on complex hydromechanical simulations and a correlation analysis with bottomhole pressure data were used for comparison with MT-InSAR measurements at Ketzin. In response to the defined objectives of this thesis, a higher level of detail can be achieved in mapping surface displacements without in-situ effort by using MT-InSAR in comparison to leveling (1). A clear delineation of the elliptical shaped uplift border and its magnitudes at different parts was possible at Staufen, with the exception of a vegetated area in the northwest. Vegetation coverage and the associated temporal signal decorrelation are the main limitations of MT-InSAR as clearly demonstrated at the Ketzin test site. They result in insufficient measurement point density and unwrapping issues. Therefore, spatial resolutions of one meter or better are recommended to achieve an adequate point density for local displacement analysis and to apply signal noise reduction. Leveling measurements can provide a complementary data source here, but require much effort pertaining to personnel even at the local scale. Horizontal motions could be identified at Staufen by only comparing the temporal evolution of the 1D line of sight (LOS) InSAR measurements with the available leveling data. An exception was the independent LOS decomposition using ascending and descending data sets for the period 2012-2013. The full 3D displacement field representation failed due to insufficient orbit-related, north-south sensitivity of the satellite-based measurements. By using the dense temporal mapping capabilities of the TerraSAR-X/TanDEM-X satellites after every 11 days, the temporal displacement evolution could be captured as good as that with leveling. With respect to the tested methods and in the view of generality, SBAS should be preferred over PSI (2). SBAS delivered a higher point density, and was therefore less affected by phase unwrapping issues in both case studies. Linking surface motions with subsurface processes is possible when considering simplified geophysical models (3), but it still requires intensive research to gain a deep understanding. N2 - Die Stabilität der oberen Gesteinsschichten kann durch anthropogene Aktivitäten, wie Bohrungen, Gas- oder Fluidextraktionen, beziehungsweise –injektionen, so beeinflusst werden, dass Oberflächenhebungen, Senkungen und seitliche Lageverschiebungen auftreten können. Diese Bewegungen können lokal begrenzt sein, in bewohnten als auch unbewohnten Gebieten in Erscheinung treten und ein Risiko für Mensch, Umwelt und Infrastruktur darstellen. Die Einschätzung und Überwachung dieser Risiken kann lokal durch geophysikalische und geodätische Verfahren erfolgen, und mittels fernerkundlichen Analysen in einen räumlich zeitlichen Zusammenhang gebracht werden. Methoden der Synthetischen Apertur Radar Interferometrie (MT-InSAR) wie die Persistent Scatterer Interferometry (PSI) oder das Small BAseline Subsets (SBAS) Verfahren haben sich als Standardanwendung für die satellitengestützte Messung von Oberflächenverschiebungen etabliert. Immer hochauflösendere Systeme sowie die Zunahme an zur Verfügung stehenden Sensoren in den letzten Jahren erlauben das Aufspüren und Kartieren von kleinsten menschengemachten Bewegungen der oberen Gesteinsschichten mittels MT-InSAR. Ziel dieser Doktorarbeit ist die Untersuchung der oben genannten Standardmethoden hinsichtlich ihrer Eignung zur räumlich zeitlichen Analyse von lokalen Bewegungen. Vor dem Hintergrund einer nutzerfreundlichen Anwendung werden dabei drei Punkte eingehend betrachtet: (1) die Bewertung der raum-zeitlichen Signifikanz gegenüber dem Nivellement, (2) die Eignungsbeurteilung beider Methoden unter verschiedenen Bedingungen und (3) die Analyse der Verknüpfbarkeit von Oberflächenbewegungen und Untergrundprozessen. Als Grundlage für diese Untersuchung dienen zwei bekannte Bohrprojekte in Deutschland. Das erste ist ein fehlgeschlagenes Projekt zur geothermalen Energieversorgung eines einzelnen Gebäudes in Staufen im Breisgau im Jahr 2007. Damit in Verbindung steht eine ausgeprägte innerstädtische Hebung mit ernsten Schäden an der Wohnbebauung. Das zweite ist ein Pilotprojekt zur geologischen Speicherung von Kohlenstoffdioxid (CO2) in Ketzin, welches Bohrungen und Fluidinjektionen von mehr als 67 kt CO2 zwischen 2008 und 2013 umfasst. Die Nivellement-Messungen in Staufen sowie das umfangreiche Hintergrundwissen durch verschiedene in-situ Messungen zu den Untergrundprozessen an beiden Standorten bieten eine solide Grundlage für diese vergleichende Studie und ihre Ziele. Da beide Standorte sich stark unterscheiden, insbesondere hinsichtlich ihres städtischen beziehungsweise ländlichen Charakters, erlauben diese Fallstudien eine Untersuchungen der Grenzen in der Anwendbarkeit von den Methoden PSI und SBAS. Für die Untersuchung wurden Bilddaten im X-Band von den deutschen Satelliten TerraSAR-X und TanDEM-X im Standardmodus Stripmap mit etwa 3m Azimut- und Entfernungsauflösung aufgenommen. Die Datenakquise für Staufen umfasste fünf Jahre (2008-2013) und für Ketzin vier Jahre (2009-2013). In Staufen wurde durch eine Inversion der InSAR-Resultate eine erste Näherung zur Lokalisierung einer Volumenexpansion im Untergrund erzielt, welche ursächlich für die an der Oberfläche beobachteten Hebungen ist. Für das Ketzin-Projekt wurden komplexe hydromechanische Simulationen durchgeführt und darauf basierende modellierte Hebungen zum Vergleich mit den MT-InSAR-Messungen herangezogen. Zusätzlich erfolgte eine vergleichende Korrelationsanalyse mit den Druckdaten aus der Injektionsbohrung. In dieser Arbeit konnte gezeigt werden, dass Im Vergleich zu den gängigen Nivellement-Messungen ein deutlich höherer Detailgrad in der Kartierung der Oberflächenbewegungen durch das fernerkundliche MT-InSAR Verfahren erlangt werden konnte (1). Die klare Abgrenzung des elliptischen Hebungsfeldes in Staufen sowie seiner variierenden Magnituden an verschiedenen Positionen konnte deutlich gezeigt werden, mit Ausnahme einer Vegetationsfläche im nordwestlichen Abschnitt. Die Fallstudie zu Ketzin demonstriert ebenfalls die methodischen Einschränkungen bei MT-InSAR durch Vegetation und den damit einhergehenden Signalverlusten. Als Folge traten eine unzureichende Messpunktdichte und Probleme in der Phasenabwicklung auf. Eine räumliche Auflösungen von einem Meter oder besser würde die Wahrscheinlichkeit einer geeigneten Punktdichte erhöhen. Außerdem ermöglicht sie die Anwendung passender Methoden zur Rauschreduzierung des Signals unter geringen Verlusten in der räumlichen Auflösung. Dennoch zeigte sich, dass Nivellement-Kampagnen als ergänzende Datenquelle wertvolle Informationen liefern, auch wenn diese einen hohen Arbeitsaufwand selbst für lokale Ereignisse erfordern. Die Identifizierung von Horizontalbewegungen in Staufen war nur durch den Vergleich des zeitlichen Hebungsverlaufes von Nivellement- und den 1D InSAR-Resultaten festellbar. Eine Ausnahme bildete die davon unabhängige Verschneidung zweier Datensätze von je einem aufsteigenden und absteigenden Orbit für den Zeitraum 2012-2013. Die Darstellung eines kompletten, satellitengestützten 3D-Bewegungsfeldes scheitert an der ungenügenden, umlaufbahnbedingten Sensitivität in Nord-Süd-Richtung. Die zeitlich dichte Kartierung durch TerraSAR-X und TanDEM-X alle 11 Tage ermöglicht eine ebenso detaillierte zeitliche Erfassung der Entwicklung wie mittels Nivellement. Die Untersuchungen an beiden Standorten haben gezeigt, dass das SBAS-Verfahren im Allgemeinen nützlichere Ergebnisse liefert, als das PSI-Verfahren (2). Das SBAS-Verfahren lieferte die höhere Punktdichte und zeigte aufgrund dessen weniger Probleme bei der Phasenabwicklung. Die Verknüpfung von Bewegungen in den oberen Gesteinsschichten mit deren ursächlichen Untergrundprozessen ist unter Einbeziehung vereinfachter geophysikalischer Modelle möglich (3), verlangt aber noch weiterführende Analysen für ein tieferes Verständnis. KW - synthetic aperture radar interferometry KW - time series investigation KW - monitoring of anthropogenic activities KW - Staufen im Breisgau KW - Ketzin KW - Radarinterferometrie mit synthetischer Apertur KW - Zeitreihenuntersuchung KW - Beobachtung anthropogener Aktivitäten KW - Staufen im Breisgau KW - Ketzin Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-416001 ER - TY - THES A1 - Janowski, Marcin Andrzej T1 - Investigating role of the essential GTPase - AtRsgA in the assembly of the small ribosomal subunit in Arabidopsis thaliana chloroplast Y1 - 2017 ER - TY - THES A1 - Janowski, Marcin Andrzej T1 - Investigating role of the essential GTPase - AtRsgA in the assembly of the small ribosomal subunit in Arabidopsis thaliana chloroplast N2 - Plastid protein biosynthesis occurs on bacterial-type 70S ribosomes consisting of a large (50S) and a small (30S) subunit. However, since many steps of ribosome biogenesis are not thermodynamically favorable at biological conditions, it requires many assembly factors. One group of assembly factors, circularly permuted GTPases, was implicated in 30S subunit maturation in E. coli, by a protein RsgA. RsgA orthologues are present in bacteria and plastid-containing species and in silico analysis revealed presence of a RsgA-like protein in Arabidopsis thaliana. To functionally characterize the Arabidopsis orthologue, two AtRsgA T-DNA insertion lines were analyzed in this study. The exon line (rsgA-e) led to embryo lethality, while the intron line (rsgA-i) caused severe dwarf, pale green phenotype. Further investigation of rsgA-i mutant line revealed defects in chloroplast biogenesis which led to increased number of chloroplasts, decreased chloroplast size, decreased air space between mesophyll cells and smaller shoot apical meristems, which showed unusual proplastid accumulation. Moreover, rsgA-i plants showed reduction in chlorophyll A and B content, decreased electron transport rate and photosynthetic efficiency. Further analyses revealed that the protein is involved in chloroplast 30S subunit maturation. Interestingly, we observed that while chloroplast-targeted and chloroplast-encoded proteins are generally downregulated in the mutant, a contrasting upregulation of the corresponding transcripts is observed, indicating an elaborate compensatory mechanism. To conclude, the study presented here reveals a ribosome assembly factor and a compensatory mechanism activated during impaired chloroplast function. KW - ribosome assembly KW - GTPase KW - chloro-ribosome KW - translation Y1 - 2017 ER - TY - THES A1 - Firkala, Tamás T1 - Investigation of nanoparticle-molecule interactions and pharmaceutical model formulations by means of surface enhanced raman spectroscopy Y1 - 2017 ER - TY - THES A1 - Kersting, Sebastian T1 - Isothermal nucleic acid amplification for the detection of infectious pathogens Y1 - 2017 ER -