TY - THES A1 - Winkler, Henning T1 - Synthese von thermoplastisch verarbeitbaren Fettsäure-Acylderivaten der Stärke und Proteine T1 - Synthesis of thermoplastic processable fatty acid acyl derivatives of starch and proteins N2 - In den vergangenen Jahren wurden stetig wachsende Produktionskapazitäten von Biokunststoffen aus nachwachsenden Rohstoffe nverzeichnet. Trotz großer Produktionskapazitäten und einem geeigneten Eigenschaftsprofil findet Stärke nur als hydrophile, mit Weichmachern verarbeitete thermoplastische Stärke (TPS) in Form von Blends mit z. B. Polyestern Anwendung. Gleiches gilt für Kunststoffe auf Proteinbasis. Die vorliegende Arbeit hat die Entwicklung von Biokunststoffen auf Stärkebasis zum Ziel, welche ohne externe Weichmacher thermoplastisch verarbeitbar und hydrophob sind sowie ein mechanisches Eigenschaftsprofil aufweisen, welches ein Potenzial zur Herstellung von Materialien für eine Anwendung als Verpackungsmittel bietet. Um die Rohstoffbasis für Biokunststoffe zu erweitern, soll das erarbeitete Konzept auf zwei industriell verfügbare Proteintypen, Zein und Molkenproteinisolat (WPI), übertragen werden. Als geeignete Materialklasse wurden Fettsäureester der Stärke herausgearbeitet. Zunächst fand ein Vergleich der Säurechlorid-Veresterung und der Umesterung von Fettsäurevinylestern statt, woraus letztere als geeignetere Methode hervorging. Durch Variation der Reaktionsparameter konnte diese optimiert und auf eine Serie der Fettsäurevinylester von Butanoat bis Stearat für DS-Werte bis zu 2,2-2,6 angewandt werden. Möglich war somit eine systematische Studie unter Variation der veresterten Fettsäure sowie des Substitutionsgrades (DS). Sämtliche Produkte mit einem DS ab 1,5 wiesen eine ausgprägte Löslichkeit in organischen Lösungsmitteln auf wodurch sowohl die Aufnahme von NMR-Spektren als auch Molmassenbestimmung mittels Größenausschlusschromatographie mit gekoppelter Mehrwinkel-Laserlichtstreuung (GPC-MALLS) möglich waren. Durch dynamische Lichtstreuung (DLS) wurde das Löslichkeitsverhalten veranschaulicht. Sämtliche Produkte konnten zu Filmen verarbeitet werden, wobei Materialien mit DS 1,5-1,7 hohe Zugfestigkeiten (bis zu 42 MPa) und Elastizitätsmodule (bis 1390 MPa) aufwiesen. Insbesondere Stärkehexanoat mit DS <2 sowie Stärkebutanoat mit DS >2 hatten ein mechanisches Eigenschaftsprofil, welches insbesondere in Bezug auf die Festigkeit/Steifigkeit vergleichbar mit Verpackungsmaterialien wie Polyethylen war (Zugfestigkeit: 15-32 MPa, E-Modul: 300-1300 MPa). Zugfestigkeit und Elastizitätsmodul nahmen mit steigender Kettenlänge der veresterten Fettsäure ab. Ester längerkettiger Fettsäuren (C16-C18) waren spröde. Über Weitwinkel-Röntgenstreuung (WAXS) und Infrarotspektroskopie (ATR-FTIR) konnte der Verlauf der Festigkeiten mit einer zunehmenden Distanz der Stärke im Material begründet werden. Es konnten von DS und Kettenlänge abhängige Glasübergänge detektiert werden, die kristallinen Strukturen der langkettigen Fettsäuren zeigten einen Schmelzpeak. Die Hydrophobie der Filme wurde anhand von Kontaktwinkeln >95° gegen Wasser dargestellt. Blends mit biobasierten Polyterpenen sowie den in der Arbeit hergestellten Zein-Acylderivaten ermöglichten eine weitere Verbesserung der Zugfestigkeit bzw. des Elastizitätsmoduls hochsubstituierter Produkte. Eine thermoplastische Verarbeitung mittels Spritzgießen war sowohl für Produkte mit hohem als auch mittlerem DS-Wert ohne jeglichen Zusatz von Weichmachern möglich. Es entstanden homogene, transparente Prüfstäbe. Untersuchungen der Härte ergaben auch hier für Stärkehexanoat und –butanoat mit Polyethylen vergleichbare Werte. Ausgewählte Produkte wurden zu Fasern nach dem Schmelzspinnverfahren verarbeitet. Hierbei wurden insbesondere für hochsubstituierte Derivate homogenen Fasern erstellt, welche im Vergleich zur Gießfolie signifikant höhere Zugfestigkeiten aufwiesen. Stärkeester mit mittlerem DS ließen sich ebenfalls verarbeiten. Zunächst wurden für eine Übertragung des Konzeptes auf die Proteine Zein und WPI verschiedene Synthesemethoden verglichen. Die Veresterung mit Säurechloriden ergab hierbei die höchsten Werte. Im Hinblick auf eine gute Löslichkeit in organischen Lösungsmitteln wurde für WPI die Veresterung mit carbonyldiimidazol (CDI)-aktivierten Fettsäuren in DMSO und für Zein die Veresterung mit Säu-rechloriden in Pyridin bevorzugt. Es stellte sich heraus, dass acyliertes WPI zwar hydrophob, jedoch ohne Weichmacher nicht thermoplastisch verarbeitet werden konnte. Die Erstellung von Gießfolien führte zu Sprödbruchverhalten. Unter Zugabe der biobasierten Ölsäure wurde die Anwendung von acyliertem WPI als thermoplastischer Filler z. B. in Blends mit Stärkeestern dargestellt. Im Gegensatz hierzu zeigte acyliertes Zein Glasübergänge <100 °C bei ausreichender Stabilität (150-200 °C). Zeinoleat konnte ohne Weichmacher zu einer transparenten Gießfolie verarbeitet werden. Sämtliche Derivate erwiesen sich als ausgeprägt hydrophob. Zeinoleat konnte über das Schmelzspinnverfahren zu thermoplastischen Fasern verarbeitet werden. N2 - In recent years, a steadily growing production capacity of bioplastic based on renewable resources was noticed. Despite its huge production capacities and an appropriate property profile (ubiquitous occurrence, easy extraction), starch is only applied in addition of plasticizers in a hydrophilic, thermoplastic form in blends with e. g. polyesters. The same applies to bioplastics based on proteins. The actual study has the aim to develop starch-based bioplastics, which are hydrophobic, thermoplastic without the addition of any plasticizer and have mechanical properties to be a suitable alternative material in the area of food packaging. To obtain a variation of the raw materials for bioplastics, the concept shall be applied to two types of industrial available proteins, whey protein isolate (WPI) and Zein. Fatty acid esters of starch came out to be a suitable class of materials. Initially, the methods of esterifying acid chlorides and the transesterification of fatty acid vinyl esters were compared with the latter being more appropriate. Reaction parameters of this method were optimized and it was applied to a complete series of vinyl ester reagents (butanoate to stearate), leading to degree of substitution (DS)-values up to 2.2-2.6. With that, a systematic study of the variation of the fatty acid ester chain as well as the DS became possible. It came out that all products with a DS >1.5 showed a well-marked solubility in organic solvents, whereby solution NMR-studies as well as measurements of the molecular weight distributions by using size exclusion chroma-tography with multi-angle laser light scattering (SEC-MALLS) were possible. The different solution behavior was studied by dynamic light scattering (DLS). All soluble products could be formed into films via casting, where materials with a DS of 1.5-1.7 showed the highest values concerning tensile strength (up to 42 MPa) and Youngs modulus (up to 1390 MPa). Especially starch hexanoate with DS <2 and starch butanoate with a DS >2 revealed mechanical properties which are comparable to usually applied polymers for food packaging, e. g. polyethylene (tensile strength: 15-20 MPa, E-Mod: 300-1300 MPa). Tensile strength and Youngs modulus were reduced with increasing length of the esterified fatty acid. Wide-angle X-Ray scattering (WAXS) and infrared spectroscopy (ATR-FTIR) explained this tendency by an increasing intermolecular distance of the starch in the material. Glassy transitions of the materials were detected and showed a dependency on the type of esterified fatty acid and the DS. The crystalline structures of the esterified long-chain fatty acids revealed a melting peak. All films came out to be hydrophobic with contact angles against water >95°. The tensile strength and the Youngs modulus of the highly substituted products could be further improved by blending them with biobased polyterpenes as well as the acylated Zein. A thermoplastic processing without the use of any plasticizer additives was possible for products with a medium and high DS. Homogeneous, transparent testing specimens were obtained. The specific mechanical values were comparable with the casted films, although the highest values for the tensile strength and the elongation were lower. Investigations of the hardness showed comparable values to polyethylene. Selected samples were further processed to fibers by melt spinning. Especially starch esters with high DS revealed homogeneous fibers with a significant increase in the tensile strength compared to the film or testing specimen. Even fatty acid starch esters with a medium DS were processed by the melt-spinning, but their higher glassy transition lead to a reduced softening behavior. To transfer this concept to the class of proteins, different methods of synthesis were studied in the first step, which differed in their amount of acylation. The acylation using fatty acid chlorides lead to highest values. With regard to a well-marked organic solvent solubility, in the case of WPI the acylation with carbonyldiimidazol (CDI)-activated fatty acid was established. For Zein, the acid chloride acylation in pyridine gave the desired results. It came out the fatty acid acylated soluble WPI could not be thermoplastic processed without additional plasticizers. By using biobased oleic acid as additive, the potential of acylated WPI as a thermoplastic filler in blends with e. g. fatty acid esters of starch was shown. In contrast, fatty acid acyl derivatives of Zein revealed well marked glassy transitions <100 °C with an adequate thermal stability. While Zeinoleate could be formed into transparent films via solvent casting without any plasticizer additives, low amounts of tall oil enabled film-forming in the case of acyl derivatives with shorter fatty acids as well. All derivatives revealed a well-marked hydrophobicity. Finally, Zeinoleate was thermoplastically processed into fibers by melt-spinning without any further additives. KW - Stärke KW - Proteine KW - thermoplastisch KW - Gießfolien KW - Fasern KW - starch KW - proteins KW - thermoplastic KW - films KW - casted-films KW - fibres Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71089 ER - TY - THES A1 - Wechakama, Maneenate T1 - Multi-messenger constraints and pressure from dark matter annihilation into electron-positron pairs T1 - Multi-Messenger-Grenzen und Druck von Dunkler Materie-Annihilation in Elektron-Positron-Paaren N2 - Despite striking evidence for the existence of dark matter from astrophysical observations, dark matter has still escaped any direct or indirect detection until today. Therefore a proof for its existence and the revelation of its nature belongs to one of the most intriguing challenges of nowadays cosmology and particle physics. The present work tries to investigate the nature of dark matter through indirect signatures from dark matter annihilation into electron-positron pairs in two different ways, pressure from dark matter annihilation and multi-messenger constraints on the dark matter annihilation cross-section. We focus on dark matter annihilation into electron-positron pairs and adopt a model-independent approach, where all the electrons and positrons are injected with the same initial energy E_0 ~ m_dm*c^2. The propagation of these particles is determined by solving the diffusion-loss equation, considering inverse Compton scattering, synchrotron radiation, Coulomb collisions, bremsstrahlung, and ionization. The first part of this work, focusing on pressure from dark matter annihilation, demonstrates that dark matter annihilation into electron-positron pairs may affect the observed rotation curve by a significant amount. The injection rate of this calculation is constrained by INTEGRAL, Fermi, and H.E.S.S. data. The pressure of the relativistic electron-positron gas is computed from the energy spectrum predicted by the diffusion-loss equation. For values of the gas density and magnetic field that are representative of the Milky Way, it is estimated that the pressure gradients are strong enough to balance gravity in the central parts if E_0 < 1 GeV. The exact value depends somewhat on the astrophysical parameters, and it changes dramatically with the slope of the dark matter density profile. For very steep slopes, as those expected from adiabatic contraction, the rotation curves of spiral galaxies would be affected on kiloparsec scales for most values of E_0. By comparing the predicted rotation curves with observations of dwarf and low surface brightness galaxies, we show that the pressure from dark matter annihilation may improve the agreement between theory and observations in some cases, but it also imposes severe constraints on the model parameters (most notably, the inner slope of the halo density profile, as well as the mass and the annihilation cross-section of dark matter particles into electron-positron pairs). In the second part, upper limits on the dark matter annihilation cross-section into electron-positron pairs are obtained by combining observed data at different wavelengths (from Haslam, WMAP, and Fermi all-sky intensity maps) with recent measurements of the electron and positron spectra in the solar neighbourhood by PAMELA, Fermi, and H.E.S.S.. We consider synchrotron emission in the radio and microwave bands, as well as inverse Compton scattering and final-state radiation at gamma-ray energies. For most values of the model parameters, the tightest constraints are imposed by the local positron spectrum and synchrotron emission from the central regions of the Galaxy. According to our results, the annihilation cross-section should not be higher than the canonical value for a thermal relic if the mass of the dark matter candidate is smaller than a few GeV. In addition, we also derive a stringent upper limit on the inner logarithmic slope α of the density profile of the Milky Way dark matter halo (α < 1 if m_dm < 5 GeV, α < 1.3 if m_dm < 100 GeV and α < 1.5 if m_dm < 2 TeV) assuming a dark matter annihilation cross-section into electron-positron pairs (σv) = 3*10^−26 cm^3 s^−1, as predicted for thermal relics from the big bang. N2 - Trotz vieler Hinweise auf die Existenz von dunkler Materie durch astrophysikalische Beobachtungen hat sich die dunkle Materie bis heute einem direkten oder indirekten Nachweis entzogen. Daher gehrt der Nachweis ihrer Existenz und die Enthüllung ihrer Natur zu einem der faszinierensten Herausforderungen der heutigen Kosmologie und Teilchenphysik. Diese Arbeit versucht die Natur von dunkler Materie durch indirekte Signaturen von der Paarzerstrahlung dunkler Materie in Elektron-Positronpaare auf zwei verschiedene Weisen zu untersuchen, nämlich anhand des Drucks durch die Paarzerstrahlung dunkler Materie und durch Grenzen des Wirkungsquerschnitts für die Paarzerstrahlung dunkler Materie aus verschiedenen Beobachtungsbereichen. Wir konzentrieren uns dabei auf die Zerstrahlung dunkler Materie in Elektron-Positron-Paare und betrachten einen modellunabhängigen Fall, bei dem alle Elektronen und Positronen mit der gleichen Anfangsenergie E_0 ~ m_dm*c^2 injiziert werden. Die Fortbewegung dieser Teilchen wird dabei bestimmt durch die Lösung der Diffusions-Verlust-Gleichung unter Berücksichtigung von inverser Compton-Streuung, Synchrotronstrahlung, Coulomb-Streuung, Bremsstrahlung und Ionisation. Der erste Teil dieser Arbeit zeigt, dass die Zerstrahlung dunkler Materie in Elektron-Positron-Paare die gemessene Rotationskurve signifikant beeinflussen kann. Die Produktionsrate ist dabei durch Daten von INTEGRAL, Fermi und H.E.S.S. begrenzt. Der Druck des relativistischen Elektron-Positron Gases wird aus dem Energiespektrum errechnet, welches durch die Diffusions-Verlust-Gleichung bestimmt ist. Für Werte der Gasdichte und des magnetischen Feldes, welche für unsere Galaxie repräsentativ sind, lässt sich abschätzen, dass für E_0 < 1 GeV die Druckgradienten stark genug sind, um Gravitationskräfte auszugleichen. Die genauen Werte hängen von den verwendeten astrophysikalischen Parametern ab, und sie ändern sich stark mit dem Anstieg des dunklen Materie-Profils. Für sehr große Anstiege, wie sie für adiabatische Kontraktion erwartet werden, werden die Rotationskurven von Spiralgalaxien auf Skalen von einegen Kiloparsek für die meisten Werte von E_0 beeinflusst. Durch Vergleich der erwarteten Rotationskurven mit Beobachtungen von Zwerggalaxien und Galaxien geringer Oberflächentemperatur zeigen wir, dass der Druck von Zerstrahlung dunkler Materie die Übereinstimmung von Theorie und Beobachtung in einigen Fällen verbessern kann. Aber daraus resultieren auch starke Grenzen für die Modellparameter - vor allem für den inneren Anstieg des Halo-Dichteprofils, sowie die Masse und den Wirkungsquerschnitt der dunklen Materie-Teilchen. Im zweiten Teil werden obere Grenzen für die Wirkungsquerschnitte der Zerstrahlung der dunkler Materie in Elektron-Positron-Paare erhalten, indem die beobachteten Daten bei unterschiedlichen Wellenlängen (von Haslam, WMAP und Fermi) mit aktuellen Messungen von Elektron-Positron Spektren in der solaren Nachbarschaft durch PAMELA, Fermi und H.E.S.S. kombiniert werden. Wir betrachten Synchrotronemission bei Radiound Mikrowellenfrequenzen, sowie inverse Compton-Streuung und Final-State-Strahlung bei Energien im Bereich der Gamma-Strahlung. Für die meisten Werte der Modellparameter werden die stärksten Schranken durch das lokale Positron-Spektrum und die Synchrotronemission im Zentrum unser Galaxie bestimmt. Nach diesen Ergebnissen sollte der Wirkungsquerschnitt für die Paarzerstrahlung nicht größer als der kanonische Wert für thermische Relikte sein, wenn die Masse der dunklen Materie-Kandidaten kleiner als einige GeV ist. Zusätzlich leiten wir eine obere Grenze für den inneren logarithmische Anstieg α des Dichteprofiles des dunklen Materie Halos unserer Galaxie ab. KW - dunkle Materie KW - Astroteilchenphysik KW - Strahlung Mechanismen KW - Galaxy Struktur KW - Rotationskurven KW - dark matter KW - astroparticle physics KW - radiation mechanisms KW - galaxy structure KW - rotation curves Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67401 ER - TY - THES A1 - Vogel, Kristin T1 - Applications of Bayesian networks in natural hazard assessments T1 - Anwendungen von Bayes'schen Netzen bei der Einschätzung von Naturgefahren N2 - Even though quite different in occurrence and consequences, from a modeling perspective many natural hazards share similar properties and challenges. Their complex nature as well as lacking knowledge about their driving forces and potential effects make their analysis demanding: uncertainty about the modeling framework, inaccurate or incomplete event observations and the intrinsic randomness of the natural phenomenon add up to different interacting layers of uncertainty, which require a careful handling. Nevertheless deterministic approaches are still widely used in natural hazard assessments, holding the risk of underestimating the hazard with disastrous effects. The all-round probabilistic framework of Bayesian networks constitutes an attractive alternative. In contrast to deterministic proceedings, it treats response variables as well as explanatory variables as random variables making no difference between input and output variables. Using a graphical representation Bayesian networks encode the dependency relations between the variables in a directed acyclic graph: variables are represented as nodes and (in-)dependencies between variables as (missing) edges between the nodes. The joint distribution of all variables can thus be described by decomposing it, according to the depicted independences, into a product of local conditional probability distributions, which are defined by the parameters of the Bayesian network. In the framework of this thesis the Bayesian network approach is applied to different natural hazard domains (i.e. seismic hazard, flood damage and landslide assessments). Learning the network structure and parameters from data, Bayesian networks reveal relevant dependency relations between the included variables and help to gain knowledge about the underlying processes. The problem of Bayesian network learning is cast in a Bayesian framework, considering the network structure and parameters as random variables itself and searching for the most likely combination of both, which corresponds to the maximum a posteriori (MAP score) of their joint distribution given the observed data. Although well studied in theory the learning of Bayesian networks based on real-world data is usually not straight forward and requires an adoption of existing algorithms. Typically arising problems are the handling of continuous variables, incomplete observations and the interaction of both. Working with continuous distributions requires assumptions about the allowed families of distributions. To "let the data speak" and avoid wrong assumptions, continuous variables are instead discretized here, thus allowing for a completely data-driven and distribution-free learning. An extension of the MAP score, considering the discretization as random variable as well, is developed for an automatic multivariate discretization, that takes interactions between the variables into account. The discretization process is nested into the network learning and requires several iterations. Having to face incomplete observations on top, this may pose a computational burden. Iterative proceedings for missing value estimation become quickly infeasible. A more efficient albeit approximate method is used instead, estimating the missing values based only on the observations of variables directly interacting with the missing variable. Moreover natural hazard assessments often have a primary interest in a certain target variable. The discretization learned for this variable does not always have the required resolution for a good prediction performance. Finer resolutions for (conditional) continuous distributions are achieved with continuous approximations subsequent to the Bayesian network learning, using kernel density estimations or mixtures of truncated exponential functions. All our proceedings are completely data-driven. We thus avoid assumptions that require expert knowledge and instead provide domain independent solutions, that are applicable not only in other natural hazard assessments, but in a variety of domains struggling with uncertainties. N2 - Obwohl Naturgefahren in ihren Ursachen, Erscheinungen und Auswirkungen grundlegend verschieden sind, teilen sie doch viele Gemeinsamkeiten und Herausforderungen, wenn es um ihre Modellierung geht. Fehlendes Wissen über die zugrunde liegenden Kräfte und deren komplexes Zusammenwirken erschweren die Wahl einer geeigneten Modellstruktur. Hinzu kommen ungenaue und unvollständige Beobachtungsdaten sowie dem Naturereignis innewohnende Zufallsprozesse. All diese verschiedenen, miteinander interagierende Aspekte von Unsicherheit erfordern eine sorgfältige Betrachtung, um fehlerhafte und verharmlosende Einschätzungen von Naturgefahren zu vermeiden. Dennoch sind deterministische Vorgehensweisen in Gefährdungsanalysen weit verbreitet. Bayessche Netze betrachten die Probleme aus wahrscheinlichkeitstheoretischer Sicht und bieten somit eine sinnvolle Alternative zu deterministischen Verfahren. Alle vom Zufall beeinflussten Größen werden hierbei als Zufallsvariablen angesehen. Die gemeinsame Wahrscheinlichkeitsverteilung aller Variablen beschreibt das Zusammenwirken der verschiedenen Einflussgrößen und die zugehörige Unsicherheit/Zufälligkeit. Die Abhängigkeitsstrukturen der Variablen können durch eine grafische Darstellung abgebildet werden. Die Variablen werden dabei als Knoten in einem Graphen/Netzwerk dargestellt und die (Un-)Abhängigkeiten zwischen den Variablen als (fehlende) Verbindungen zwischen diesen Knoten. Die dargestellten Unabhängigkeiten veranschaulichen, wie sich die gemeinsame Wahrscheinlichkeitsverteilung in ein Produkt lokaler, bedingter Wahrscheinlichkeitsverteilungen zerlegen lässt. Im Verlauf dieser Arbeit werden verschiedene Naturgefahren (Erdbeben, Hochwasser und Bergstürze) betrachtet und mit Bayesschen Netzen modelliert. Dazu wird jeweils nach der Netzwerkstruktur gesucht, welche die Abhängigkeiten der Variablen am besten beschreibt. Außerdem werden die Parameter der lokalen, bedingten Wahrscheinlichkeitsverteilungen geschätzt, um das Bayessche Netz und dessen zugehörige gemeinsame Wahrscheinlichkeitsverteilung vollständig zu bestimmen. Die Definition des Bayesschen Netzes kann auf Grundlage von Expertenwissen erfolgen oder - so wie in dieser Arbeit - anhand von Beobachtungsdaten des zu untersuchenden Naturereignisses. Die hier verwendeten Methoden wählen Netzwerkstruktur und Parameter so, dass die daraus resultierende Wahrscheinlichkeitsverteilung den beobachteten Daten eine möglichst große Wahrscheinlichkeit zuspricht. Da dieses Vorgehen keine Expertenwissen voraussetzt, ist es universell in verschiedenen Gebieten der Gefährdungsanalyse einsetzbar. Trotz umfangreicher Forschung zu diesem Thema ist das Bestimmen von Bayesschen Netzen basierend auf Beobachtungsdaten nicht ohne Schwierigkeiten. Typische Herausforderungen stellen die Handhabung stetiger Variablen und unvollständiger Datensätze dar. Beide Probleme werden in dieser Arbeit behandelt. Es werden Lösungsansätze entwickelt und in den Anwendungsbeispielen eingesetzt. Eine Kernfrage ist hierbei die Komplexität des Algorithmus. Besonders wenn sowohl stetige Variablen als auch unvollständige Datensätze in Kombination auftreten, sind effizient arbeitende Verfahren gefragt. Die hierzu in dieser Arbeit entwickelten Methoden ermöglichen die Verarbeitung von großen Datensätze mit stetigen Variablen und unvollständigen Beobachtungen und leisten damit einen wichtigen Beitrag für die wahrscheinlichkeitstheoretische Gefährdungsanalyse. KW - Bayes'sche Netze KW - Naturgefahren KW - Gefahrenanalyse KW - Unsicherheiten KW - Hochwasser KW - Bayesian networks KW - natural hazards KW - hazard assessments KW - uncertainties KW - flood events Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69777 ER - TY - THES A1 - Uhlemann, Steffi T1 - Understanding trans-basin floods in Germany : data, information and knowledge T1 - Flussgebietsübergreifende Hochwasserereignisse in Deutschland : Daten, Informationen und Wissen. N2 - Large Central European flood events of the past have demonstrated that flooding can affect several river basins at the same time leading to catastrophic economic and humanitarian losses that can stretch emergency resources beyond planned levels of service. For Germany, the spatial coherence of flooding, the contributing processes and the role of trans-basin floods for a national risk assessment is largely unknown and analysis is limited by a lack of systematic data, information and knowledge on past events. This study investigates the frequency and intensity of trans-basin flood events in Germany. It evaluates the data and information basis on which knowledge about trans-basin floods can be generated in order to improve any future flood risk assessment. In particu-lar, the study assesses whether flood documentations and related reports can provide a valuable data source for understanding trans-basin floods. An adaptive algorithm was developed that systematically captures trans-basin floods using series of mean daily discharge at a large number of sites of even time series length (1952-2002). It identifies the simultaneous occurrence of flood peaks based on the exceedance of an initial threshold of a 10 year flood at one location and consecutively pools all causally related, spatially and temporally lagged peak recordings at the other locations. A weighted cumulative index was developed that accounts for the spatial extent and the individual flood magnitudes within an event and allows quantifying the overall event severity. The parameters of the method were tested in a sensitivity analysis. An intensive study on sources and ways of information dissemination of flood-relevant publications in Germany was conducted. Based on the method of systematic reviews a strategic search approach was developed to identify relevant documentations for each of the 40 strongest trans-basin flood events. A novel framework for assessing the quality of event specific flood reports from a user’s perspective was developed and validated by independent peers. The framework was designed to be generally applicable for any natural hazard type and assesses the quality of a document addressing accessibility as well as representational, contextual, and intrinsic dimensions of quality. The analysis of time-series of mean daily discharge resulted in the identification of 80 trans-basin flood events within the period 1952-2002 in Germany. The set is dominated by events that were recorded in the hydrological winter (64%); 36% occurred during the summer months. The occurrence of floods is characterised by a distinct clustering in time. Dividing the study period into two sub-periods, we find an increase in the percentage of winter events from 58% in the first to 70.5% in the second sub-period. Accordingly, we find a significant increase in the number of extreme trans-basin floods in the second sub-period. A large body of 186 flood relevant documentations was identified. For 87.5% of the 40 strongest trans-basin floods in Germany at least one report has been found and for the most severe floods a substantial amount of documentation could be obtained. 80% of the material can be considered grey literature (i.e. literature not controlled by commercial publishers). The results of the quality assessment show that the majority of flood event specific reports are of a good quality, i.e. they are well enough drafted, largely accurate and objective, and contain a substantial amount of information on the sources, pathways and receptors/consequences of the floods. The inclusion of this information in the process of knowledge building for flood risk assessment is recommended. Both the results as well as the data produced in this study are openly accessible and can be used for further research. The results of this study contribute to an improved spatial risk assessment in Germany. The identified set of trans-basin floods provides the basis for an assessment of the chance that flooding occurs simultaneously at a number of sites. The information obtained from flood event documentation can usefully supplement the analysis of the processes that govern flood risk. N2 - Abschätzungen zum Hochwasserrisiko beschränken sich zumeist auf die Analyse innerhalb eines Einzugsgebietes bzw. eines bestimmten Ortes. Die Zusammenhänge in größeren Regionen und vor allem Korrelationen zwischen verschiedenen Einzugsgebieten werden nur selten betrachtet. Solche einzugsgebietsübergreifenden Analysen sind jedoch sowohl für die Versicherungswirtschaft, den Katastrophenschutz sowie für großräumige strategische Hochwasserplanungen notwendig. Allerdings stehen nur für eine geringe Auswahl historischer Ereignisse Daten zur Verfügung und systematische Ansätze zu ihrer Erfassung wurden für Deutschland bisher nicht entwickelt. Die vorliegende Studie untersucht zum ersten die Häufigkeit und Intensität von flussgebietsübergreifenden Hochwasserereignissen in Deutschland anhand von gemessenen Abflüssen an einer Vielzahl von Stationen. Es können insgesamt 80 Hochwasserereignisse in Deutschland im Zeitraum von 1952-2002 nachgewiesen werden. Davon treten die meisten Ereignissen im hydrologischen Winterhalbjahr auf (64%). Wir können nachweisen, dass die Häufigkeit des Auftretens in verschiedenen Perioden unterschiedlich ist, und dass im Untersuchungszeitraum eine signifikante Zunahme von Winterereignissen und damit vor allem von sehr schweren flussgebietsübergreifenden Hochwasserereignissen zu verzeichnen ist. Die Studie hatte des Weiteren zum Ziel, die verfügbare Daten- und Informationsgrundlage zur Hochwasseranalyse zu erkunden. Im speziellen wird untersucht, inwieweit Hochwasserereignisdokumentationen und verwandte Berichte als eine weitere Datenquelle für ein verbessertes Prozessverständnis genutzt werden können. Im Rahmen einer systematischen Suche konnten für die 40 größten Hochwasserereignisse in Deutschland 186 relevante Berichte identifiziert werden. 80% des Materials kann als Grauliteratur eingestuft werden, d.h. als Veröffentlichungen welche nicht durch kommerzielle Verleger publiziert wird. Die sich daraus ergebende Frage nach der Qualität der Dokumente und ihres Informationsgehaltes wurde durch die Entwicklung und Anwendung eines Qualitätsbewertungsschemas beantwortet. Die Ergebnisse der Qualitätsbewertung zeigen, dass die Mehrheit der ereignisspezifischen Hochwasserberichte von guter Qualität ist, d.h. die Berichte sind in ausreichender Qualität verfasst, größtenteils korrekt und objektiv und beinhalten eine substantielle Menge an Informationen zu den Ursachen, Verläufen, betroffenen Objekten und Schäden eines Ereignisses. Es wird empfohlen diese Informationen in die Wissenssynthese für die Hochwasserrisikobewertung einfließen zu lassen. Sowohl Ergebnisse als auch Daten dieser Studie sind so publiziert, dass sie öffentlich zugänglich sind und für weitere Forschungsfragen genutzt werden können. KW - Hochwasser KW - Deutschland KW - Grauliteratur KW - Ereignisdokumentation KW - Qualitätsbewertung KW - floods KW - Germany KW - grey literature KW - event documentation KW - quality assessment framework Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68868 ER - TY - THES A1 - Töle, Jonas Claudius T1 - Über die Arc-catFISH-Methode als neues Werkzeug zur Charakterisierung der Geschmacksverarbeitung im Hirnstamm der Maus T1 - The arc catFISH method as a new tool to characterize taste processing in the mouse hind brain N2 - Intensive Forschung hat in den vergangenen Jahrzehnten zu einer sehr detaillierten Charakterisierung des Geschmackssystems der Säugetiere geführt. Dennoch sind mit den bislang eingesetzten Methoden wichtige Fragestellungen unbeantwortet geblieben. Eine dieser Fragen gilt der Unterscheidung von Bitterstoffen. Die Zahl der Substanzen, die für den Menschen bitter schmecken und in Tieren angeborenes Aversionsverhalten auslösen, geht in die Tausende. Diese Substanzen sind sowohl von der chemischen Struktur als auch von ihrer Wirkung auf den Organismus sehr verschieden. Während viele Bitterstoffe potente Gifte darstellen, sind andere in den Mengen, die mit der Nahrung aufgenommen werden, harmlos oder haben sogar positive Effekte auf den Körper. Zwischen diesen Gruppen unterscheiden zu können, wäre für ein Tier von Vorteil. Ein solcher Mechanismus ist jedoch bei Säugetieren nicht bekannt. Das Ziel dieser Arbeit war die Untersuchung der Verarbeitung von Geschmacksinformation in der ersten Station der Geschmacksbahn im Mausgehirn, dem Nucleus tractus solitarii (NTS), mit besonderem Augenmerk auf der Frage nach der Diskriminierung verschiedener Bitterstoffe. Zu diesem Zweck wurde eine neue Untersuchungsmethode für das Geschmackssystem etabliert, die die Nachteile bereits verfügbarer Methoden umgeht und ihre Vorteile kombiniert. Die Arc-catFISH-Methode (cellular compartment analysis of temporal activity by fluorescent in situ hybridization), die die Charakterisierung der Antwort großer Neuronengruppen auf zwei Stimuli erlaubt, wurde zur Untersuchung geschmacksverarbeitender Zellen im NTS angewandt. Im Zuge dieses Projekts wurde erstmals eine stimulusinduzierte Arc-Expression im NTS gezeigt. Die ersten Ergebnisse offenbarten, dass die Arc-Expression im NTS spezifisch nach Stimulation mit Bitterstoffen auftritt und sich die Arc exprimierenden Neurone vornehmlich im gustatorischen Teil des NTS befinden. Dies weist darauf hin, dass Arc-Expression ein Marker für bitterverarbeitende gustatorische Neurone im NTS ist. Nach zweimaliger Stimulation mit Bittersubstanzen konnten überlappende, aber verschiedene Populationen von Neuronen beobachtet werden, die unterschiedlich auf die drei verwendeten Bittersubstanzen Cycloheximid, Chininhydrochlorid und Cucurbitacin I reagierten. Diese Neurone sind vermutlich an der Steuerung von Abwehrreflexen beteiligt und könnten so die Grundlage für divergentes Verhalten gegenüber verschiedenen Bitterstoffen bilden. N2 - Intense research in the past decades has led to a detailed understanding of the mammalian taste system. Some important issues, however, have remained unanswered with the established methods that have been applied so far. One of these questions is whether different bitter substances can be distinguished. There are thousands of compounds which taste bitter to humans and elicit innate aversive behavior in animals. Moreover, these bitter substances are very heterogeneous regarding their structure as well as their effect on the organism. While many bitter tastants are potent poisons, others are harmless or even have beneficial effects in the amounts that are typically ingested. The ability to discriminate between those groups of bitter tastants could be an evolutionary advantage. Such a mechanism, however, is not known for mammals. The aim of this thesis was to study the processing of taste information in the first station of gustatory processing in the mouse brain, the nucleus of the solitary tract (NTS). Of particular interest was the question concerning discrimination of bitter tastants. To this end a new method was established for the taste system combining the advantages of methods used before while circumventing their disadvantages. The Arc catFISH method (cellular compartment analysis of temporal activity by fluorescent in situ hybridization), which allows the characterization of responses of large neuron populations to two stimuli, was used to analyze taste-processing cells in the NTS. In the course of this project a stimulus-induced Arc expression in the NTS was shown for the first time. The results demonstrated that Arc expression in the NTS appears specifically after stimulation with bitter tastants and that the Arc expressing neurons are located primarily in the gustatory part of the NTS. This indicates that Arc expression is a marker for bitter-processing gustatory neurons in the NTS. Upon stimulating twice with bitter compounds, distinct, yet overlapping neuron populations were identified, that reacted differently to the three bitter substances cycloheximide, quinine hydrochloride, and cucurbitacin I. Presumably these neurons are involved in the regulation of aversive reflexes and could form a basis for divergent behavior towards different bitter substances. KW - Geschmack KW - bitter KW - Nucleus tractus solitarii KW - Immediate-early-Gen KW - activity-regulated cytoskeleton-associated protein KW - catFISH KW - taste KW - bitter KW - nucleus of the solitary tract KW - immediate early gene KW - activity-regulated cytoskeleton-associated protein KW - catFISH Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70491 ER - TY - THES A1 - Tyrallová, Lucia T1 - Automatisierte Objektidentifikation und Visualisierung terrestrischer Oberflächenformen T1 - Automated object identification and visualisation of terrestrial landforms N2 - Die automatisierte Objektidentifikation stellt ein modernes Werkzeug in den Geoinformationswissenschaften dar (BLASCHKE et al., 2012). Um bei thematischen Kartierungen untereinander vergleichbare Ergebnisse zu erzielen, sollen aus Sicht der Geoinformatik Mittel für die Objektidentifikation eingesetzt werden. Anstelle von Feldarbeit werden deshalb in der vorliegenden Arbeit multispektrale Fernerkundungsdaten als Primärdaten verwendet. Konkrete natürliche Objekte werden GIS-gestützt und automatisiert über große Flächen und Objektdichten aus Primärdaten identifiziert und charakterisiert. Im Rahmen der vorliegenden Arbeit wird eine automatisierte Prozesskette zur Objektidentifikation konzipiert. Es werden neue Ansätze und Konzepte der objektbasierten Identifikation von natürlichen isolierten terrestrischen Oberflächenformen entwickelt und implementiert. Die Prozesskette basiert auf einem Konzept, das auf einem generischen Ansatz für automatisierte Objektidentifikation aufgebaut ist. Die Prozesskette kann anhand charakteristischer quantitativer Parameter angepasst und so umgesetzt werden, womit das Konzept der Objektidentifikation modular und skalierbar wird. Die modulbasierte Architektur ermöglicht den Einsatz sowohl einzelner Module als auch ihrer Kombination und möglicher Erweiterungen. Die eingesetzte Methodik der Objektidentifikation und die daran anschließende Charakteristik der (geo)morphometrischen und morphologischen Parameter wird durch statistische Verfahren gestützt. Diese ermöglichen die Vergleichbarkeit von Objektparametern aus unterschiedlichen Stichproben. Mit Hilfe der Regressionsund Varianzanalyse werden Verhältnisse zwischen Objektparametern untersucht. Es werden funktionale Abhängigkeiten der Parameter analysiert, um die Objekte qualitativ zu beschreiben. Damit ist es möglich, automatisiert berechnete Maße und Indizes der Objekte als quantitative Daten und Informationen zu erfassen und unterschiedliche Stichproben anzuwenden. Im Rahmen dieser Arbeit bilden Thermokarstseen die Grundlage für die Entwicklungen und als Beispiel sowie Datengrundlage für den Aufbau des Algorithmus und die Analyse. Die Geovisualisierung der multivariaten natürlichen Objekte wird für die Entwicklung eines besseren Verständnisses der räumlichen Relationen der Objekte eingesetzt. Kern der Geovisualisierung ist das Verknüpfen von Visualisierungsmethoden mit kartenähnlichen Darstellungen. N2 - The automated object identification represents a modern tool in geoinformatics (BLASCHKE et al., 2012). In order to achieve results in thematic mapping comparable among one another, considering geoinformatics, means of object identification should be applied. Therefore, instead of fieldwork, multispectral remote-sensing data have been used as a primary data source in this work. Specific natural objects have been GIS-based and automatically identified and characterised from the primary data over large areas and object densities. Within this work, an automated process chain for the object identification has been developed. New approaches and concepts of object-based identification of natural isolated terrestrial landforms have been developed and implemented. The process chain is based on a concept that develops a generic approach to the automated object identification. This process chain can be customised for and applied to specific objects by settings of characteristic quantitative parameters, by which the concept of object identification becomes modular and scalable. The modul-based architecture enables use of individual moduls as well as their combinations and possible expansions. The introduced methodology of object identification and the connected characteristics of (geo)morphometric and morphologic parameters has been supported by a static procedures. These enable the comparability of object parameters from different samples. With the help of regression and variance analysis, relations between object parameters have been explored. Functional dependencies of parameters have been analysed in order to qualitatively describe the objects. As a result, automatically computed dimensions and indices of the objects can be captured as quantitative data and informations an applied to varied samples. Within this work the thermokarst lakes represent the basis for the process development and an example and a data basis for the design of the algorithm and analysis. The goevisualisation of multivariant natural objects has been applied to develop better understanding of their spatial relations. The essence of the geovisualisation is to link the methods of visualisation to map-like presentation. KW - Objektidentifikation KW - natürliche terrestrische Oberflächenformen KW - Prozesskette KW - GIS KW - object identification KW - natural terrestrial landforms KW - process chain KW - GIS Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69268 ER - TY - THES A1 - Trapp, Matthias T1 - Interactive rendering techniques for focus+context visualization of 3D geovirtual environments T1 - Interaktive Rendering-Techniken für die Fokus-&-Kontext-Visualisierung von geovirtuellen 3D-Umgebungen N2 - This thesis introduces a collection of new real-time rendering techniques and applications for focus+context visualization of interactive 3D geovirtual environments such as virtual 3D city and landscape models. These environments are generally characterized by a large number of objects and are of high complexity with respect to geometry and textures. For these reasons, their interactive 3D rendering represents a major challenge. Their 3D depiction implies a number of weaknesses such as occlusions, cluttered image contents, and partial screen-space usage. To overcome these limitations and, thus, to facilitate the effective communication of geo-information, principles of focus+context visualization can be used for the design of real-time 3D rendering techniques for 3D geovirtual environments (see Figure). In general, detailed views of a 3D geovirtual environment are combined seamlessly with abstracted views of the context within a single image. To perform the real-time image synthesis required for interactive visualization, dedicated parallel processors (GPUs) for rasterization of computer graphics primitives are used. For this purpose, the design and implementation of appropriate data structures and rendering pipelines are necessary. The contribution of this work comprises the following five real-time rendering methods: • The rendering technique for 3D generalization lenses enables the combination of different 3D city geometries (e.g., generalized versions of a 3D city model) in a single image in real time. The method is based on a generalized and fragment-precise clipping approach, which uses a compressible, raster-based data structure. It enables the combination of detailed views in the focus area with the representation of abstracted variants in the context area. • The rendering technique for the interactive visualization of dynamic raster data in 3D geovirtual environments facilitates the rendering of 2D surface lenses. It enables a flexible combination of different raster layers (e.g., aerial images or videos) using projective texturing for decoupling image and geometry data. Thus, various overlapping and nested 2D surface lenses of different contents can be visualized interactively. • The interactive rendering technique for image-based deformation of 3D geovirtual environments enables the real-time image synthesis of non-planar projections, such as cylindrical and spherical projections, as well as multi-focal 3D fisheye-lenses and the combination of planar and non-planar projections. • The rendering technique for view-dependent multi-perspective views of 3D geovirtual environments, based on the application of global deformations to the 3D scene geometry, can be used for synthesizing interactive panorama maps to combine detailed views close to the camera (focus) with abstract views in the background (context). This approach reduces occlusions, increases the usage the available screen space, and reduces the overload of image contents. • The object-based and image-based rendering techniques for highlighting objects and focus areas inside and outside the view frustum facilitate preattentive perception. The concepts and implementations of interactive image synthesis for focus+context visualization and their selected applications enable a more effective communication of spatial information, and provide building blocks for design and development of new applications and systems in the field of 3D geovirtual environments. N2 - Die Darstellung immer komplexerer raumbezogener Information durch Geovisualisierung stellt die existierenden Technologien und den Menschen ständig vor neue Herausforderungen. In dieser Arbeit werden fünf neue, echtzeitfähige Renderingverfahren und darauf basierende Anwendungen für die Fokus-&-Kontext-Visualisierung von interaktiven geovirtuellen 3D-Umgebungen – wie virtuelle 3D-Stadt- und Landschaftsmodelle – vorgestellt. Die große Menge verschiedener darzustellender raumbezogener Information in 3D-Umgebungen führt oft zu einer hohen Anzahl unterschiedlicher Objekte und somit zu einer hohen Geometrie- und Texturkomplexität. In der Folge verlieren 3D-Darstellungen durch Verdeckungen, überladene Bildinhalte und eine geringe Ausnutzung des zur Verfügung stehenden Bildraumes an Informationswert. Um diese Beschränkungen zu kompensieren und somit die Kommunikation raumbezogener Information zu verbessern, kann das Prinzip der Fokus-&-Kontext-Visualisierung angewendet werden. Hierbei wird die für den Nutzer wesentliche Information als detaillierte Ansicht im Fokus mit abstrahierter Kontextinformation nahtlos miteinander kombiniert. Um das für die interaktive Visualisierung notwendige Echtzeit-Rendering durchzuführen, können spezialisierte Parallelprozessoren für die Rasterisierung von computergraphischen Primitiven (GPUs) verwendet werden. Dazu ist die Konzeption und Implementierung von geeigneten Datenstrukturen und Rendering-Pipelines notwendig. Der Beitrag dieser Arbeit umfasst die folgenden fünf Renderingverfahren. • Das Renderingverfahren für interaktive 3D-Generalisierungslinsen: Hierbei wird die Kombination unterschiedlicher 3D-Szenengeometrien, z. B. generalisierte Varianten eines 3DStadtmodells, in einem Bild ermöglicht. Das Verfahren basiert auf einem generalisierten Clipping-Ansatz, der es erlaubt, unter Verwendung einer komprimierbaren, rasterbasierten Datenstruktur beliebige Bereiche einer 3D-Szene freizustellen bzw. zu kappen. Somit lässt sich eine Kombination von detaillierten Ansichten im Fokusbereich mit der Darstellung einer abstrahierten Variante im Kontextbereich implementieren. • Das Renderingverfahren zur Visualisierung von dynamischen Raster-Daten in geovirtuellen 3D-Umgebungen zur Darstellung von 2D-Oberflächenlinsen: Die Verwendung von projektiven Texturen zur Entkoppelung von Bild- und Geometriedaten ermöglicht eine flexible Kombination verschiedener Rasterebenen (z.B. Luftbilder oder Videos). Somit können verschiedene überlappende sowie verschachtelte 2D-Oberflächenlinsen mit unterschiedlichen Dateninhalten interaktiv visualisiert werden. • Das Renderingverfahren zur bildbasierten Deformation von geovirtuellen 3D-Umgebungen: Neben der interaktiven Bildsynthese von nicht-planaren Projektionen, wie beispielsweise zylindrischen oder sphärischen Panoramen, lassen sich mit diesem Verfahren multifokale 3D-Fischaugen-Linsen erzeugen sowie planare und nicht-planare Projektionen miteinander kombinieren. • Das Renderingverfahren für die Generierung von sichtabhängigen multiperspektivischen Ansichten von geovirtuellen 3D-Umgebungen: Das Verfahren basiert auf globalen Deformationen der 3D-Szenengeometrie und kann zur Erstellung von interaktiven 3D-Panoramakarten verwendet werden, welche beispielsweise detaillierte Absichten nahe der virtuellen Kamera (Fokus) mit abstrakten Ansichten im Hintergrund (Kontext) kombinieren. Dieser Ansatz reduziert Verdeckungen, nutzt den zur Verfügung stehenden Bildraum in verbesserter Weise aus und reduziert das Überladen von Bildinhalten. • Objekt-und bildbasierte Renderingverfahren für die Hervorhebung von Fokus-Objekten und Fokus-Bereichen innerhalb und außerhalb des sichtbaren Bildausschnitts, um die präattentive Wahrnehmung eines Benutzers besser zu unterstützen. Die in dieser Arbeit vorgestellten Konzepte, Entwürfe und Implementierungen von interaktiven Renderingverfahren zur Fokus-&-Kontext-Visualisierung sowie deren ausgewählte Anwendungen ermöglichen eine effektivere Kommunikation raumbezogener Information und repräsentieren softwaretechnische Bausteine für die Entwicklung neuer Anwendungen und Systeme im Bereich der geovirtuellen 3D-Umgebungen. KW - 3D Computer Grafik KW - Interaktives Rendering KW - Fokus-&-Kontext Visualisierung KW - 3D Computer Graphics KW - Interactive Rendering KW - Focus+Context Visualization Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66824 ER - TY - THES A1 - Thomas, Björn Daniel T1 - Analysis and management of low flows in small catchments of Brandenburg, Germany T1 - Analyse und Management von Niedrigwasserabflüssen in kleinen Flusseinzugsgebieten Brandenburgs N2 - Water management and environmental protection is vulnerable to extreme low flows during streamflow droughts. During the last decades, in most rivers of Central Europe summer runoff and low flows have decreased. Discharge projections agree that future decrease in runoff is likely for catchments in Brandenburg, Germany. Depending on the first-order controls on low flows, different adaption measures are expected to be appropriate. Small catchments were analyzed because they are expected to be more vulnerable to a changing climate than larger rivers. They are mainly headwater catchments with smaller ground water storage. Local characteristics are more important at this scale and can increase vulnerability. This thesis mutually evaluates potential adaption measures to sustain minimum runoff in small catchments of Brandenburg, Germany, and similarities of these catchments regarding low flows. The following guiding questions are addressed: (i) Which first-order controls on low flows and related time scales exist? (ii) Which are the differences between small catchments regarding low flow vulnerability? (iii) Which adaption measures to sustain minimum runoff in small catchments of Brandenburg are appropriate considering regional low flow patterns? Potential adaption measures to sustain minimum runoff during periods of low flows can be classified into three categories: (i) increase of groundwater recharge and subsequent baseflow by land use change, land management and artificial ground water recharge, (ii) increase of water storage with regulated outflow by reservoirs, lakes and wetland water management and (iii) regional low flow patterns have to be considered during planning of measures with multiple purposes (urban water management, waste water recycling and inter-basin water transfer). The question remained whether water management of areas with shallow groundwater tables can efficiently sustain minimum runoff. Exemplary, water management scenarios of a ditch irrigated area were evaluated using the model Hydrus-2D. Increasing antecedent water levels and stopping ditch irrigation during periods of low flows increased fluxes from the pasture to the stream, but storage was depleted faster during the summer months due to higher evapotranspiration. Fluxes from this approx. 1 km long pasture with an area of approx. 13 ha ranged from 0.3 to 0.7 l\s depending on scenario. This demonstrates that numerous of such small decentralized measures are necessary to sustain minimum runoff in meso-scale catchments. Differences in the low flow risk of catchments and meteorological low flow predictors were analyzed. A principal component analysis was applied on daily discharge of 37 catchments between 1991 and 2006. Flows decreased more in Southeast Brandenburg according to meteorological forcing. Low flow risk was highest in a region east of Berlin because of intersection of a more continental climate and the specific geohydrology. In these catchments, flows decreased faster during summer and the low flow period was prolonged. A non-linear support vector machine regression was applied to iteratively select meteorological predictors for annual 30-day minimum runoff in 16 catchments between 1965 and 2006. The potential evapotranspiration sum of the previous 48 months was the most important predictor (r²=0.28). The potential evapotranspiration of the previous 3 months and the precipitation of the previous 3 months and last year increased model performance (r²=0.49, including all four predictors). Model performance was higher for catchments with low yield and more damped runoff. In catchments with high low flow risk, explanatory power of long term potential evapotranspiration was high. Catchments with a high low flow risk as well as catchments with a considerable decrease in flows in southeast Brandenburg have the highest demand for adaption. Measures increasing groundwater recharge are to be preferred. Catchments with high low flow risk showed relatively deep and decreasing groundwater heads allowing increased groundwater recharge at recharge areas with higher altitude away from the streams. Low flows are expected to stay low or decrease even further because long term potential evapotranspiration was the most important low flow predictor and is projected to increase during climate change. Differences in low flow risk and runoff dynamics between catchments have to be considered for management and planning of measures which do not only have the task to sustain minimum runoff. N2 - Sowohl Gewässermanagement als auch die Gewässerökologie können durch extreme Niedrigwasserereignisse stark betroffen sein. In den letzten Jahrzehnten haben sowohl der Abfluss während der Sommermonate als auch die Niedrigwasserabflüsse in den meisten Flüssen Zentraleuropas abgenommen. Projektionen des zukünftigen Abflusses lassen einen weiteren Rückgang der Abflüsse aus Einzugsgebieten Brandenburgs erwarten. Anpassungsmaßnahmen zur Stützung von Niedrigwasserabflüssen müssen den hydrologischen Prozessen gerecht werden. In dieser Arbeit werden Kopfeinzugsgebiete mit kleineren Grundwasserspeichern betrachtet, weil sie anfälliger gegenüber dem Klimawandel erscheinen als größere. Lokale Gegebenheiten können darüber hinaus ihre Vulnerabilität erhöhen. In dieser Arbeit werden Ergebnisse über die ähnlichkeit von kleinen Einzugsgebieten verwendet, um geeignete Anpassungsmaßnahmen zur Stützung von Niedrigwasserabflüssen herauszuarbeiten. Folgende Leitfragen werden bearbeitet: (i) Was sind die maßgeblichen Prozesse und Zeitskalen, die zu Niedrigwasserabflüssen führen? (ii) Wie unterscheiden sich die Einzugsgebiete bezüglich ihrer Vulnerabilität? (iii) Was sind geeignete Anpassungsmaßnahmen unter Berücksichtigung der vorherrschenden Prozesse und ihrer räumlichen Muster? Mögliche Anpassungsmaßnahmen können in drei Kategorien unterteilt werden: (i) Landnutzungsänderungen, änderungen der Feldbewirtschaftung und künstliche Grundwasseranreicherung führen zur Erhöhung der Grundwasserneubildung und somit des Basisabflusses. (ii) Talsperren, Seen, Teiche und ein entsprechendes Wassermanagement in Feuchtgebieten eignen sich zur Wasserspeicherung und regulierten Wasserabgabe. (iii) Maßnahmen bei deren Planung Wissen über Niedrigwasserabflüsse einfließen muss, aber die Stützung von Niedrigwasserabflüssen nicht die einzige Aufgabe ist (Siedlungswassermanagement, Abwassermanagement und Wasserüberleitungen zwischen Einzugsgebieten). Darüber hinaus wurde die Effektivität ufernaher Grundwasseranreicherung durch bestehende Bewässerungsgräben explizit an einem Standort unter Verwendung des Models Hydrus-2D quantifiziert. Hohe Wasserstände in den Gräben und das Unterbrechen der Wassereinleitung führten zu einer Niedrigwasseraufhöhung. Im Sommer wurde der Wasserspeicher wegen der Verdunstung schneller verbraucht. Je nach Szenario betrug die Niedrigwasseraufhöhung, die von der ca. 1 km langen und 13 ha großen Fläche ausging, zwischen 0.3 und 0.7 l/s. Eine Vielzahl solcher dezentraler Maßnahmen wären für eine deutliche Stützung der Niedrigwasserabflüsse in mesoskaligen Einzugsgebieten notwendig. Das Niedrigwasserrisiko sowie meteorologische Niedrigwasserprädiktoren wurden vergleichend analysiert. Der tägliche Abfluss aus 37 Einzugsgebieten zwischen 1991 und 2006 wurde mittels einer Hauptkomponentenanalyse ausgewertet. Der Abfluss in Südost Brandenburg ging klimabedingt stärker zurück. Das Niedrigwasserrisiko war in der Region östlich Berlins als Folge des kontinentaleren Klimas und der lokalen geohydrologischen Verhältnisse am größten. Diese Einzugsgebiete zeigten einen relativ schnellen Abflussrückgang während der Sommermonate und eine längere Niedrigwasserperiode. Darüber hinaus wurde eine nichtlineare Support Vektor Machine Regression zur iterativen Bestimmung der meteorologischen Prädiktoren für den jährlichen Niedrigwasserabfluss im 30-Tage Mittel in 16 Einzugsgebieten zwischen 1965 und 2006 durchgeführt. Die potentielle Verdunstungshöhe der vorhergegangenen 48 Monate war der wichtigste Prädiktor (r²=0.28). Die potentielle Verdunstungshöhe der vorhergegangenen 3 Monate sowie die Niederschlagshöhe der vorhergegangenen 3 Monate und des letzten Jahres verbesserten die Modellgüte zusätzlich (r²=0.49, für alle vier Prädiktoren). Die Modellgüte war höher in Einzugsgebieten mit geringer Abflussspende und gedämpftem Abflussverhalten. In Einzugsgebieten mit hohem Niedrigwasserrisiko war die potentielle Langzeitverdunstung wichtiger, um Niedrigwasserabflüsse zu erklären. In Einzugsgebieten mit hohem Niedrigwasserrisiko östlich von Berlin und deutlichem Abflussrückgang im Südosten Brandenburgs besteht der höchste Anpassungsbedarf. Maßnahmen zur Erhöhung der Grundwasserneubildung sollten bevorzugt werden. Einzugsgebiete mit hohem Niedrigwasserrisiko haben verhältnismäßig tiefe Grundwasserstände, was eine Erhöhung der Grundwasserneubildung in den höher gelegenen Neubildungsgebieten möglich und sinnvoll macht. Es ist davon auszugehen, dass Niedrigwasserabflüsse weiterhin niedrig bleiben oder sogar weiter fallen werden, da die potentielle Langzeitverdunstung der wichtigste Prädiktor war und Klimamodelle einen weiteren Anstieg dieser projizieren. Des Weiteren sind die Ergebnisse dieser Arbeit wichtig für die integrierte Planung von Maßnahmen, die nicht ausschließlich die Stützung von Niedrigwasserabflüssen zur Aufgabe haben. KW - regionale Hydrologie KW - Niedrigwasser KW - Einzugsgebietsklassifizierung KW - multivariate Statistik KW - Datenanalyse KW - landscape hydrology KW - low flow KW - catchment classification KW - multivariate statistics KW - data analysis Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69247 ER - TY - THES A1 - Theves, Matthias T1 - Bacterial motility and growth in open and confined environments T1 - Bacterial motility and growth in open and confined environments N2 - In the presence of a solid-liquid or liquid-air interface, bacteria can choose between a planktonic and a sessile lifestyle. Depending on environmental conditions, cells swimming in close proximity to the interface can irreversibly attach to the surface and grow into three-dimensional aggregates where the majority of cells is sessile and embedded in an extracellular polymer matrix (biofilm). We used microfluidic tools and time lapse microscopy to perform experiments with the polarly flagellated soil bacterium Pseudomonas putida (P. putida), a bacterial species that is able to form biofilms. We analyzed individual trajectories of swimming cells, both in the bulk fluid and in close proximity to a glass-liquid interface. Additionally, surface related growth during the early phase of biofilm formation was investigated. In the bulk fluid, P.putida shows a typical bacterial swimming pattern of alternating periods of persistent displacement along a line (runs) and fast reorientation events (turns) and cells swim with an average speed around 24 micrometer per second. We found that the distribution of turning angles is bimodal with a dominating peak around 180 degrees. In approximately six out of ten turning events, the cell reverses its swimming direction. In addition, our analysis revealed that upon a reversal, the cell systematically changes its swimming speed by a factor of two on average. Based on the experimentally observed values of mean runtime and rotational diffusion, we presented a model to describe the spreading of a population of cells by a run-reverse random walker with alternating speeds. We successfully recover the mean square displacement and, by an extended version of the model, also the negative dip in the directional autocorrelation function as observed in the experiments. The analytical solution of the model demonstrates that alternating speeds enhance a cells ability to explore its environment as compared to a bacterium moving at a constant intermediate speed. As compared to the bulk fluid, for cells swimming near a solid boundary we observed an increase in swimming speed at distances below d= 5 micrometer and an increase in average angular velocity at distances below d= 4 micrometer. While the average speed was maximal with an increase around 15% at a distance of d= 3 micrometer, the angular velocity was highest in closest proximity to the boundary at d=1 micrometer with an increase around 90% as compared to the bulk fluid. To investigate the swimming behavior in a confinement between two solid boundaries, we developed an experimental setup to acquire three-dimensional trajectories using a piezo driven objective mount coupled to a high speed camera. Results on speed and angular velocity were consistent with motility statistics in the presence of a single boundary. Additionally, an analysis of the probability density revealed that a majority of cells accumulated near the upper and lower boundaries of the microchannel. The increase in angular velocity is consistent with previous studies, where bacteria near a solid boundary were shown to swim on circular trajectories, an effect which can be attributed to a wall induced torque. The increase in speed at a distance of several times the size of the cell body, however, cannot be explained by existing theories which either consider the drag increase on cell body and flagellum near a boundary (resistive force theory) or model the swimming microorganism by a multipole expansion to account for the flow field interaction between cell and boundary. An accumulation of swimming bacteria near solid boundaries has been observed in similar experiments. Our results confirm that collisions with the surface play an important role and hydrodynamic interactions alone cannot explain the steady-state accumulation of cells near the channel walls. Furthermore, we monitored the number growth of cells in the microchannel under medium rich conditions. We observed that, after a lag time, initially isolated cells at the surface started to grow by division into colonies of increasing size, while coexisting with a comparable smaller number of swimming cells. After 5:50 hours, we observed a sudden jump in the number of swimming cells, which was accompanied by a breakup of bigger clusters on the surface. After approximately 30 minutes where planktonic cells dominated in the microchannel, individual swimming cells reattached to the surface. We interpret this process as an emigration and recolonization event. A number of complementary experiments were performed to investigate the influence of collective effects or a depletion of the growth medium on the transition. Similar to earlier observations on another bacterium from the same family we found that the release of cells to the swimming phase is most likely the result of an individual adaption process, where syntheses of proteins for flagellar motility are upregulated after a number of division cycles at the surface. N2 - Bakterien sind einzellige Mikroorganismen, die sich in flüssigem Medium mit Hilfe von rotierenden Flagellen, länglichen Fasern aus Proteinen, schwimmend fortbewegen. In Gegenwart einer Grenzfläche und unter günstigen Umweltbedingungen siedeln sich Bakterien an der Oberfläche an und gehen in eine sesshafte Wachstumsphase über. Die Wachstumsphase an der Oberfläche ist gekennzeichnet durch das Absondern von klebrigen, nährstoffreichen extrazellulären Substanzen, welche die Verbindung der Bakterien untereinander und mit der Oberfläche verstärken. Die entstehenden Aggregate aus extrazellulärer Matrix und Bakterien werden als Biofilm bezeichnet. In der vorliegenden Arbeit untersuchten wir ein Bodenbakterium, Pseudomonas putida (P. putida), welches in wässriger Umgebung an festen Oberflächen Biofilme ausbildet. Wir benutzten photolithographisch hergestellte Mikrokanäle und Hochgeschwindigkeits-Videomikroskopie um die Bewegung schwimmender Zellen in verschiedenen Abständen zu einer Glasoberfläche aufzunehmen. Zusätzlich wurden Daten über das parallel stattfindende Wachstum der sesshaften Zellen an der Oberfläche aufgezeichnet. Die Analyse von Trajektorien frei schwimmender Zellen zeigte, dass sich Liniensegmente, entlang derer sich die Zellen in eine konstante Richtung bewegen, mit scharfen Kehrtwendungen mit einem Winkel von 180 Grad abwechseln. Dabei änderte sich die Schwimmgeschwindigket von einem zum nächsten Segment im Mittel um einen Faktor von 2. Unsere experimentellen Daten waren die Grundlage für ein mathematisches Modell zur Beschreibung der Zellbewegung mit alternierender Geschwindigkeit. Die analytische Lösung des Modells zeigt elegant, dass eine Population von Bakterien, welche zwischen zwei Geschwindigkeiten wechseln, signifikant schneller expandiert als eine Referenzpopulation mit Bakterien konstanter Schwimmgeschwindkeit. Im Vergleich zu frei schwimmenden Bakterien beobachteten wir in der Nähe der Oberfläche eine um 15% erhöhte Schwimmgeschwindigkeit der Zellen und eine um 90 % erhöhte Winkel-geschwindigkeit. Außerdem wurde eine signifikant höhere Zelldichte in der Nähe der Grenzfläche gemessen. Während sich der Anstieg in der Winkelgeschwindigkeit durch ein Drehmoment erklären lässt, welches in Oberflächennähe auf den rotierenden Zellkörper und die rotierenden Flagellen wirkt, kann die Beschleunigung und Akkumulation der Zellen bei dem beobachteten Abstand nicht durch existierende Theorien erklärt werden. Unsere Ergebnisse lassen vermuten, dass neben hydrodynamischen Effekten auch Kollisionen mit der Oberfläche eine wichtige Rolle spielen und sich die Rotationsgeschwindigkeit der Flagellenmotoren in der Nähe einer festen Oberfläche grundsätzlich verändert. Unsere Experimente zum Zellwachstum an Oberflächen zeigten, dass sich etwa sechs Stunden nach Beginn des Experiments größere Kolonien an der Kanaloberfläche auflösen und Zellen für ca. 30 Minuten zurück in die schwimmende Phase wechseln. Ergebnisse von mehreren Vergleichsexperimenten deuten darauf hin, dass dieser Übergang nach einer festen Anzahl von Zellteilungen an der Oberfläche erfolgt und nicht durch den Verbrauch des Wachstumsmediums bedingt wird. KW - Pseudomonas putida KW - Motilität KW - Flagellenbewegung KW - Random-Walk-Theorie KW - Schwimmende Mikroorganismen KW - pseudomonas putida KW - motility KW - flagellar filaments KW - random walk KW - cell tracking Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70313 ER - TY - THES A1 - Thalmann, Sophie T1 - Korrelation zwischen der genetischen und der funktionellen Diversität humaner Bitterrezeptoren T1 - Correlation between the genetic and the functional diversity of bitter receptors N2 - Der Mensch besitzt ~25 funktionelle Bitterrezeptoren (TAS2R), die für die Wahrnehmung potenziell toxischer Substanzen in der Nahrung verantwortlich sind. Aufgrund der großen genetischen Variabilität der TAS2R-Gene könnte es eine Vielzahl funktionell unterschiedlicher TAS2R-Haplotypen geben, die zu Unterschieden der Bitterwahrnehmung führen. Dies konnte bereits in funktionellen Analysen und sensorischen Studien für einzelne Bitterrezeptoren gezeigt werden. In dieser Arbeit wurden die häufigsten Haplotypen aller 25 Bitterrezeptoren verschiedener Ethnien funktionell charakterisiert. Das Ziel war eine umfassende Aussage über die funktionelle Diversität der TAS2Rs, die die molekulare Grundlage für individuelle Bitterwahrnehmung bildet, treffen zu können. Fehlende Varianten wurden aus genomischer DNA kloniert oder durch gezielte Mutagenese bereits vorhandener TAS2R-Konstrukte generiert. Die funktionelle Analyse erfolgte mittels Expression der TAS2R-Haplotypen in HEK293TG16gust44 Zellen und anschließenden Calcium-Imaging-Experimenten mit zwei bekannten Agonisten. Die Haplotypen der fünf orphanen TAS2Rs wurden mit über hundert Bitterstoffen stimuliert. Durch die gelungene Deorphanisierung des TAS2R41 in dieser Arbeit, wurden für die 21 aktivierbaren TAS2Rs 36 funktionell-unterschiedliche Haplotypen identifiziert. Die tatsächliche funktionelle Vielfalt blieb jedoch deutlich hinter der genetischen Variabilität der TAS2Rs zurück. Neun Bitterrezeptoren wiesen funktionell homogene Haplotypen auf oder besaßen nur eine weltweit vorherrschende Variante. Funktionell heterogene Haplotypen wurden für zwölf TAS2Rs identifiziert. Inaktive Varianten der Rezeptoren TAS2R9, TAS2R38 und TAS2R46 sollten die Wahrnehmung von Bitterstoffen wie Ofloxacin, Cnicin, Hydrocortison, Limonin, Parthenolid oder Strychnin beeinflussen. Unterschiedlich sensitive Varianten, besonders der Rezeptoren TAS2R47 und TAS2R49, sollten für Agonisten wie Absinthin, Amarogentin oder Cromolyn ebenfalls zu phänotypischen Unterschieden führen. Wie für den TAS2R16 bereits gezeigt, traten Haplotypen des funktionell heterogenen TAS2R7 und TAS2R41 ethnien-spezifisch auf, was auf lokale Anpassung und verschiedene Phänotypen hinweisen könnte. Weiterführend muss nun eine Analyse der funktionell-variablen TAS2Rs in sensorischen Tests erfolgen, um ihre phänotypische Relevanz zu prüfen. Die Analyse der funktionsmodulierenden Aminosäurepositionen, z.Bsp. des TAS2R44, TAS2R47 oder TAS2R49, könnte weiterführend zum besseren Verständnis der Rezeptor-Ligand- und Rezeptor-G-Protein-Interaktion beitragen. N2 - Bitter taste perception varies markedly from person to person, due to a high number of polymorphisms present in the 25 known functional bitter receptors (TAS2Rs). These polymorphisms lead to a number of haplotypes for each receptor, which are common in different populations, but vary in frequency. The individual combination of receptor variants seems to determine the person’s sensitivity of bitter perception, as could already be shown for single TAS2Rs. Bitter is an aversive taste quality, indicating the ingestion of harmful substances. Different sensitivity could have an impact on food choice. In order to characterize functional consequences of the genetic diversity, we performed calcium imaging experiments with all main haplotypes for the 25 bitter receptors. The obtained information about receptor properties enables us on the one hand to analyze structure-function relationships and on the other hand gives us the functional diverse candidates to focus on in psychophysical studies. The overall aim is to show genotype-phenotype correlation for bitter taste perception and their impact on food choice and therefore diet and health. Our first aim was to identify agonists for the 5 receptors, which could not be deorphaned in previous screens. We challenged all main haplotypes of these TAS2Rs with 106 bitter compounds and could identify the antibiotic chloramphenicol as agonist for bitter receptor TAS2R41. In total we identified 36 functionally different receptor variants of the 21 deorphaned TAS2Rs. Main haplotypes of nine TAS2Rs were functionally homogeneous while twelve TAS2Rs possessed between two and three functionally heterogeneous receptor variants. In summary the observed functional diversity is not as big as expected. Based on our in vitro findings the shown functional diversity of these twelve bitter receptors might be the molecular basis for individual differences in bitter taste perception and will be further analyzed in psychophysical studies. KW - Bittergeschmack KW - TAS2R KW - heterologe Expression KW - funktionelle Variabilität KW - bitter taste KW - TAS2R KW - heterologous expression KW - functional diversity Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66845 ER - TY - THES A1 - Takey, Ali Said Ahmed T1 - The XMM-Newton/SDSS galaxy cluster survey T1 - Die XMM-Newton/SDSS Galaxienhaufen-Durchmusterung N2 - Galaxy clusters are the largest known gravitationally bound objects, their study is important for both an intrinsic understanding of their systems and an investigation of the large scale structure of the universe. The multi- component nature of galaxy clusters offers multiple observable signals across the electromagnetic spectrum. At X-ray wavelengths, galaxy clusters are simply identified as X-ray luminous, spatially extended, and extragalactic sources. X-ray observations offer the most powerful technique for constructing cluster catalogues. The main advantages of the X-ray cluster surveys are their excellent purity and completeness and the X-ray observables are tightly correlated with mass, which is indeed the most fundamental parameter of clusters. In my thesis I have conducted the 2XMMi/SDSS galaxy cluster survey, which is a serendipitous search for galaxy clusters based on the X-ray extended sources in the XMM-Newton Serendipitous Source Catalogue (2XMMi-DR3). The main aims of the survey are to identify new X-ray galaxy clusters, investigate their X-ray scaling relations, identify distant cluster candidates, and study the correlation of the X-ray and optical properties. The survey is constrained to those extended sources that are in the footprint of the Sloan Digital Sky Survey (SDSS) in order to be able to identify the optical counterparts as well as to measure their redshifts that are mandatory to measure their physical properties. The overlap area be- tween the XMM-Newton fields and the SDSS-DR7 imaging, the latest SDSS data release at the starting of the survey, is 210 deg^2. The survey comprises 1180 X-ray cluster candidates with at least 80 background-subtracted photon counts, which passed the quality control process. To measure the optical redshifts of the X-ray cluster candidates, I used three procedures; (i) cross-matching these candidates with the recent and largest optically selected cluster catalogues in the literature, which yielded the photometric redshifts of about a quarter of the X-ray cluster candidates. (ii) I developed a finding algorithm to search for overdensities of galaxies at the positions of the X-ray cluster candidates in the photometric redshift space and to measure their redshifts from the SDSS-DR8 data, which provided the photometric redshifts of 530 groups/clusters. (iii) I developed an algorithm to identify the cluster candidates associated with spectroscopically targeted Luminous Red Galaxies (LRGs) in the SDSS-DR9 and to measure the cluster spectroscopic redshift, which provided 324 groups and clusters with spectroscopic confirmation based on spectroscopic redshift of at least one LRG. In total, the optically confirmed cluster sample comprises 574 groups and clusters with redshifts (0.03 ≤ z ≤ 0.77), which is the largest X-ray selected cluster catalogue to date based on observations from the current X-ray observatories (XMM-Newton, Chandra, Suzaku, and Swift/XRT). Among the cluster sample, about 75 percent are newly X-ray discovered groups/clusters and 40 percent are new systems to the literature. To determine the X-ray properties of the optically confirmed cluster sample, I reduced and analysed their X-ray data in an automated way following the standard pipelines of processing the XMM-Newton data. In this analysis, I extracted the cluster spectra from EPIC(PN, MOS1, MOS2) images within an optimal aperture chosen to maximise the signal-to-noise ratio. The spectral fitting procedure provided the X-ray temperatures kT (0.5 - 7.5 keV) for 345 systems that have good quality X-ray data. For all the optically confirmed cluster sample, I measured the physical properties L500 (0.5 x 10^42 – 1.2 x 10^45 erg s-1 ) and M500 (1.1 x 10^13 – 4.9 x 10^14 M⊙) from an iterative procedure using published scaling relations. The present X-ray detected groups and clusters are in the low and intermediate luminosity regimes apart from few luminous systems, thanks to the XMM-Newton sensitivity and the available XMM-Newton deep fields The optically confirmed cluster sample with measurements of redshift and X-ray properties can be used for various astrophysical applications. As a first application, I investigated the LX - T relation for the first time based on a large cluster sample of 345 systems with X-ray spectroscopic parameters drawn from a single survey. The current sample includes groups and clusters with wide ranges of redshifts, temperatures, and luminosities. The slope of the relation is consistent with the published ones of nearby clusters with higher temperatures and luminosities. The derived relation is still much steeper than that predicted by self-similar evolution. I also investigated the evolution of the slope and the scatter of the LX - T relation with the cluster redshift. After excluding the low luminosity groups, I found no significant changes of the slope and the intrinsic scatter of the relation with redshift when dividing the sample into three redshift bins. When including the low luminosity groups in the low redshift subsample, I found its LX - T relation becomes after than the relation of the intermediate and high redshift subsamples. As a second application of the optically confirmed cluster sample from our ongoing survey, I investigated the correlation between the cluster X-ray and the optical parameters that have been determined in a homogenous way. Firstly, I investigated the correlations between the BCG properties (absolute magnitude and optical luminosity) and the cluster global proper- ties (redshift and mass). Secondly, I computed the richness and the optical luminosity within R500 of a nearby subsample (z ≤ 0.42, with a complete membership detection from the SDSS data) with measured X-ray temperatures from our survey. The relation between the estimated optical luminosity and richness is also presented. Finally, the correlation between the cluster optical properties (richness and luminosity) and the cluster global properties (X-ray luminosity, temperature, mass) are investigated. N2 - Im Rahmen dieser Arbeit habe ich die 2XMMi/SDSS Galaxienhaufendurchmusterung erstellt (2XMMi/SDSS galaxy cluster survey), eine Suche nach Galaxienhaufen welche auf der Detektion ausgedehnter Röntgenquellen im XMM-Newton Quellenkatalog (2XMMi-DR3) basiert. Die Hauptziele dieser Suche sind die Identifizierung bisher unbekannter röntgenheller Galaxienhaufen, die Erforschung ihrer Beziehungen zwischen Röntgenleuchtkraft und Temperatur (X-ray scaling relation), eine Entdeckung von möglichen weit entfernten Galaxienhaufen und die Beziehung zwischen Eigenschaften im Optischen und Röntgenbereich. Die Durchmusterung ist für alle Quellen der Himmelsregionen ausgelegt, die vom Sloan Digital Sky Survey (SDSS) erfasst werden. Das Ziel besteht darin, ihre optischen Gegenstücke zu finden und deren Rotverschiebungen zu bestimmen. Die gemeinsamen Himmelsareale zwischen XMM-Newton und dem Bildmaterial vom SDSS-DR7 umfassen 210 deg^2. Meine Durchmusterung enthält 1180 mögliche Galaxienhaufen mit wenigstens 80 vom Hintergrund bereinigten Photonen im Röntgenbereich, die einer Qualitätskontrolle erfolgreich standgehalten haben. Um die Rotverschiebungen der möglichen Galaxienhaufen im optischen Bereich zu bestimmen nutzte ich drei Vorgehensweisen: (i) Ein Abgleich jener Kandidaten mit den neuesten und umfangreichsten Katalogen optisch ausgewählter Galaxienhaufen, die in der Literatur verfügbar sind. (ii) Ich entwickelte einen Algorithmus, um Rotverschiebungen der optischen Gegenstücke aus Daten vom SDSS-DR8 zu ermitteln, welches zu photometrischen Rotverschiebungen von 530 Galaxiengruppen-/haufen führte. (iii) Ein weiterer von mir entwickelter Algorithmus nutzte die spektroskopischen Rotverschiebung von roten leuchtkräftigen Galaxien (LRGs) in den Daten des SDSS-DR9 und ergab 324 Gruppen und Haufen. Zusammengefasst enthält diese Probe 574 auch im optischen nachgewiesener Galaxiengruppen und -haufen mit bekannten Rotverschiebungen (0.03 ≤ z ≤ 0.77) - der zur Zeit umfangreichste Katalog von im Röntgenbereich ausgewählten Galaxienhaufen basierend auf aktuellen Röntgenbeobachtungen. Unter jenen Haufen waren ca. 75% im Röntgenbereich nicht bekannt und 40% fanden in der bisherigen Literatur noch keine Erwähnung. Um die Röntgeneigenschaften der im Optischen bestätigten Haufen zu bestimmen, war eine automatische Reduktion und Analyse der Röntgendaten unverzichtbar. Die Prozedur, welche Modelle an die Röntgenspektren anpasste, ergab Temperaturen kT von 0.5 – 7.5 keV für 345 Kandidaten. Für alle Haufen, die auch im optischen auffindbar waren, bestimmte ich die physikalischen Eigenschaften L500 (0.5 x 10^42 – 1.2 x 10^45 erg s^-1) und M500 (1.1 x 10^13 – 4.9 x 10^14 M⊙). Die Probe optisch bestätigter Galaxienhaufen mit gemessenen Rotverschiebungen und Röntgeneigenschaften kann für viele astrophysikalische Anwendungen genutzt werden. Als eine der ersten Anwendungen betrachtete ich die Beziehung zwischen LX - T; das erste Mal für eine so grosse Anzahl von 345 Objekten. Der aktuelle Katalog enthält Gruppen und Haufen, die einen grossen Bereich in Rotverschiebung, Temperatur und Helligkeit abdecken. Der Anstieg jener Beziehung ist im Einklang mit bereits publizierten Werten für nahegelegene Galaxienhaufen von hoher Temperatur und Helligkeit. Nach dem Ausschluss leuchtschwacher Gruppen und der Einteilung der Daten in drei nach Rotverschiebung geordneter Gruppen, waren keine signifikanten Änderungen von Anstieg und intrinsischer Streuung zu beobachten. Als zweite Anwendung unserer Durchmusterung, untersuchte ich die Haufen bezüglich deren Eigenschaften im Optischen und im Röntgenbereich. Zuerst betrachtete ich den Zusammenhang zwischen den Eigenschaften (absolute Helligkeit und optische Leuchkraft) der hellsten Haufengalaxie (BCG) mit denen des Haufens als Ganzem (Rotverschiebung und Masse). Danach berechnete ich die Reichhaltigkeit der Galaxienhaufen und deren optische Leuchtkraft innerhalb von R500 für eine Stichprobe nahegelegener Haufen (z ≤ 0.42, hier sind SDSS Daten noch empfindlich genug um den Grossteil der Haufengalaxien abzubilden) mit gemessenen Röntgentemperaturen. Schlussendlich konnten dieWechselwirkungen zwischen den optischen Eigenschaften (Reichhaltigkeit und Leuchtkraft) und den globalen Eigenschaften (Röntgenleuchtkraft, Temperatur und Masse) näher untersucht werden. KW - hochenergetische Astrophysik KW - Röntgenastronomie KW - Galaxienhaufen KW - high energy astrophysics KW - X-ray astronomy KW - clusters of galaxies Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71229 ER - TY - THES A1 - Sütterlin, Martin T1 - New inverse hydogel opals as protein responsive sensors T1 - Neue inverse Hydrogelopale als proteinresponsive Sensoren N2 - In this work, the development of temperature- and protein-responsive sensor materials based on biocompatible, inverse hydrogel opals (IHOs) is presented. With these materials, large biomolecules can be specifically recognised and the binding event visualised. The preparation of the IHOs was performed with a template process, for which monodisperse silica particles were vertically deposited onto glass slides as the first step. The obtained colloidal crystals with a thickness of 5 μm displayed opalescent reflections because of the uniform alignment of the colloids. As a second step, the template was embedded in a matrix consisting of biocompatible, thermoresponsive hydrogels. The comonomers were selected from the family of oligo(ethylene glycol)methacrylates. The monomer solution was injected into a polymerisation mould, which contained the colloidal crystals as a template. The space in-between the template particles was filled with the monomer solution and the hydrogel was cured via UV-polymerisation. The particles were chemically etched, which resulted in a porous inner structure. The uniform alignment of the pores and therefore the opalescent reflection were maintained, so these system were denoted as inverse hydrogel opals. A pore diameter of several hundred nanometres as well as interconnections between the pores should facilitate a diffusion of bigger (bio)molecules, which was always a challenge in the presented systems until now. The copolymer composition was chosen to result in a hydrogel collapse over 35 °C. All hydrogels showed pronounced swelling in water below the critical temperature. The incorporation of a reactive monomer with hydroxyl groups ensured a potential coupling group for the introduction of recognition units for analytes, e.g. proteins. As a test system, biotin as a recognition unit for avidin was coupled to the IHO via polymer-analogous Steglich esterification. The amount of accessible biotin was quantified with a colorimetric binding assay. When avidin was added to the biotinylated IHO, the wavelength of the opalescent reflection was significantly shifted and therefore the binding event was visualised. This effect is based on the change in swelling behaviour of the hydrogel after binding of the hydrophilic avidin, which is amplified by the thermoresponsive nature of the hydrogel. A swelling or shrinking of the pores induces a change in distance of the crystal planes, which are responsible for the colour of the reflection. With these findings, the possibility of creating sensor materials or additional biomolecules in the size range of avidin is given. N2 - In dieser Arbeit wird die Entwicklung von temperatur- und proteinresponsiven Sensormaterialien auf Basis von biokompatiblen, inversen Hydrogelopalen (IHO) vorgestellt, mit welchen die spezifische Erkennung größerer Biomoleküle visuell ausgelesen werden kann. Die Darstellung der IHOs erfolgte mittels Templatverfahren, bei dem im ersten Schritt monodisperse Silicapartikel vertikal auf Objektträger abgeschieden wurden. Die so erhaltenen Kolloidkristalle mit einer Dicke von 5 μm zeigten opaleszente Reflexionen aufgrund der gleichförmigen Anordnung der Partikel. Im zweiten Schritt wurde das Templat in eine Matrix aus biokompatiblen, thermoresponsiven Hydrogelen eingebettet. Die Comonomere wurden aus der Familie der Oligo(ethylenglykol)methacrylate ausgewählt. Zur Synthese des Hydrogels wurde die Monomerlösung in eine Polymerisationsform injiziert, welche die Kolloidkristalle als Templat beinhaltete. Die Zwischenräume der Templatpartikel wurden mit der Monomerlösung gefüllt und das Hydrogelnetzwerk per UV-Polymerisation erhalten. Die Templatpartikel wurden anschließend nasschemisch heraus gelöst, so dass eine poröse innere Struktur erhalten wurde. Die regelmäßige Anordnung der Poren und damit die opaleszenten Reflexionen wurden dabei beibehalten, so dass diese Systeme als inverse Hydorgelopale bezeichnet werden. Ein Porendurchmesser von mehreren hundert Nanometer, sowie durchgängige Verbindungskanäle zwischen den einzelnen Poren sollten eine Diffusion von großen (Bio)molekülen erleichtern, was bei bisherigen Systemen ein Problem darstellte. Die Copolymerzusammensetzung wurde dabei so gewählt, dass ein Kollaps des Hydrogels über 35 °C stattfand. Alle Hydrogele zeigten ausgeprägte Quellung in Wasser unterhalb der kritischen Temperatur. Der Einbau von reaktiven Comonomeren mit Hydroxylgruppen gewährleistete dabei die Funktionalisierbarkeit des Hydrogels mit Erkennungsgruppen für entsprechende Analytmoleküle, wie z.B. Proteine. Als Testsystem wurde Biotin als Erkennungseinheit für Avidin in das Hydrogel mittels polymeranaloger Steglich Veresterung eingebaut. Die Menge an zugänglichem Biotin wurde dabei per colorimetrischem Bindungsassay quantifiziert. Dabei zeigte sich, dass sich die Wellenlänge der Reflexion nach Zugabe von Avidin zum biotinylierten inversen Hydrogelopal signifikant verschob und damit das Bindungsereignis visuell auslesbar ist. Dieser Effekt beruht auf dem veränderten Quellungsverhalten des Hydrogels nach Bindung des hydrophilen Proteins Avidin in Wasser, welches durch den thermosresponsiven Charakter des Hydrogels verstärkt ist. Ein Aufweiten oder Schrumpfen der Poren ändert die Abstände der gleichmäßig angeordneten Poren, welche für die Farbe des inversen Opals verantwortlich sind. Auf Basis dieser Erkenntnisse lassen sich möglicherweise Sensormaterialen für die Erkennung weiterer Biomoleküle in der Größenordnung von Avidin erstellen. KW - hydrogel KW - opal KW - protein KW - responsive KW - sensor Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70179 ER - TY - THES A1 - Steinmetz, Nadine T1 - Context-aware semantic analysis of video metadata T1 - Kontextbezogene, semantische Analyse von Videometadaten N2 - Im Vergleich zu einer stichwortbasierten Suche ermöglicht die semantische Suche ein präziseres und anspruchsvolleres Durchsuchen von (Web)-Dokumenten, weil durch die explizite Semantik Mehrdeutigkeiten von natürlicher Sprache vermieden und semantische Beziehungen in das Suchergebnis einbezogen werden können. Eine semantische, Entitäten-basierte Suche geht von einer Anfrage mit festgelegter Bedeutung aus und liefert nur Dokumente, die mit dieser Entität annotiert sind als Suchergebnis. Die wichtigste Voraussetzung für eine Entitäten-zentrierte Suche stellt die Annotation der Dokumente im Archiv mit Entitäten und Kategorien dar. Textuelle Informationen werden analysiert und mit den entsprechenden Entitäten und Kategorien versehen, um den Inhalt semantisch erschließen zu können. Eine manuelle Annotation erfordert Domänenwissen und ist sehr zeitaufwendig. Die semantische Annotation von Videodokumenten erfordert besondere Aufmerksamkeit, da inhaltsbasierte Metadaten von Videos aus verschiedenen Quellen stammen, verschiedene Eigenschaften und Zuverlässigkeiten besitzen und daher nicht wie Fließtext behandelt werden können. Die vorliegende Arbeit stellt einen semantischen Analyseprozess für Video-Metadaten vor. Die Eigenschaften der verschiedenen Metadatentypen werden analysiert und ein Konfidenzwert ermittelt. Dieser Wert spiegelt die Korrektheit und die wahrscheinliche Mehrdeutigkeit eines Metadatums wieder. Beginnend mit dem Metadatum mit dem höchsten Konfidenzwert wird der Analyseprozess innerhalb eines Kontexts in absteigender Reihenfolge des Konfidenzwerts durchgeführt. Die bereits analysierten Metadaten dienen als Referenzpunkt für die weiteren Analysen. So kann eine möglichst korrekte Analyse der heterogen strukturierten Daten eines Kontexts sichergestellt werden. Am Ende der Analyse eines Metadatums wird die für den Kontext relevanteste Entität aus einer Liste von Kandidaten identifiziert - das Metadatum wird disambiguiert. Hierfür wurden verschiedene Disambiguierungsalgorithmen entwickelt, die Beschreibungstexte und semantische Beziehungen der Entitätenkandidaten zum gegebenen Kontext in Betracht ziehen. Der Kontext für die Disambiguierung wird für jedes Metadatum anhand der Eigenschaften und Konfidenzwerte zusammengestellt. Der vorgestellte Analyseprozess ist an zwei Hypothesen angelehnt: Um die Analyseergebnisse verbessern zu können, sollten die Metadaten eines Kontexts in absteigender Reihenfolge ihres Konfidenzwertes verarbeitet werden und die Kontextgrenzen von Videometadaten sollten durch Segmentgrenzen definiert werden, um möglichst Kontexte mit kohärentem Inhalt zu erhalten. Durch ausführliche Evaluationen konnten die gestellten Hypothesen bestätigt werden. Der Analyseprozess wurden gegen mehrere State-of-the-Art Methoden verglichen und erzielt verbesserte Ergebnisse in Bezug auf Recall und Precision, besonders für Metadaten, die aus weniger zuverlässigen Quellen stammen. Der Analyseprozess ist Teil eines Videoanalyse-Frameworks und wurde bereits erfolgreich in verschiedenen Projekten eingesetzt. N2 - The Semantic Web provides information contained in the World Wide Web as machine-readable facts. In comparison to a keyword-based inquiry, semantic search enables a more sophisticated exploration of web documents. By clarifying the meaning behind entities, search results are more precise and the semantics simultaneously enable an exploration of semantic relationships. However, unlike keyword searches, a semantic entity-focused search requires that web documents are annotated with semantic representations of common words and named entities. Manual semantic annotation of (web) documents is time-consuming; in response, automatic annotation services have emerged in recent years. These annotation services take continuous text as input, detect important key terms and named entities and annotate them with semantic entities contained in widely used semantic knowledge bases, such as Freebase or DBpedia. Metadata of video documents require special attention. Semantic analysis approaches for continuous text cannot be applied, because information of a context in video documents originates from multiple sources possessing different reliabilities and characteristics. This thesis presents a semantic analysis approach consisting of a context model and a disambiguation algorithm for video metadata. The context model takes into account the characteristics of video metadata and derives a confidence value for each metadata item. The confidence value represents the level of correctness and ambiguity of the textual information of the metadata item. The lower the ambiguity and the higher the prospective correctness, the higher the confidence value. The metadata items derived from the video metadata are analyzed in a specific order from high to low confidence level. Previously analyzed metadata are used as reference points in the context for subsequent disambiguation. The contextually most relevant entity is identified by means of descriptive texts and semantic relationships to the context. The context is created dynamically for each metadata item, taking into account the confidence value and other characteristics. The proposed semantic analysis follows two hypotheses: metadata items of a context should be processed in descendent order of their confidence value, and the metadata that pertains to a context should be limited by content-based segmentation boundaries. The evaluation results support the proposed hypotheses and show increased recall and precision for annotated entities, especially for metadata that originates from sources with low reliability. The algorithms have been evaluated against several state-of-the-art annotation approaches. The presented semantic analysis process is integrated into a video analysis framework and has been successfully applied in several projects for the purpose of semantic video exploration of videos. KW - Semantische Analyse KW - Kontext KW - Videoanalyse KW - Disambiguierung KW - Videometadaten KW - semantic analysis KW - context awareness KW - video analysis KW - word sense disambiguation KW - video metadata Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70551 ER - TY - THES A1 - Slezak, Kathleen T1 - Impact of intestinal bacteria on the anatomy and physiology of the intestinal tract in the PRM/Alf mouse model T1 - Einfluss intestinaler Bakterien auf die Anatomie und Physiologie des Darmes in der PRM/Alf Maus N2 - Introduction: Intestinal bacteria influence gut morphology by affecting epithelial cell proliferation, development of the lamina propria, villus length and crypt depth [1]. Gut microbiota-derived factors have been proposed to also play a role in the development of a 30 % longer intestine, that is characteristic of PRM/Alf mice compared to other mouse strains [2, 3]. Polyamines and SCFAs produced by gut bacteria are important growth factors, which possibly influence mucosal morphology, in particular villus length and crypt depth and play a role in gut lengthening in the PRM/Alf mouse. However, experimental evidence is lacking. Aim: The objective of this work was to clarify the role of bacterially-produced polyamines on crypt depth, mucosa thickness and epithelial cell proliferation. For this purpose, C3H mice associated with a simplified human microbiota (SIHUMI) were compared with mice colonized with SIHUMI complemented by the polyamine-producing Fusobacterium varium (SIHUMI + Fv). In addition, the microbial impact on gut lengthening in PRM/Alf mice was characterized and the contribution of SCFAs and polyamines to this phenotype was examined. Results: SIHUMI + Fv mice exhibited an up to 1.7 fold higher intestinal polyamine concentration compared to SIHUMI mice, which was mainly due to increased putrescine concentrations. However, no differences were observed in crypt depth, mucosa thickness and epithelial proliferation. In PRM/Alf mice, the intestine of conventional mice was 8.5 % longer compared to germfree mice. In contrast, intestinal lengths of C3H mice were similar, independent of the colonization status. The comparison of PRM/Alf and C3H mice, both associated with SIHUMI + Fv, demonstrated that PRM/Alf mice had a 35.9 % longer intestine than C3H mice. However, intestinal SCFA and polyamine concentrations of PRM/Alf mice were similar or even lower, except N acetylcadaverine, which was 3.1-fold higher in PRM/Alf mice. When germfree PRM/Alf mice were associated with a complex PRM/Alf microbiota, the intestine was one quarter longer compared to PRM/Alf mice colonized with a C3H microbiota. This gut elongation correlated with levels of the polyamine N acetylspermine. Conclusion: The intestinal microbiota is able to influence intestinal length dependent on microbial composition and on the mouse genotype. Although SCFAs do not contribute to gut elongation, an influence of the polyamines N acetylcadaverine and N acetylspermine is conceivable. In addition, the study clearly demonstrated that bacterial putrescine does not influence gut morphology in C3H mice. N2 - Einleitung: Die intestinale Mikrobiota beeinflusst die Morphologie des Darmes durch Beeinflussung der Epithelzellproliferation, Entwicklung der Lamina Propria, Zottenlänge und Kryptentiefe [1]. Zudem stehen bakterielle Faktoren im Verdacht, die Entwicklung eines 30 % längeren Darmes in der PRM/Alf Maus gegenüber anderen Mausstämmen zu begünstigen [2, 3]. Die von der intestinalen Mikrobiota produzierten Polyamine und kurzkettigen Fettsäuren (SCFA) stellen wichtige Wachstumsfaktoren dar, die bei der Ausbildung des Darmes sowie an der Darmverlängerung in der PRM/Alf Maus beteiligt sein könnten. Zielstellung: Ziel dieser Arbeit war, den Einfluss von bakteriell-produzierten Polyaminen auf die Kryptentiefe, Schleimhautdicke und Epithelzellproliferation zu untersuchen. Zu diesem Zweck wurden keimfreie C3H Mäuse mit einer vereinfachten menschlichen Mikrobiota (SIHUMI) assoziiert und mit C3H Mäusen, die mit einer SIHUMI plus dem polyaminproduzierendem Fusobacterium varium (SIHUMI + Fv) besiedelt worden waren, verglichen. Weiterhin sollte der mikrobielle Einfluss sowie die Rolle von SCFAs und Polyaminen bei der Ausbildung eines verlängerten Darms in der PRM/Alf Maus untersucht werden. Ergebnisse: Die SIHUMI + Fv Mäuse zeigten eine bis zu 1,7 fach höhere intestinale Polyaminkonzentration im Vergleich zu SIHUMI-Mäusen, welche vor allem auf eine Erhöhung von Putrescin zurückzuführen war. Trotz der höheren Polyaminkonzentrationen wurden keine Unterschiede in der Kryptentiefe, Schleimhautdicke und Epithelzellproliferation beobachtet. Die Untersuchung der Darmlänge in PRM/Alf Mäusen in Abhängigkeit vom Besiedlungsstatus ergab einen 8,5 % längeren Darm in konventionell besiedelten PRM/Alf Mäusen im Vergleich zu keimfreien PRM/Alf Mäusen. Im Gegensatz dazu wurden in C3H-Mäusen keine Unterschiede in der Darmlänge in Abhängigkeit von der Besiedlung beobachtet. Der Vergleich zwischen PRM/Alf und C3H Mäusen, die beide mit der SIHUMI + Fv Mikrobiota assoziiert wurden, zeigte einen 35,9 % längeren Darm in PRM/Alf Mäusen. Trotz des längeren Darmes waren die intestinalen SCFA- und Polyaminkonzentrationen vergleichbar bzw. geringer als in C3H Mäusen, mit einer Ausnahme: Die Konzentration von N Acetylcadaverin war in PRM/Alf Mäusen 3,1-fach erhöht. Wurden keimfreie PRM/Alf Mäuse mit einer komplexen PRM/Alf Mikrobiota assoziiert, so war ihr Darm ein Viertel länger als bei PRM/Alf Mäusen, die mit einer C3H Mikrobiota besiedelt wurden. Dieser längere Darm korrelierte mit der N Acetylsperminkonzentration. Schlussfolgerung: Die intestinale Mikrobiota ist in der Lage, die Darmlänge abhängig von der mikrobiellen Zusammensetzung und von dem Genotyp des Wirtes zu beeinflussen. Obwohl SCFAs die Darmlänge nicht beeinflussten, ist eine Beteiligung der Polyamine N Acetylcadaverin und N Acetylspermin denkbar. Darüber hinaus zeigte die Studie, dass Putrescin die Anatomie des Darmes in C3H Mäusen nicht beeinflusst. KW - Darmbakterien KW - Darmlänge KW - Polyamine KW - Kurzkettige Fettsäuren KW - PRM/Alf Maus KW - gut microbiota KW - gut length KW - polyamines KW - short chain fatty acids KW - PRM/Alf mouse Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68946 ER - TY - THES A1 - Serag, Rabe Al Sayed Al Sayed T1 - Motivationale und Volitionale Aspekte im Leistungssport im interkulturellen Vergleich zwischen Deutschland und Ägypten : eine explorative Analyse am Beispiel Ringen T1 - Motivational and Volitional aspects of competitive sports in cross-cultural comparison between Germany and Egypt : an exploratory analysis based on Sports Wrestling N2 - Kultur gibt den Menschen eine Orientierung. Sie machen darin ganz spezifische Erfahrungen. Hieraus entwickeln sich auch motivationale Orientierungen. Dadurch werden andere Erfahrungen gemacht, die Sportler können andere Motivation und Volition entwickeln. Dabei sind mehr kollektivistische Kulturen eher vermeidungs-motiviert und mehr individualistische Kulturen mehr erfolgsorientiert. Beim Kollektivismus erscheint die Leistungsmotivation eher unter einem sozialen Aspekt, nämlich die Auseinandersetzung mit einem Gütemaßstab, der eher von außen vorgegeben wird und weniger einem ausschließlich eigenen Maßstab. Ägypten erweist sich im Vergleich zu Deutschland als eine eher kollektivistisch geprägte Kultur. Daraus ergeben sich folgende Unterschiede: Einen signifikanten Unterschied zwischen deutschen und ägyptischen Ringern gibt es in der Wettkampforientierung und bei der Sieg- bzw. Gewinn-Orientierung. Die ägyptischen Ringer habe eine höhere Ausprägung als die Deutschen. Sie weisen auch eine etwas höhere Zielorientierung auf als die Deutschen. Entgegen den Erwartungen zeigte sich, dass es keine signifikanten Unterschiede zwischen den ägyptischen und deutschen Ringern gibt in der Variable: Sieg- bzw. Gewinn-Orientierung. Die Furcht vor Misserfolg sowie auch die Hoffnung auf Erfolg liegen höher bei den Ägyptern als bei den Deutschen. Bezogen auf die Modi der Handlungskontrolle verfügen die Deutschen Ringer über eine höher Ausprägung auf allen drei Komponenten. Sie haben eine höhere Handlungsorientierung nach Misserfolg, eine höhere Handlungsplanung sowie eine höhere Handlungstätigkeitsausführung. Diese kulturell kontrastive Studie über die psychologischen Aspekte, im Bereich der Leistungsmotivation und der Handlungskontrolle, kann für die Sportart Ringen sehr nützlich werden, da sie sehr wichtig ist beim Erkennen der sportlichen Überlegenheits- und Schwächemerkmale. Sie wiederspiegelt auch die Hochstimmung in den entwickelten Staaten oder die Misere in den anderen Staaten. Aus den interkulturellen Unterschieden in der Motivation und Volition können somit verschiedene Maßnahmen zu sportpsychologischen Interventionen entwickelt werden. Es sollte unbedingt darauf wert gelegt werden, dass die kulturell bedingten Unterschiede im Trainingsalltag beachtet werden, bei Teams, die aus Personen aus unterschiedlichen Kulturkreisen stammen. N2 - Culture gives people a guide. They make very specific experiences. So they develop motivational orientations. Because other experiences are made, the athlete can develop other motivation and volition. While more collectivist cultures have more avoidance motivation the individualistic cultures are more performance-oriented. In collectivism appears motivation rather from a social aspect, namely the examination of a quality standard that is more externally determined and less an exclusively own scale. Egypt proves to be compared to Germany as a more collectivist influenced culture. This has the following differences: There are significant differences between German and Egyptian wrestlers in the competition orientation and the victory or profit-orientation. The Egyptian wrestlers have higher levels than the Germans. They also have a slightly higher goal orientation than the Germans. Contrary to expectations, it was found that there were no significant differences between the Egyptian and German wrestlers in the variable: victory or profit-orientation. The fear of failure and the hope of success are higher among Egyptians than the Germans. Based on the modes of action control, the Germans have a higher expression of wrestlers on all three components. They have a higher action orientation after failure, a higher action planning and a higher activity of action execution. This culturally contrastive study of the psychological aspects in the field of achievement motivation and executive control, can be very useful for the sport of wrestling, as it is very important in recognizing the athletic superiority and weak features. It also reflects the high spirits in the developed countries or the misery in the other states. From the intercultural differences in the motivation and volition thus several measures to sport psychological interventions are developed. Care should be made not worth that culturally specific differences were observed in the daily training, in teams that come from people from different cultures. KW - Motivationale und Volitionale Aspekte KW - Leistungssport im interkulturellen Vergleich KW - Deutschland und Ägypten Kulturvergleich KW - Sportringen KW - Motivational and Volitional aspects of competitive sports KW - an intercultural comparison KW - Germany and Egypt culture comparison KW - Sports Wrestling Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64199 ER - TY - THES A1 - Schütz, Felina T1 - Surface heat flow and lithospheric thermal structure of the northwestern Arabian Plate T1 - Oberflächenwärmefluß und thermische Struktur der Lithosphäre der nordwestlichen Arabischen Platte N2 - The surface heat flow (qs) is paramount for modeling the thermal structure of the lithosphere. Changes in the qs over a distinct lithospheric unit are normally directly reflecting changes in the crustal composition and therewith the radiogenic heat budget (e.g., Rudnick et al., 1998; Förster and Förster, 2000; Mareschal and Jaupart, 2004; Perry et al., 2006; Hasterok and Chapman, 2011, and references therein) or, less usual, changes in the mantle heat flow (e.g., Pollack and Chapman, 1977). Knowledge of this physical property is therefore of great interest for both academic research and the energy industry. The present study focuses on the qs of central and southern Israel as part of the Sinai Microplate (SM). Having formed during Oligocene to Miocene rifting and break-up of the African and Arabian plates, the SM is characterized by a young and complex tectonic history. Resulting from the time thermal diffusion needs to pass through the lithosphere, on the order of several tens-of-millions of years (e.g., Fowler, 1990); qs-values of the area reflect conditions of pre-Oligocene times. The thermal structure of the lithosphere beneath the SM in general, and south-central Israel in particular, has remained poorly understood. To address this problem, the two parameters needed for the qs determination were investigated. Temperature measurements were made at ten pre-existing oil and water exploration wells, and the thermal conductivity of 240 drill core and outcrop samples was measured in the lab. The thermal conductivity is the sensitive parameter in this determination. Lab measurements were performed on both, dry and water-saturated samples, which is labor- and time-consuming. Another possibility is the measurement of thermal conductivity in dry state and the conversion to a saturated value by using mean model approaches. The availability of a voluminous and diverse dataset of thermal conductivity values in this study allowed (1) in connection with the temperature gradient to calculate new reliable qs values and to use them to model the thermal pattern of the crust in south-central Israel, prior to young tectonic events, and (2) in connection with comparable datasets, controlling the quality of different mean model approaches for indirect determination of bulk thermal conductivity (BTC) of rocks. The reliability of numerically derived BTC values appears to vary between different mean models, and is also strongly dependent upon sample lithology. Yet, correction algorithms may significantly reduce the mismatch between measured and calculated conductivity values based on the different mean models. Furthermore, the dataset allowed the derivation of lithotype-specific conversion equations to calculate the water-saturated BTC directly from data of dry-measured BTC and porosity (e.g., well log derived porosity) with no use of any mean model and thus provide a suitable tool for fast analysis of large datasets. The results of the study indicate that the qs in the study area is significantly higher than previously assumed. The new presented qs values range between 50 and 62 mW m⁻². A weak trend of decreasing heat flow can be identified from the east to the west (55-50 mW m⁻²), and an increase from the Dead Sea Basin to the south (55-62 mW m⁻²). The observed range can be explained by variation in the composition (heat production) of the upper crust, accompanied by more systematic spatial changes in its thickness. The new qs data then can be used, in conjunction with petrophysical data and information on the structure and composition of the lithosphere, to adjust a model of the pre-Oligocene thermal state of the crust in south-central Israel. The 2-D steady-state temperature model was calculated along an E-W traverse based on the DESIRE seismic profile (Mechie et al., 2009). The model comprises the entire lithosphere down to the lithosphere–asthenosphere boundary (LAB) involving the most recent knowledge of the lithosphere in pre-Oligocene time, i.e., prior to the onset of rifting and plume-related lithospheric thermal perturbations. The adjustment of modeled and measured qs allows conclusions about the pre-Oligocene LAB-depth. After the best fitting the most likely depth is 150 km which is consistent with estimations made in comparable regions of the Arabian Shield. It therefore comprises the first ever modelled pre-Oligocene LAB depth, and provides important clues on the thermal state of lithosphere before rifting. This, in turn, is vital for a better understanding of the (thermo)-dynamic processes associated with lithosphere extension and continental break-up. N2 - Der Oberflächenwärmefluss (qs) ist maßgeblich für die Modellierung der thermischen Struktur der Lithosphäre. Änderungen im qs, innerhalb eines speziellen lithosphärischen Abschnitts, reflektieren direkt Änderungen in der krustalen Zusammensetzung und damit der radiogenen Wärmeproduktion (e.g., Rudnick et al., 1998; Förster und Förster, 2000; Mareschal und Jaupart, 2004; Perry et al., 2006; Hasterok und Chapman, 2011) oder aber, weniger häufig, Änderungen im Mantelwärmefluss (e.g., Pollack und Chapman, 1977). Die Kenntnis dieses physikalischen Parameters ist daher von großem Interesse, sowohl für die Forschung als auch für die Energiewirtschaft. Die vorliegende Studie befasst sich mit dem qs von Süd- und Zentralisrael als Teil der Sinai Mikroplatte (SM), welche während des Riftings und Auseinanderbrechens der Afrikanischen und Arabischen Platte im Oligozän entstand und durch diese, sehr junge und komplexe tektonische Geschichte, geprägt ist. Die thermische Diffusion benötigt einige Zehner-Millionen Jahre (e.g., Fowler, 1990) um die Lithosphäre zu durchlaufen, qs-Werte der Region reflektieren daher prä-oligozäne Bedingungen. Die thermische Struktur der Lithosphäre in Süd- und Zentralisrael, ist bis heute nur sehr wenig verstanden. Um dieses Problem anzugehen wurden die Parameter die für die qs-Bestimmung benötigt werden, eingehend untersucht. An zehn ehemaligen Wasser- und Erdölexplorationsbohrungen wurden neue Temperaturmessungen durchgeführt, und die Wärmeleitfähigkeit von 240 Bohrkern- und Aufschlussproben wurde im Labor gemessen. Die Wärmeleitfähigkeit ist in der qs-Bestimmung der sensitive Parameter. Die Labormessungen wurden sowohl an trockenen sowie an wasser-gesättigten Proben durchgeführt, was personal-und zeitaufwendig ist. Eine andere Möglichkeit ist die Messung der Wärmeleitfähigkeit im trockenen Zustand und das Konvertieren zu einem saturierten Wert unter der Verwendung von Mischungsgesetzen. Das Vorhandensein eines umfangreichen und sehr diversen Wärmeleitfähigkeit-Datensatzes ermöglicht (1) in Verbindung mit dem Temperaturgradienten die Berechnung von neuen zuverlässigen qs-Werten sowie deren Verwendung zur Modellierung der thermischen Struktur der prä-oligozänen Kruste in Israel und (2) in Verbindung mit vergleichbaren Datensätzen, die vorhandenen Mischungsgesetzte zur indirekten Bestimmung der saturierten Gesamtwärmeleitfähigkeit (BTC) qualitativ zu überprüfen. Die Zuverlässigkeit numerisch bestimmter BTC-Werte variiert für die verschiedenen Mischungsgesetze und ist darüber hinaus stark von der Lithologie der Proben abhängig. Mittels spezifischer Korrekturgleichungen können Abweichungen zwischen gemessenen und berechneten Werten jedoch erheblich reduziert werden. Die Datenanzahl und die statistische Analyse ermöglichte darüber hinaus die Ableitung von lithotypspezifischen Konvertierungsgleichungen, um die saturierte BTC anhand von trocken gemessenen BTC- und Porositätswerten (z.B. aus Logs) zu berechnen. Dieser Ansatz führt, für alle Lithotypen, zu einer guten Reproduzierbarkeit gemessener Werte und ist daher eine nützliche Alternative, wann immer große Probenmengen behandelt werden. Die Ergebnisse dieser Studie zeigen, dass der qs im Untersuchungsgebiet signifikant höher ist, als bisher angenommen. Die qs-Werte, die in dieser Studie für Israel bestimmt wurden, schwanken zwischen 50 und 62 mW m⁻². Ein schwacher Trend abnehmender Werte von Ost nach West (55-50 mW m⁻²), und ein leichter Trend ansteigender Werte vom Toten Meer nach Süden (55-62 mW m⁻²) können identifiziert werden. Diese beobachteten Schwankungen lassen sich mit Variationen in der krustalen Zusammensetzung (Wärmeproduktion) erklären, einhergehend mit regionalen Änderungen der Krustenmächtigkeit. Die neuen qs-Daten können dann, im Zusammenhang mit petrophysikalischen Daten und Informationen über die Struktur und Zusammensetzung der Lithosphäre, verwendet werden um ein Model des prä-oligozänen thermischen Zustandes der Kruste Zentral- und Südisraels abzugleichen. Das stationäre 2-D Temperatur-Modell wurde entlang einer E-W Traverse, basierend auf dem seismischen DESIRE-Profil (Mechie et al., 2009), berechnet. Es reicht bis zur Lithosphären–Asthenosphären Grenze (LAB) und bezieht sich auf das aktuellste Wissen über die prä-oligozäne Lithosphäre, also vor dem Einsetzen von Rifting und plumebedingten thermischen Störungen. Durch den Abgleich zwischen gemessenen und modellierten qs-Werten ist es möglich auf die prä-oligozäne LAB-Tiefe zurückzuschließen. Als wahrscheinlichste Tiefe ergeben sich 150 km, was konsistent ist mit LAB-Tiefen Abschätzungen aus vergleichbaren stabilen Regionen des Arabischen Schildes. Dies liefert wichtige Anhaltspunkte über den thermischen Zustand der Lithosphäre vor dem Einsetzen von Rifting in der Region und ist wiederum entscheidend für ein besseres Verständnis der dynamischen Prozesse in Assoziation mit Extension der Lithosphäre und dem kontinentalem Auseinanderbrechen. KW - Oberflächenwärmefluß KW - thermisches Modell KW - Lithosphäre KW - Arabische Platte KW - surface heat flow KW - thermal model KW - lithosphere KW - Arabian Plate Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69622 ER - TY - THES A1 - Schumann, Sara T1 - Influence of intestinal inflammation on bacterial protein expression in monoassociated mice T1 - Der Einfluss chronisch-entzündlicher Darmerkrankungen auf die Proteinexpression intestinaler E. coli N2 - Background: Increased numbers of intestinal E. coli are observed in inflammatory bowel disease, but the reasons for this proliferation and it exact role in intestinal inflammation are unknown. Aim of this PhD-project was to identify E. coli proteins involved in E. coli’s adaptation to the inflammatory conditions in the gut and to investigate whether these factors affect the host. Furthermore, the molecular basis for strain-specific differences between probiotic and harmful E. coli in their response to intestinal inflammation was investigated. Methods: Using mice monoassociated either with the adherent-invasive E. coli (AIEC) strain UNC or the probiotic E. coli Nissle, two different mouse models of intestinal inflammation were analysed: On the one hand, severe inflammation was induced by treating mice with 3.5% dextran sodium sulphate (DSS). On the other hand, a very mild intestinal inflammation was generated by associating interleukin 10-deficient (IL-10-/-) mice with E. coli. Differentially expressed proteins in the E. coli strains collected from caecal contents of these mice were identified by two-dimensional fluorescence difference gel electrophoresis. Results DSS-experiment: All DSS-treated mice revealed signs of a moderate caecal and a severe colonic inflammation. However, mice monoassociated with E. coli Nissle were less affected. In both E. coli strains, acute inflammation led to a downregulation of pathways involved in carbohydrate breakdown and energy generation. Accordingly, DSS-treated mice had lower caecal concentrations of bacterial fermentation products than the control mice. Differentially expressed proteins also included the Fe-S cluster repair protein NfuA, the tryptophanase TnaA, and the uncharacterised protein YggE. NfuA was upregulated nearly 3-fold in both E. coli strains after DSS administration. Reactive oxygen species produced during intestinal inflammation damage Fe-S clusters and thereby lead to an inactivation of Fe-S proteins. In vitro data indicated that the repair of Fe-S proteins by NfuA is a central mechanism in E. coli to survive oxidative stress. Expression of YggE, which has been reported to reduce the intracellular level of reactive oxygen species, was 4- to 8-fold higher in E. coli Nissle than in E. coli UNC under control and inflammatory conditions. In vitro growth experiments confirmed these results, indicating that E. coli Nissle is better equipped to cope with oxidative stress than E. coli UNC. Additionally, E. coli Nissle isolated from DSS-treated and control mice had TnaA levels 4- to 7-fold higher than E. coli UNC. In turn, caecal indole concentrations resulting from cleavage of tryptophan by TnaA were higher in E. coli Nissle- associated control mice than in the respective mice associated with E. coli UNC. Because of its anti-inflammatory effect, indole is hypothesised to be involved in the extension of the remission phase in ulcerative colitis described for E. coli Nissle. Results IL-10-/--experiment: Only IL-10-/- mice monoassociated with E. coli UNC for 8 weeks exhibited signs of a very mild caecal inflammation. In agreement with this weak inflammation, the variations in the bacterial proteome were small. Similar to the DSS-experiment, proteins downregulated by inflammation belong mainly to the central energy metabolism. In contrast to the DSS-experiment, no upregulation of chaperone proteins and NfuA were observed, indicating that these are strategies to overcome adverse effects of strong intestinal inflammation. The inhibitor of vertebrate C-type lysozyme, Ivy, was 2- to 3-fold upregulated on mRNA and protein level in E. coli Nissle in comparison to E. coli UNC isolated from IL-10-/- mice. By overexpressing ivy, it was demonstrated in vitro that Ivy contributes to a higher lysozyme resistance observed for E. coli Nissle, supporting the role of Ivy as a potential fitness factor in this E. coli strain. Conclusions: The results of this PhD-study demonstrate that intestinal bacteria sense even minimal changes in the health status of the host. While some bacterial adaptations to the inflammatory conditions are equal in response to strong and mild intestinal inflammation, other reactions are unique to a specific disease state. In addition, probiotic and colitogenic E. coli differ in their response to the intestinal inflammation and thereby may influence the host in different ways. N2 - Hintergrund: Chronisch entzündliche Darmerkrankungen zeichnen sich unter anderem durch eine starke Proliferation intestinaler E. coli aus. Unbekannt ist jedoch, ob diese Vermehrung eine Ursache oder eine Folge der Erkrankung darstellt. Ziel der vorliegenden Doktorarbeit war es daher, E. coli-Proteine zu identifizieren, welche der Anpassung an die entzündlichen Bedingungen im Darmtrakt dienen und unter Umständen einen Effekt auf den Gesundheitszustand des Wirtes haben. Weiterhin sollten die molekularen Ursachen für stammesspezifische Unterschiede zwischen probiotischen und gesundheitsschädlichen E. coli näher untersucht werden. Methoden: In den tierexperimentellen Analysen wurden keimfreie Mäuse entweder mit dem probiotischen E. coli Nissle oder dem adhärent-invasiven E. coli UNC monoassoziiert und in zwei verschiedenen Entzündungsmodellen näher untersucht. Einerseits wurde eine starke Darmentzündung durch die Gabe von 3,5% Natrium-Dextransulfat (DSS) ausgelöst. Andererseits wurde in Interleukin 10-defizienten (IL-10-/-) Mäusen eine sehr milde Form der Entzündung durch Besiedlung mit E. coli induziert. Die E. coli Bakterien wurden am Ende der Versuche aus den Caecuminhalten der Mäuse isoliert und die bakterielle Proteinexpression wurde mittels zwei-dimensionaler Gelelektrophorese analysiert. Ergebnisse des DSS-Versuchs: Alle Tiere des DSS-Versuchs entwickelten unabhängig vom E. coli Stamm, mit dem sie besiedelt waren, eine moderate Entzündung im Caecum und eine starke im Colon, wobei die Entzündungsreaktion durch die Monoassoziation mit E. coli Nissle leicht abgeschwächt wurde. In beiden E. coli Stämmen führte die Darmentzündung zu einer verringerten Expression von Enzymen des Kohlenhydratabbaus und der Energiegewinnung. In Folge dessen waren die intestinalen Konzentrationen bakterieller Fermentationsprodukte in den entzündeten Tieren geringer als in den gesunden Kontrolltieren. Weitere differentiell exprimierte Proteine umfassen das Fe-S- Cluster Reparaturprotein NfuA, die Tryptophanase TnaA und das uncharakterisierte Protein YggE. In beiden E. coli Stämmen, welche aus den DSS-Tieren isoliert wurden, war das NfuA Protein dreifach höher exprimiert. Eine Darmentzündung führt zu einer vermehrten Bildung reaktiver Sauerstoffspezies, welche die Fe-S-Cluster in Eisen-Schwefel-Proteinen zerstören und damit zu einer Inaktivierung dieser Proteine führen. In vitro Untersuchungen bestätigten, dass die Reparatur der Eisen-Schwefel-Proteine durch NfuA ein wichtiger Mechanismus ist um oxidativem Stress entgegenzuwirken. Das YggE Protein, welches laut Literaturangaben einen hemmenden Einfluss auf die Bildung reaktiver Sauerstoffspezies hat, war in E. coli Nissle 4- bis 8-fach erhöht (verglichen mit E. coli UNC unter Kontroll- und Entzündungsbedingungen). In vitro Versuche bestätigten diese Daten und zeigten, dass E. coli Nissle im Vergleich zu E. coli UNC eine erhöhte Resistenz gegenüber oxidativem Stress aufweist. Außerdem wurde im Vergleich E. coli Nissle vs. E. coli UNC (unter Entzündungs- und Kontrollbedingungen) ein 4- bis 7-fach erhöhter TnaA-Gehalt nachgewiesen. Indol, das Produkt der TnaA-katalysierten Tryptophanspaltung wurde in erhöhten Mengen im Intestinaltrakt E. coli Nissle-assoziierter Kontrolltiere detektiert. Seit längerem werden entzündungshemmende Eigenschaften für Indol postuliert, die aufgrund der Ergebnisse dieser Doktorarbeit nun auch mit den gesundheitsfördenden Eigenschaften von E. coli Nissle in Zusammenhang gebracht werden können. Ergebnisse des IL-10-/-- Versuchs: Nach einer 8-wöchigen Assoziationsdauer wurde nur in den mit E. coli UNC besiedelten IL-10-/- Tieren eine schwache Entzündungsreaktion nachgewiesen. Bedingt durch diese sehr schwach ausgeprägte Entzündungsantwort waren auch die Veränderungen im bakteriellen Proteom von E. coli UNC nur gering. Wie im DSS-Versuch waren Proteine des bakteriellen Energiestoffwechsels reprimiert, allerdings wurde keine Induktion von NfuA beobachtet. Daher scheint die Induktion von NfuA nur der Anpassung an eine starke Entzündung zu dienen. Weiterhin wurde nachgewiesen, dass E. coli Nissle aus IL-10-/- Tieren den Hemmer für das vertebrate C-Typ Lysozym (Ivy) sowohl auf mRNA- als auch auf Proteinebene stärker exprimiert als E. coli UNC. Überexpression von Ivy unter in vitro Bedingungen zeigte, dass es an der erhöhten Lysozymresistenz von E. coli Nissle beteiligt ist und somit eine Rolle als möglicher Fitnessfaktor von E. coli Nissle spielt. Schlussfolgerungen: In dieser Doktorarbeit wurde gezeigt, dass Darmentzündungen die Proteinexpression eines im Darm lebenden Bakteriums beeinflussen. Einige der aufgedeckten bakteriellen Anpassungsreaktionen werden sowohl bei einer starken als auch bei einer schwachen Entzündung ausgelöst; andere wiederum sind spezifisch für nur einen dieser Entzündungszustände. Weiterhin wurde deutlich, dass sich E. coli-Stämme hinsichtlich ihrer Reaktion auf eine Darmentzündung unterscheiden und damit möglicherweise den Wirt beeinflussen.  KW - E. coli KW - chronisch-entzündliche Darmerkrankungen KW - Proteom KW - Ivy KW - Probiotika KW - E. coli KW - inflammatory bowel disease KW - proteomics KW - Ivy KW - probiotics Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67757 ER - TY - THES A1 - Schlolaut, Gordon T1 - Varve and event layer chronology of Lake Suigetsu (Japan) back to 40 kyr BP and contribution to the international consensus atmospheric radiocarbon calibration curve T1 - Warven- und Ereignislagen-Chronologie der letzten 40 ka BP vom Suigetsu See (Japan) und Beitrag zur internationalen atmosphärischen Radiokarbon-Kalibrationskurve N2 - The main intention of the PhD project was to create a varve chronology for the Suigetsu Varves 2006' (SG06) composite profile from Lake Suigetsu (Japan) by thin section microscopy. The chronology was not only to provide an age-scale for the various palaeo-environmental proxies analysed within the SG06 project, but also and foremost to contribute, in combination with the SG06 14C chronology, to the international atmospheric radiocarbon calibration curve (IntCal). The SG06 14C data are based on terrestrial leaf fossils and therefore record atmospheric 14C values directly, avoiding the corrections necessary for the reservoir ages of the marine datasets, which are currently used beyond the tree-ring limit in the IntCal09 dataset (Reimer et al., 2009). The SG06 project is a follow up of the SG93 project (Kitagawa & van der Plicht, 2000), which aimed to produce an atmospheric calibration dataset, too, but suffered from incomplete core recovery and varve count uncertainties. For the SG06 project the complete Lake Suigetsu sediment sequence was recovered continuously, leaving the task to produce an improved varve count. Varve counting was carried out using a dual method approach utilizing thin section microscopy and micro X-Ray Fluorescence (µXRF). The latter was carried out by Dr. Michael Marshall in cooperation with the PhD candidate. The varve count covers 19 m of composite core, which corresponds to the time frame from ≈10 to ≈40 kyr BP. The count result showed that seasonal layers did not form in every year. Hence, the varve counts from either method were incomplete. This rather common problem in varve counting is usually solved by manual varve interpolation. But manual interpolation often suffers from subjectivity. Furthermore, sedimentation rate estimates (which are the basis for interpolation) are generally derived from neighbouring, well varved intervals. This assumes that the sedimentation rates in neighbouring intervals are identical to those in the incompletely varved section, which is not necessarily true. To overcome these problems a novel interpolation method was devised. It is computer based and automated (i.e. avoids subjectivity and ensures reproducibility) and derives the sedimentation rate estimate directly from the incompletely varved interval by statistically analysing distances between successive seasonal layers. Therefore, the interpolation approach is also suitable for sediments which do not contain well varved intervals. Another benefit of the novel method is that it provides objective interpolation error estimates. Interpolation results from the two counting methods were combined and the resulting chronology compared to the 14C chronology from Lake Suigetsu, calibrated with the tree-ring derived section of IntCal09 (which is considered accurate). The varve and 14C chronology showed a high degree of similarity, demonstrating that the novel interpolation method produces reliable results. In order to constrain the uncertainties of the varve chronology, especially the cumulative error estimates, U-Th dated speleothem data were used by linking the low frequency 14C signal of Lake Suigetsu and the speleothems, increasing the accuracy and precision of the Suigetsu calibration dataset. The resulting chronology also represents the age-scale for the various palaeo-environmental proxies analysed in the SG06 project. One proxy analysed within the PhD project was the distribution of event layers, which are often representatives of past floods or earthquakes. A detailed microfacies analysis revealed three different types of event layers, two of which are described here for the first time for the Suigetsu sediment. The types are: matrix supported layers produced as result of subaqueous slope failures, turbidites produced as result of landslides and turbidites produced as result of flood events. The former two are likely to have been triggered by earthquakes. The vast majority of event layers was related to floods (362 out of 369), which allowed the construction of a respective chronology for the last 40 kyr. Flood frequencies were highly variable, reaching their greatest values during the global sea level low-stand of the Glacial, their lowest values during Heinrich Event 1. Typhoons affecting the region represent the most likely control on the flood frequency, especially during the Glacial. However, also local, non-climatic controls are suggested by the data. In summary, the work presented here expands and revises knowledge on the Lake Suigetsu sediment and enabls the construction of a far more precise varve chronology. The 14C calibration dataset is the first such derived from lacustrine sediments to be included into the (next) IntCal dataset. References: Kitagawa & van der Plicht, 2000, Radiocarbon, Vol 42(3), 370-381 Reimer et al., 2009, Radiocarbon, Vol 51(4), 1111-1150 N2 - Die Hauptzielsetzung der Doktorarbeit war die Erstellung einer Warvenchronologie für das Kompositprofil der "Suigetsu Varves 2006" (SG06) Sedimentbohrung vom Suigetsu See durch Dünnschliffmikroskopie. Die Chronologie soll dabei nicht nur als Altersskala für die unterschiedlichen Proxies, die im Rahmen des SG06 Projekts bearbeitet werden, dienen, sondern in Kombination mit der SG06 14C Chronologie auch zur Verbesserung der internationalen Radiokarbon Kalibrationskurve (IntCal) beitragen. Da die SG06 14C Daten aus fossilen, in den See eingewehten Blättern gewonnen wurden, geben sie den 14C Gehalt der Atmosphäre direkt wieder. Das heißt, dass Korrekturen entfallen, wie sie bei den derzeit im IntCal09 Datensatz (Reimer et al., 2009) genutzten marinen 14C Daten notwendig sind. Das SG06 Projekt ist ein Folgeprojekt des SG93 Projekts (Kitagawa & van der Plicht, 2000), welches ebenfalls die Erstellung eines Kalibrationsdatensatzes zur Zielsetzung hatte. Allerdings war das Sedimentprofil der SG93 Bohrung unvollständig und die Warvenchronologie unzureichend genau. Im Rahmen des SG06 Projekts wurde die komplette Sedimentabfolge des Sees erbohrt, so dass die Erstellung einer verbesserten Warvenchronologie als Aufgabe verblieb. Für die Erstellung der Warvenchronologie kam neben Dünnschliffmikroskopie eine zweite, unabhängige Zähltechnik zum Einsatz, die Mikro-Röntgenfluoresenz (µXRF) Daten nutzt. Diese Zählung wurde von Dr. Michael Marshall in Zusammenarbeit mit dem Doktoranden erstellt. Insgesamt wurden in 19 m des SG06 Sedimentprofils Warven gezählt, was dem Zeitabschnitt zwischen ≈10 und ≈40 ka BP entspricht. Die Warvenzählung zeigte, dass sich nicht jedes Jahr saisonale Lagen ausgebildet hatten und die Zählungen von beiden Techniken damit unvollständig waren. Dieses Problem tritt bei Warvenzählungen häufiger auf und wird in der Regel durch manuelle Interpolation der fehlenden Lagen gelöst. Allerdings hat der manuelle Ansatz Schwächen. Zum einen kann es zu subjektiven Ungenauigkeiten kommen, zum anderen wird die durchschnittliche Sedimentationsrate (welche die Grundlage der Interpolation ist) in der Regel aus benachbarten, gut warvierten Bereichen abgeleitet. Das setzt jedoch voraus, dass die Sedimentationsrate in den benachbarten Intervallen identisch mit der im zu interpolierenden Bereich ist, was nicht zwingend der Fall ist. Um diese Probleme zu umgehen wurde für die vorliegende Arbeit eine neuartige Interpolationsmethode entwickelt. Diese ist computergestützt und automatisiert und Ergebnisse daher objektiv und reproduzierbar. Weiterhin wird die Sedimentationsrate direkt aus dem zu interpolierenden Bereich bestimmt, indem die Abstände der auftretenden saisonalen Lagen statistisch ausgewertet werden. Daher kann die Methode auch für Profile ohne gut warvierte Bereiche eingesetzt werden. Ein weiterer Vorteil des neuen Interpolationsprogramms ist, dass ein objektiver Interpolationsfehlers berechnet wird. Die interpolierten Ergebnisse der beiden Zähltechniken wurden kombiniert und um nachzuweisen, dass es sich bei der resultierenden Chronologie um ein zuverlässiges Ergebnis handelt, wurde diese mit der mit IntCal09 kalibrierten 14C Chronologie vom Suigetsu See verglichen. Dabei wurde nur der Abschnitt berücksichtigt, in dem IntCal09 auf dendrologischen Daten beruht (bis 12,55 ka cal BP). Der Vergleich zeigte, dass die finale Warvenchronologie innerhalb des 68,2% Fehlerbereichs der 14C Datierungen lag. Das heißt, dass die Interpolationsmethode hinreichend genaue und zuverlässige Ergebnisse erzielt. Die Genauigkeit wurde weiter verbessert, indem die Chronologie mit U-Th Altern von Speläothemen modelliert wurde, wobei die tieffrequenten Signale der 14C Daten als Verbindung zwischen Suigetsu und den Speläothemen verwendet wurde, was die Konstruktion eines verbesserten Kalibrationdatensatzes erlaubte. Die modellierte Chronologie stellt dabei auch die Altersskale für die im SG06 Projekt analysierten Proxies dar. Ein Proxy der im Rahmen der Doktorarbeit untersucht wurde war die Verteilung von Ereignislagen. Diese sind in der Regel Anzeiger für Flutereignisse oder Erdbeben. Die mikrofazielle Untersuchung der Ereignislagen zeigte drei verschiedene Lagentypen auf, wobei zwei davon hier erstmals für den Suigetsu See beschrieben sind. Die Lagentypen sind: Matrix dominierte Lagen als Ergebnis von Seegrundrutschungen, Turbidite als Ergebnis von Hangrutschungen und Turbidite als Ergebnis von Flutereignissen. Die ersten beiden Lagentypen wurden vermutlich durch Erdbeben ausgelöst. Die große Mehrheit der Ereignislagen ist jedoch auf Flutereignisse zurückzuführen (362 von 369). Dies erlaubte die Rekonstruktion der Hochwasserhäufigkeit für die letzten 40 ka. Dabei zeigten sich starke Schwankungen über den analysierten Zeitraum. Die höchsten Werte wurden während des glazialen Meeresspiegelminimums erreicht während die niedrigsten Werte im Zusammenhang mit Heinrich Ereignis 1 auftraten, was vermutlich in erster Linie mit der Taifunhäufigkeit in der Region zusammenhängt. Allerdings zeigten die Daten auch Einflüsse von lokalen, nicht Klima getriebenen Prozessen. Zusammenfassend kann gesagt werden, dass die hier vorliegende Arbeit die Kenntnisse über die Sedimente des Suigetsu Sees deutlich erweitert hat und die Revidierung einiger älterer Interpretationen nahe legt. Die verbesserte Warvenchronologie trug zu einem deutlich verbesserten Kalibrationsdatensatz bei. Dieser ist der erste aus lakustrinen Daten gewonnen Datensatz, der in den (kommenden) IntCal Datensatz eingearbeitet werden wird. Quellennachweis: Kitagawa & van der Plicht, 2000, Radiocarbon, Vol 42(3), 370-381 Reimer et al., 2009, Radiocarbon, Vol 51(4), 1111-1150 KW - Suigetsu KW - radiocarbon KW - floods Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69096 ER - TY - THES A1 - Schick, Daniel T1 - Ultrafast lattice dynamics in photoexcited nanostructures : femtosecond X-ray diffraction with optimized evaluation schemes T1 - Ultraschnelle Gitterdynamik in optisch angeregten Nanostrukturen : Femtosekunden-Röntgendiffraktion mit optimierten Auswerteroutinen N2 - Within the course of this thesis, I have investigated the complex interplay between electron and lattice dynamics in nanostructures of perovskite oxides. Femtosecond hard X-ray pulses were utilized to probe the evolution of atomic rearrangement directly, which is driven by ultrafast optical excitation of electrons. The physics of complex materials with a large number of degrees of freedom can be interpreted once the exact fingerprint of ultrafast lattice dynamics in time-resolved X-ray diffraction experiments for a simple model system is well known. The motion of atoms in a crystal can be probed directly and in real-time by femtosecond pulses of hard X-ray radiation in a pump-probe scheme. In order to provide such ultrashort X-ray pulses, I have built up a laser-driven plasma X-ray source. The setup was extended by a stable goniometer, a two-dimensional X-ray detector and a cryogen-free cryostat. The data acquisition routines of the diffractometer for these ultrafast X-ray diffraction experiments were further improved in terms of signal-to-noise ratio and angular resolution. The implementation of a high-speed reciprocal-space mapping technique allowed for a two-dimensional structural analysis with femtosecond temporal resolution. I have studied the ultrafast lattice dynamics, namely the excitation and propagation of coherent phonons, in photoexcited thin films and superlattice structures of the metallic perovskite SrRuO3. Due to the quasi-instantaneous coupling of the lattice to the optically excited electrons in this material a spatially and temporally well-defined thermal stress profile is generated in SrRuO3. This enables understanding the effect of the resulting coherent lattice dynamics in time-resolved X-ray diffraction data in great detail, e.g. the appearance of a transient Bragg peak splitting in both thin films and superlattice structures of SrRuO3. In addition, a comprehensive simulation toolbox to calculate the ultrafast lattice dynamics and the resulting X-ray diffraction response in photoexcited one-dimensional crystalline structures was developed in this thesis work. With the powerful experimental and theoretical framework at hand, I have studied the excitation and propagation of coherent phonons in more complex material systems. In particular, I have revealed strongly localized charge carriers after above-bandgap femtosecond photoexcitation of the prototypical multiferroic BiFeO3, which are the origin of a quasi-instantaneous and spatially inhomogeneous stress that drives coherent phonons in a thin film of the multiferroic. In a structurally imperfect thin film of the ferroelectric Pb(Zr0.2Ti0.8)O3, the ultrafast reciprocal-space mapping technique was applied to follow a purely strain-induced change of mosaicity on a picosecond time scale. These results point to a strong coupling of in- and out-of-plane atomic motion exclusively mediated by structural defects. N2 - Im Rahmen dieser Arbeit habe ich mich mit den komplexen Wechselwirkungen zwischen Elektronen- und Gitterdynamik in oxidischen Perowskit-Nanostrukturen beschäftigt. Dazu wurden verschiedene Proben mit intensiven, ultrakurzen Laserpulsen angeregt. Um die zeitliche Entwicklung der induzierten atomaren Umordnung zu untersuchen, wurden Femtosekunden-Pulse harter Röntgenstrahlung genutzt. Zunächst wurde die ultraschnelle Gitterdynamik in einfachen Modellsystemen mit zeitaufgelösten Röntgendiffraktionsexperimenten untersucht, um im Anschluss ähnliche Experimente an komplexeren Materialien mit mehreren Freiheitsgraden interpretieren zu können. Die Bewegung der Atome in einem Kristall kann über Anrege-Abtast-Verfahren direkt mit gepulster, harter Röntgenstrahlung gemessen werden. Die Dauer der Röntgenpulse muss dafür einige hundert Femtosekunden kurz sein. Um diese ultrakurzen Röntgenpulse zu erzeugen, habe ich eine lasergetriebene Plasma-Röntgenquelle aufgebaut. Der Aufbau wurde um ein stabiles Goniometer, einen zweidimensionalen Röntgendetektor und einen kryogenfreien Kryostat erweitert und in Bezug auf das Signal-zu-Rausch-Verhältnis und die Winkelauflösung optimiert. Durch die Entwicklung einer schnellen Methode zur Vermessung des reziproken Raums konnte erstmals an solch einer Quelle eine zweidimensionale Strukturanalyse mit Femtosekunden-Zeitauflösung realisiert werden. Die Anregung und Ausbreitung von kohärenten Phononen habe ich in optisch angeregten Dünnfilm- und Übergitterstrukturen untersucht. Eine entscheidende Rolle spielen dabei metallische SrRuO3 Schichten. Durch die quasi-instantane Kopplung des Gitters an die optisch angeregten Elektronen in SrRuO3 wird ein räumlich und zeitlich wohldefiniertes Druckprofil erzeugt. Dadurch kann der Einfluss der resultierenden kohärenten Gitterdynamik auf die zeitaufgelösten Röntgendiffraktionsdaten im Detail verstanden werden. Beobachtet wurde z.B. das Auftreten einer transienten Aufspaltung eines Bragg-Reflexes bei Dünnfilm- und Übergitterstrukturen aus SrRuO3. Außerdem wurde eine umfangreiche Simulationsumgebung entwickelt, mit deren Hilfe die ultraschnelle Dynamik und die dazugehörigen Röntgendiffraktionssignale in optisch angeregten eindimensionalen Kristallstrukturen berechnet werden können. Der von mir entwickelte experimentelle Aufbau sowie das Simulationspaket zur Datenanalyse und -interpretation wurden anschließend für die Untersuchung kohärenter Phononen in komplexeren Materialsystemen eingesetzt. Im Speziellen konnte ich in multiferroischem BiFeO3 eine stark lokalisierte Ladungsträgerverteilung nach einer optischen Femtosekunden-Anregung nachweisen. Sie ist die Ursache für einen quasi-instantanen und räumlich inhomogenen Druck, der die kohärenten Phononen in einem dünnen Film dieses Multiferroikums erzeugt. Außerdem habe ich die ultraschnelle Vermessung des reziproken Raums angewendet, um eine verzerrungsinduzierte Veränderung der Mosaizität in einem strukturell unvollkommenen Film aus ferroelektrischem Pb(Zr0.2Ti0.8)O3 zu verfolgen. Die Ergebnisse deuten auf eine ausschließlich durch strukturelle Defekte vermittelte Kopplung der atomaren Bewegungen parallel und senkrecht zur Flächennormalen des Filmes hin. KW - ultraschnelle Röntgendiffraktion KW - Gitterdynamik KW - Nanostruktur KW - optische Anregung KW - Perowskit KW - ultrafast X-ray diffraction KW - lattice dynamics KW - nanostructure KW - photoexcitation KW - perovskite Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68827 ER - TY - THES A1 - Scheffler, Thomas T1 - Privacy enforcement with data owner-defined policies T1 - Schutz privater Daten durch besitzer-definierte Richtlinien N2 - This thesis proposes a privacy protection framework for the controlled distribution and use of personal private data. The framework is based on the idea that privacy policies can be set directly by the data owner and can be automatically enforced against the data user. Data privacy continues to be a very important topic, as our dependency on electronic communication maintains its current growth, and private data is shared between multiple devices, users and locations. The growing amount and the ubiquitous availability of personal private data increases the likelihood of data misuse. Early privacy protection techniques, such as anonymous email and payment systems have focused on data avoidance and anonymous use of services. They did not take into account that data sharing cannot be avoided when people participate in electronic communication scenarios that involve social interactions. This leads to a situation where data is shared widely and uncontrollably and in most cases the data owner has no control over further distribution and use of personal private data. Previous efforts to integrate privacy awareness into data processing workflows have focused on the extension of existing access control frameworks with privacy aware functions or have analysed specific individual problems such as the expressiveness of policy languages. So far, very few implementations of integrated privacy protection mechanisms exist and can be studied to prove their effectiveness for privacy protection. Second level issues that stem from practical application of the implemented mechanisms, such as usability, life-time data management and changes in trustworthiness have received very little attention so far, mainly because they require actual implementations to be studied. Most existing privacy protection schemes silently assume that it is the privilege of the data user to define the contract under which personal private data is released. Such an approach simplifies policy management and policy enforcement for the data user, but leaves the data owner with a binary decision to submit or withhold his or her personal data based on the provided policy. We wanted to empower the data owner to express his or her privacy preferences through privacy policies that follow the so-called Owner-Retained Access Control (ORAC) model. ORAC has been proposed by McCollum, et al. as an alternate access control mechanism that leaves the authority over access decisions by the originator of the data. The data owner is given control over the release policy for his or her personal data, and he or she can set permissions or restrictions according to individually perceived trust values. Such a policy needs to be expressed in a coherent way and must allow the deterministic policy evaluation by different entities. The privacy policy also needs to be communicated from the data owner to the data user, so that it can be enforced. Data and policy are stored together as a Protected Data Object that follows the Sticky Policy paradigm as defined by Mont, et al. and others. We developed a unique policy combination approach that takes usability aspects for the creation and maintenance of policies into consideration. Our privacy policy consists of three parts: A Default Policy provides basic privacy protection if no specific rules have been entered by the data owner. An Owner Policy part allows the customisation of the default policy by the data owner. And a so-called Safety Policy guarantees that the data owner cannot specify disadvantageous policies, which, for example, exclude him or her from further access to the private data. The combined evaluation of these three policy-parts yields the necessary access decision. The automatic enforcement of privacy policies in our protection framework is supported by a reference monitor implementation. We started our work with the development of a client-side protection mechanism that allows the enforcement of data-use restrictions after private data has been released to the data user. The client-side enforcement component for data-use policies is based on a modified Java Security Framework. Privacy policies are translated into corresponding Java permissions that can be automatically enforced by the Java Security Manager. When we later extended our work to implement server-side protection mechanisms, we found several drawbacks for the privacy enforcement through the Java Security Framework. We solved this problem by extending our reference monitor design to use Aspect-Oriented Programming (AOP) and the Java Reflection API to intercept data accesses in existing applications and provide a way to enforce data owner-defined privacy policies for business applications. N2 - Im Rahmen der Dissertation wurde ein Framework für die Durchsetzung von Richtlinien zum Schutz privater Daten geschaffen, welches darauf setzt, dass diese Richtlinien oder Policies direkt von den Eigentümern der Daten erstellt werden und automatisiert durchsetzbar sind. Der Schutz privater Daten ist ein sehr wichtiges Thema im Bereich der elektronischen Kommunikation, welches durch die fortschreitende Gerätevernetzung und die Verfügbarkeit und Nutzung privater Daten in Onlinediensten noch an Bedeutung gewinnt. In der Vergangenheit wurden verschiedene Techniken für den Schutz privater Daten entwickelt: so genannte Privacy Enhancing Technologies. Viele dieser Technologien arbeiten nach dem Prinzip der Datensparsamkeit und der Anonymisierung und stehen damit der modernen Netznutzung in Sozialen Medien entgegen. Das führt zu der Situation, dass private Daten umfassend verteilt und genutzt werden, ohne dass der Datenbesitzer gezielte Kontrolle über die Verteilung und Nutzung seiner privaten Daten ausüben kann. Existierende richtlinienbasiert Datenschutztechniken gehen in der Regel davon aus, dass der Nutzer und nicht der Eigentümer der Daten die Richtlinien für den Umgang mit privaten Daten vorgibt. Dieser Ansatz vereinfacht das Management und die Durchsetzung der Zugriffsbeschränkungen für den Datennutzer, lässt dem Datenbesitzer aber nur die Alternative den Richtlinien des Datennutzers zuzustimmen, oder keine Daten weiterzugeben. Es war daher unser Ansatz die Interessen des Datenbesitzers durch die Möglichkeit der Formulierung eigener Richtlinien zu stärken. Das dabei verwendete Modell zur Zugriffskontrolle wird auch als Owner-Retained Access Control (ORAC) bezeichnet und wurde 1990 von McCollum u.a. formuliert. Das Grundprinzip dieses Modells besteht darin, dass die Autorität über Zugriffsentscheidungen stets beim Urheber der Daten verbleibt. Aus diesem Ansatz ergeben sich zwei Herausforderungen. Zum einen muss der Besitzer der Daten, der Data Owner, in die Lage versetzt werden, aussagekräftige und korrekte Richtlinien für den Umgang mit seinen Daten formulieren zu können. Da es sich dabei um normale Computernutzer handelt, muss davon ausgegangen werden, dass diese Personen auch Fehler bei der Richtlinienerstellung machen. Wir haben dieses Problem dadurch gelöst, dass wir die Datenschutzrichtlinien in drei separate Bereiche mit unterschiedlicher Priorität aufteilen. Der Bereich mit der niedrigsten Priorität definiert grundlegende Schutzeigenschaften. Der Dateneigentümer kann diese Eigenschaften durch eigene Regeln mittlerer Priorität überschrieben. Darüber hinaus sorgt ein Bereich mit Sicherheitsrichtlinien hoher Priorität dafür, dass bestimmte Zugriffsrechte immer gewahrt bleiben. Die zweite Herausforderung besteht in der gezielten Kommunikation der Richtlinien und deren Durchsetzung gegenüber dem Datennutzer (auch als Data User bezeichnet). Um die Richtlinien dem Datennutzer bekannt zu machen, verwenden wir so genannte Sticky Policies. Das bedeutet, dass wir die Richtlinien über eine geeignete Kodierung an die zu schützenden Daten anhängen, so dass jederzeit darauf Bezug genommen werden kann und auch bei der Verteilung der Daten die Datenschutzanforderungen der Besitzer erhalten bleiben. Für die Durchsetzung der Richtlinien auf dem System des Datennutzers haben wir zwei verschiedene Ansätze entwickelt. Wir haben einen so genannten Reference Monitor entwickelt, welcher jeglichen Zugriff auf die privaten Daten kontrolliert und anhand der in der Sticky Policy gespeicherten Regeln entscheidet, ob der Datennutzer den Zugriff auf diese Daten erhält oder nicht. Dieser Reference Monitor wurde zum einen als Client-seitigen Lösung implementiert, die auf dem Sicherheitskonzept der Programmiersprache Java aufsetzt. Zum anderen wurde auch eine Lösung für Server entwickelt, welche mit Hilfe der Aspekt-orientierten Programmierung den Zugriff auf bestimmte Methoden eines Programms kontrollieren kann. In dem Client-seitigen Referenzmonitor werden Privacy Policies in Java Permissions übersetzt und automatisiert durch den Java Security Manager gegenüber beliebigen Applikationen durchgesetzt. Da dieser Ansatz beim Zugriff auf Daten mit anderer Privacy Policy den Neustart der Applikation erfordert, wurde für den Server-seitigen Referenzmonitor ein anderer Ansatz gewählt. Mit Hilfe der Java Reflection API und Methoden der Aspektorientierten Programmierung gelang es Datenzugriffe in existierenden Applikationen abzufangen und erst nach Prüfung der Datenschutzrichtlinie den Zugriff zuzulassen oder zu verbieten. Beide Lösungen wurden auf ihre Leistungsfähigkeit getestet und stellen eine Erweiterung der bisher bekannten Techniken zum Schutz privater Daten dar. KW - Datenschutz KW - Java Security Framework KW - Aspektorientierte Programmierung KW - Policy Sprachen KW - Owner-Retained Access Control (ORAC) KW - Data Privacy KW - Java Security Framework KW - Aspect-Oriented Programming KW - Policy Languages KW - Owner-Retained Access Control (ORAC) Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67939 ER - TY - THES A1 - Sauer, Patrick T1 - Liberation of low molecular weight organic acids from sedimentary organic matter and their role on microbial activity N2 - Low molecular weight organic acids (LMWOAs) are important nutrients for microbes. However, most LMWOAs do not exist freely in the environment but are bound to macromolecular organic matter, e.g. kerogen, lignite and coal. During burial and geological maturation of sedimentary macromolecular organic matter biological and abiological processes promote the liberation of LMWOAs into the surrounding sediment. Through this process, microbes in sedimentary subsurface environments are supplied with essential nutrients. To estimate the feedstock potential of buried macromolecular organic matter to many environments it is important to determine the amount of LMWOAs that are bound to such a matrix. However, high-pressure and high temperature are a key feature of deep subsurface environments, and these physical parameters have a profound influence on chemical reaction kinetics. Therefore it is essential for the estimation of the feedstock potential to generate high-pressure and high temperature for the liberation of LMWOAs to recreate true in-situ conditions. This work presents a newly developed, inexpensive incubation system for biological and geological samples. It allows the application of high-pressure and high temperature as well as a subsampling of the liquid phase without loss of pressure, thereby not disturbing the on-going processes. When simulating the liberation of LMWOAs from sedimentary organic matter, the newly developed incubation system produces more realistic results than other extraction systems like Soxhlet. The extraction products remain in the extraction medium throughout the extraction, influencing the chemical conditions of the extraction medium. Sub-bituminous coal samples from New Zealand as well as lignite samples from Germany were extracted at elevated temperature (90˚C) and pressure (5 MPa). The main LMWOAs released from these low rank coals were formate, acetate and oxalate. Extraction efficiency was increased by two to four times for formate, acetate and oxalate in comparison to existing extraction methods without pressurisation and with demineralised water. This shows the importance of pressure for the simulation of true in-situ conditions and suggests that the amount of bioavailable LMWOAs is higher than previously thought. With the increase in carbon capture and storage (CCS) and the enhanced recovery of oil and gas (EOR/EGR), more and more CO2 becomes injected into the underground. However, the effects of elevated concentrations of carbon dioxide on sedimentary organic matter are rarely investigated. As the incuabtion system allows the manipulation of the composition and partial pressure of dissolved gasses, the effect of highly gas-enriched (CO2, CO2/SO2, CO2/NO2; to simulate flue gas conditions) waters on the extraction yield of LMWOAs from macromolecular organic matter was evaluated. For sub-bituminous coal the concentrations of all LMWAOs decreased upon the addition of gas, irrespective of its composition, whereas for lignite formate always and acetate mostly increased, while oxalate decreased. This suggests an positive effect on the nutrient supply for the subsurface microbiota of lignite layers, as formate and acetate are the most common LMWOAs used for microbial metabolism. In terrestrial mud volcanoes (TMVs), sedimentary material is rapidly ascending from great depth to the surface. Therefore LMWOAs that were produced from buried macromolecular organic matter at depth are also brought up to the surface, and fuel heterotrophic microbial ecosystems at the surface. TMVs represent geochemically and microbiologically diverse habitats, which are supplied with organic substrates and electron acceptors from deep-seated hydrocarbon-generating systems and intersected shallow aquifers, respectively. The main electron donor in TMVs in Azerbaijan is sulphate, and microbial sulphate reduction leads to the production of a wide range of reduced sulphur species that are key players in several biological processes. In our study we estimated the effect of LMWOAs on the sulphur metabolising activity of microorganims in TMVs from Azerbaijan. The addition of a mixture of volatile fatty acids containing acetate and other LMWOAs showed significant positive response to the sulphate reduction rate (SRR) of samples of several mud volcanoes. Further investigations on the temperature dependency of the SRR and the characterisation of thermophilic sulphate-reducing bacteria (SRB) showed a connection between the deep hot subsurface and the surface. N2 - Niedermolekulare organische Säuren (nachfolgend als LMWOAs - low molecular weight organic acids - bezeichnet) stellen wichtige mikrobielle Substrate dar. Jedoch liegen die meisten LMWOAs nicht in freier, bioverfügbarer Form vor, sondern sind vielmehr an hochmolekulare organische Substanzen gebunden, z.B. Kerogen, Lignit und Kohle. Während der geologischen Verbringung in tiefe Erdschichten und der geologischen Reifung von sedimentären hochmolekularen organischen Substanzen, führen biologische und abiologische Prozesse zu einer Freisetzung von LMWOAs in die umgebenden Sedimente. Durch diesen Prozess werden Mikroorganismen in unterirdischen sedimentären Ökosystemen mit essentiellen Nährstoffen versorgt. Um das Nährstoffpotential tief liegender hochmolekularer organischer Substanzen für diverse Ökosystemen abschätzen zu können, ist es notwendig, die Menge an LMWOAs, die an solch eine hochmolekulare Matrix gebunden ist, zu bestimmen. Dabei stellen hoher Druck sowie hohe Temperatur entscheidende Faktoren in tiefen unterirdischen Ökosystemen dar, welche einen signifikanten Einfluss auf chemische Reaktionen haben. Daher ist es für die Abschätzung des Nährstoffpotentials entscheidend, hohen Druck und hohe Temperatur bei der Freisetzung von LMWOAs zu erzeugen, um wahre in situ Bedingungen zu schaffen. In der vorliegenden Arbeit wird ein neu entwickeltes, preiswertes Inkubationssystem für biologische und geologische Proben präsentiert. Es erlaubt die Verwendung von hohem Druck als auch hoher Temperatur sowie eine Unterprobennahme der flüssigen Phase ohne Druckverlust, um den fortlaufende Prozess nicht zu unterbrechen. Bei der Simulierung der Freisetzung von LMWOAs aus sedimentären organischen Substanzen erhält man mit dem neu entwickelten Inkubationssystem realistischere Resultate als mit anderen Extraktionssystemen, wie z.B. eine Soxhlet-Apparatur. Die Extraktionsprodukte verbleiben während der Extraktion im Extraktionsmedium, wodurch die chemischen Bedingungen verändert werden. Kohleproben aus Neuseeland sowie aus Deutschland wurden mittels erhöhter Temperatur (90°C) und Druck (5 MPa) extrahiert. Die wichtigsten LMWOAs, die aus diesen Kohlen freigesetzt wurden, waren Formiat, Acetat und Oxalat. Die Extraktionseffizienz für diese LMWOAs konnte im Vergleich zu existierenden Extraktionsmethoden ohne Druck um den Faktor 2 bis 4 gesteigert werden. Dies zeigt die Bedeutung von Druck bei der Simulation von in situ Bedingungen und legt nahe, dass die Menge an bioverfügbaren LMWOAs größer ist als bisher angenommen. Durch die Zunahme der CO2-Speicherung im Untergrund (carbon capture and storage, CCS) sowie der erweiterten Förderung von Öl und Gas (enhanced recovery of oil and gas, EOR/EGR) wird immer mehr CO2 in den Untergrund gepresst. Jedoch sind die Auswirkungen von erhöhten CO2-Konzentrationen auf sedimentäre organische Materie noch unerforscht. Da mit dem Inkubationssystem die Veränderung der Zusammensetzung und des Partialdruckes von gelösten Gasen möglich ist, wurde der Effekt von hoch mit Gasen (CO2, CO2/SO2, CO2/NO2; um Kraftwerksabgase zu simulieren) angereicherten Wässern auf die Extraktionsausbeute von LMWOAs untersucht. Bei der subbituminösen Kohle zeigte sich eine Abnahme aller LMWOAs-Konzentrationen durch die Lösung von Gas im Extraktionsmedium, wobei die Art des Gases keine Rolle spielte. Bei Lignit konnte hingegen festgestellt werden, dass die Extraktionsausbeute an Formiat immer und an Acetat meistens erhöht wurde, während sie sich bei Oxalat verringerte. Dies deutet auf einen positiven Effekt für die Nährstoffversorgung von Mikroorganismen um Lignit-Lagerstätten an, da Formiat und Acetat die am häufigsten verwendeten LMWOAs im mikrobiellen Stoffwechsel darstellen. In terrestrischen Schlammvulkanen (terrestrial mud volcanoes, TMVs) steigt sedimentäres Material aus großen Tiefen an die Erdoberfläche. Somit werden auch LMWOAs, welche aus hochmolekularen organischen Substanzen freigesetzt werden, an die Oberfläche verbracht, und ermöglichen dort heterotrophe Ökosysteme. TMVs stellen dabei geochemisch und mikrobiell unterschiedliche Habitate dar, welche mit organischen Substraten und Elektronenakzeptoren aus tief liegenden, Kohlenwasserstoffe erzeugenden Systemen versorgt werden. In TMVs in Aserbaidschan stellt Sulfat den Hauptelektronenakzeptor dar, wobei mikrobielle Sulfatreduktion zu einer Vielzahl an reduzierten Schwefelspezies führt. In der vorliegenden Arbeit wurde der Effekt von LMWOAs auf die Aktivität von Mikroorganismen bei der Umsetzung von Schwefel in TMVs in Aserbaidschan untersucht. Die Zugabe einer Mischung verschiedener kurzkettiger Fettsäuren zu Schlammproben verschiedener TMVs erzeugte eine signifikant positive Reaktion in Bezug auf die Sulfat-Reduktionsraten. Weiterführende Untersuchungen zur Temperaturabhängigkeit der Sulfat-Reduktionsraten und die Charakterisierung thermophiler, Sulfat-Reduzierender Bakterien zeigte eine Verbindung zwischen der tiefen, heißen Biosphäre und der Erdoberfläche auf. T2 - Freisetzung niedermolekularer organischer Säuren aus sedimentärer organischer Materie und ihre Rolle auf die mikrobielle Aktivität KW - low molecular weight organic acids KW - sedimentary organic matter KW - carbon dioxide KW - high-pressure incubation system KW - microbial activity Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68830 ER - TY - THES A1 - Santan, Harshal Diliprao T1 - Synthesis and characterization of thermosensitive hydrogels derived from polysaccharides N2 - In this work, thermosensitive hydrogels having tunable thermo-mechanical properties were synthesized. Generally the thermal transition of thermosensitive hydrogels is based on either a lower critical solution temperature (LCST) or critical micelle concentration/ temperature (CMC/ CMT). The temperature dependent transition from sol to gel with large volume change may be seen in the former type of thermosensitive hydrogels and is negligible in CMC/ CMT dependent systems. The change in volume leads to exclusion of water molecules, resulting in shrinking and stiffening of system above the transition temperature. The volume change can be undesired when cells are to be incorporated in the system. The gelation in the latter case is mainly driven by micelle formation above the transition temperature and further colloidal packing of micelles around the gelation temperature. As the gelation mainly depends on concentration of polymer, such a system could undergo fast dissolution upon addition of solvent. Here, it was envisioned to realize a thermosensitive gel based on two components, one responsible for a change in mechanical properties by formation of reversible netpoints upon heating without volume change, and second component conferring degradability on demand. As first component, an ABA triblockcopolymer (here: Poly(ethylene glycol)-b-poly(propylene glycol)-b-poly(ethylene glycol) (PEPE) with thermosensitive properties, whose sol-gel transition on the molecular level is based on micellization and colloidal jamming of the formed micelles was chosen, while for the additional macromolecular component crosslinking the formed micelles biopolymers were employed. The synthesis of the hydrogels was performed in two ways, either by physical mixing of compounds showing electrostatic interactions, or by covalent coupling of the components. Biopolymers (here: the polysaccharides hyaluronic acid, chondroitin sulphate, or pectin, as well as the protein gelatin) were employed as additional macromolecular crosslinker to simultaneously incorporate an enzyme responsiveness into the systems. In order to have strong ionic/electrostatic interactions between PEPE and polysaccharides, PEPE was aminated to yield predominantly mono- or di-substituted PEPEs. The systems based on aminated PEPE physically mixed with HA showed an enhancement in the mechanical properties such as, elastic modulus (G′) and viscous modulus (G′′) and a decrease of the gelation temperature (Tgel) compared to the PEPE at same concentration. Furthermore, by varying the amount of aminated PEPE in the composition, the Tgel of the system could be tailored to 27-36 °C. The physical mixtures of HA with di-amino PEPE (HA·di-PEPE) showed higher elastic moduli G′ and stability towards dissolution compared to the physical mixtures of HA with mono-amino PEPE (HA·mono-PEPE). This indicates a strong influence of electrostatic interaction between –COOH groups of HA and –NH2 groups of PEPE. The physical properties of HA with di-amino PEPE (HA·di-PEPE) compare beneficially with the physical properties of the human vitreous body, the systems are highly transparent, and have a comparable refractive index and viscosity. Therefore,this material was tested for a potential biological application and was shown to be non-cytotoxic in eluate and direct contact tests. The materials will in the future be investigated in further studies as vitreous body substitutes. In addition, enzymatic degradation of these hydrogels was performed using hyaluronidase to specifically degrade the HA. During the degradation of these hydrogels, increase in the Tgel was observed along with decrease in the mechanical properties. The aminated PEPE were further utilised in the covalent coupling to Pectin and chondroitin sulphate by using EDC as a coupling agent. Here, it was possible to adjust the Tgel (28-33 °C) by varying the grafting density of PEPE to the biopolymer. The grafting of PEPE to Pectin enhanced the thermal stability of the hydrogel. The Pec-g-PEPE hydrogels were degradable by enzymes with slight increase in Tgel and decrease in G′ during the degradation time. The covalent coupling of aminated PEPE to HA was performed by DMTMM as a coupling agent. This method of coupling was observed to be more efficient compared to EDC mediated coupling. Moreover, the purification of the final product was performed by ultrafiltration technique, which efficiently removed the unreacted PEPE from the final product, which was not sufficiently achieved by dialysis. Interestingly, the final products of these reaction were in a gel state and showed enhancement in the mechanical properties at very low concentrations (2.5 wt%) near body temperature. In these hydrogels the resulting increase in mechanical properties was due to the combined effect of micelle packing (physical interactions) by PEPE and covalent netpoints between PEPE and HA. PEPE alone or the physical mixtures of the same components were not able to show thermosensitive behavior at concentrations below 16 wt%. These thermosensitive hydrogels also showed on demand solubilisation by enzymatic degradation. The concept of thermosensitivity was introduced to 3D architectured porous hydrogels, by covalently grafting the PEPE to gelatin and crosslinking with LDI as a crosslinker. Here, the grafted PEPE resulted in a decrease in the helix formation in gelatin chains and after fixing the gelatin chains by crosslinking, the system showed an enhancement in the mechanical properties upon heating (34-42 °C) which was reversible upon cooling. A possible explanation of the reversible changes in mechanical properties is the strong physical interactions between micelles formed by PEPE being covalently linked to gelatin. Above the transition temperature, the local properties were evaluated by AFM indentation of pore walls in which an increase in elastic modulus (E) at higher temperature (37 °C) was observed. The water uptake of these thermosensitive architectured porous hydrogels was also influenced by PEPE and temperature (25 °C and 37 °C), showing lower water up take at higher temperature and vice versa. In addition, due to the lower water uptake at high temperature, the rate of hydrolytic degradation of these systems was found to be decreased when compared to pure gelatin architectured porous hydrogels. Such temperature sensitive architectured porous hydrogels could be important for e.g. stem cell culturing, cell differentiation and guided cell migration, etc. Altogether, it was possible to demonstrate that the crosslinking of micelles by a macromolecular crosslinker increased the shear moduli, viscosity, and stability towards dissolution of CMC-based gels. This effect could be likewise be realized by covalent or non-covalent mechanisms such as, micelle interactions, physical interactions of gelatin chains and physical interactions between gelatin chains and micelles. Moreover, the covalent grafting of PEPE will create additional net-points which also influence the mechanical properties of thermosensitive architectured porous hydrogels. Overall, the physical and chemical interactions and reversible physical interactions in such thermosensitive architectured porous hydrogels gave a control over the mechanical properties of such complex system. The hydrogels showing change of mechanical properties without a sol-gel transition or volume change are especially interesting for further study with cell proliferation and differentiation. N2 - In der vorliegenden Arbeit wurden thermosensitive Hydrogele mit einstellbaren thermo-mechanischen Eigenschaften synthetisiert. Im Allgemeinen basiert der thermische Übergang thermosensitiver Gele auf einer niedrigsten kritischen Löslichkeitstemperatur (LCST) oder kritischer Mizellkonzentration bzw. –temperatur(CMC/ CMT). Der temperaturabhängige Übergang von Sol zu Gel mit großer Volumenänderung wurde im ersten Fall bei thermosensitiven Hydrogelen beobachtet und ist vernachlässigbar für CMC/ CMT abhängige Systeme. Die Änderung des Volumens führt zum Ausschluss von Wassermolekülen, was zum Schrumpfen und Versteifen des Systems oberhalb der Übergangstemperatur führt. Die Volumenänderung kann unerwünscht sein, wenn Zellen in das Gel eingeschlossen werden sollen. Die Gelierung im zweiten Fall beruht hauptsächlich auf der Mizellbildung oberhalb der Übergangstemperatur und weiterem kolloidalem Packen von Mizellen im Bereich der Gelierungstemperatur. Weil die Gelierung hauptsächlich von der Polymerkonzentration abhängt, kann sich das Gel bei Zugabe von Lösungsmittel leicht wieder lösen. Hier sollten thermosensitive Gele entwickelt werden, die auf zwei Komponenten beruhen. Eine Komponente sollte aus einem ABA-Triblockcopolymer mit thermosensitiven Eigenschaften bestehen, dem Poly(ethylen glycol)-b-Poly(propylenglycol)-b-Poly(ethylen glycol) (PEPE), dessen Sol-Gel-Übergang auf Mizellierung und kolloidalem Jamming der gebildeten Mizellen basiert, und einer weiteren makromolekularen Komponente, einem Biopolymer, dass die Mizellen vernetzt. Auf diese Weise sollten thermosensitive Gele realisiert werden, die keine oder nur eine kleine Volumenänderung während der Änderung der mechanischen Eigenschaften zeigen, die stabiler gegenüber Verdünnung sein sollten als klassische Hydrogele mit einem CMC-basierten Übergang und die jedoch gezielt abgebaut werden können. Die Hydrogele wurden auf zwei Arten vernetzt, entweder durch physikalisches Vermischen, bei dem die Vernetzung durch elektrostatische Wechselwirkungen erfolgte, oder durch kovalente Kopplung der beiden Komponenten. Als makromolekulare Komponente zur Vernetzung der Mizellen wurden Biopolymere (hier: die Polysaccharide Hyaluronsäure (HA), Chondroitinsulfat oder Pektin oder das Protein Gelatin) verwendet, um die Hydrogele enzymatisch abbaubar zu gestalten. Um eine starke ionische/elektrostatische Wechselwirkung zwischen dem PEPE und den Polysachariden zu erzielen, wurde PEPE aminiert, um hauptsächlich monoaminiertes bzw. diaminiertes PEPE einsetzen zu können. Die Gele, die auf der physikalischen Mischung von aminierten PEPE mit HA bestehen, zeigten im Vergleich zu PEPE bei gleicher Konzentration eine Zunahme der mechanischen Eigenschaften, wie beispielsweise dem elastischem Modulus (G′) und dem Viskositätsmodulus (G′′) bei gleichzeitiger Abnahme der Gelierungstemperatur (Tgel). Durch Variation des Gehalts an aminierten PEPE-, konnte die Tgel in einem Bereich von 27-36 °C eingestellt werden. Interessanterweise zeigten die physikalischen Mischungen mit diaminierten PEPE (HA·di-PEPE) höhere mechanische Eigenschaften (elastischer Modulus G′) und eine höhere Stabilität gegenüber Verdünnungseffekten als Mischungen mit monoaminiertem PEPE (HA·mono-PEPE). Dies zeigt den starken Einfluss der elektrostatischen Wechselwirkungen zwischen der Carboxylgruppe der HA und der Amingruppe von PEPE. Die physikalischen Eigenschaften HA·di-PEPE sind vergleichbar mit den physikalischen Eigenschaften des Glaskörpers im Auge hinsichtlich Transparenz, Brechungsindex und Viskosität. Deswegen wurde das Material hinsichtlich seiner biologischen Anwendung getestet und zeigte sich sowohl im Überstand als auch im direkten Kontakt als nichtzytotoxisch. Zukünftig wird dieses Material in weiteren Untersuchungen bezüglich seiner Eignung als Glaskörperersatz geprüft werden. Zusätzlich konnte der enzymatische Abbau der Hydrogele mit Hyaluronidase gezeigt werden, die spezifisch HA abbaut. Beim Abbau der Hydrogele stieg Tgel bei gleichzeitiger Abnahme der mechanischen Eigenschaften. Aminiertes PEPE wurde zusätzlich zur kovalenten Bindung unter Verwendung von EDC als Aktivator an Pektin und Chondroitinsulfat eingesetzt. Tgel konnte auf 28 – 33 °C eingestellt werden durch Variation der Pfropfungsdichte am Biopolymer bei gleichzeitiger Zunahme der thermischen Stabilität. Die Pec-g-PEPE Hydrogele waren enzymatisch abbaubar, was zu einer leichten Erhöhung von Tgel und zu einer Abnahme von G′ führte. Die kovalente Bindung der aminierten PEPE an HA erfolgte unter Verwendung von DMTMM als Aktivator, der sich in diesem Fall als effektiver als EDC herausstellte. Die Reinigung mittels Ultrafiltration führte zu einer deutlich besseren Aufreinigung des Produkts als mittels Dialyse. Die gegrafteten Systeme waren in Nähe der Körpertemperatur bereits im Gelstadium und zeigten eine Erhöhung der mechanischen Eigenschaften bereits bei sehr geringen Konzentrationen von 2.5Gew.%. Die höheren mechanischen Eigenschaften dieser Hydrogele erklären sich durch die Kombination der Mizellbildung (physikalische Wechselwirkung) des PEPE und der Bildung kovalenter Netzpunkte zwischen PEPE und HA. PEPE bzw. entsprechende physikalische Mischungen derselben Komponenten zeigten kein thermosensitives Verhalten bei einer Konzentration unterhalb von 16 Gew%. Diese thermosensitiven Hydrogele zeigten auch eine Löslichkeit auf Abruf durch enzymatischen Abbau. Das Konzept der Thermosensitivität wurde in 3D strukturierte, poröse Hydrogele (TArcGel)eingeführt, bei dem PEPE kovalent an Gelatin gebunden wurde und mit LDI vernetzt wurde. Das gepfropfte PEPE führte zu einer Erniedrigung der Helixbildung der Gelatinketten. Nach Fixierung der Gelatinketten durch Vernetzung zeigte das System eine Erhöhung der mechanischen Eigenschaften bei Erwärmung (34-42 °C). Dieses Phänomen war reversibel beim Abkühlen. Eine mögliche Erklärung der reversiblen Änderungen bezüglich der mechanischen Eigenschaften sind die starken physikalischen Wechselwirkungen zwischen den Mizellen des PEPE, die kovalent an Gelatin gebunden wurden. Ferner wurde durch AFM Untersuchungen festgestellt, dass bei Temperaturerhöhung (37 °C) die örtlichen elastischen Moduli (E) der Zellwände zugenommen haben. Zusätzlich wurde die Wasseraufnahme der TArcGele durch PEPE und die Temperatur (25 °C und 37 °C) beeinflusst und zeigte eine niedrigere Wasseraufnahme bei höherer Temperatur und umgekehrt. Durch die niedrigere Wasseraufnahme bei hohen Temperaturen erniedrigte sich die Geschwindigkeit des hydrolytischen Abbaus im Vergleich zu dem strukturierten Hydrogel aus reiner Gelatin. Diese temperatursensitiven ArcGele könnten bedeutsam sein für Anwendungen im Bereich Stammzellkultivierung, Zelldifferenzierung und gerichteter Zellmigration. Zusammenfassend konnte bei den thermosensitiven Hydrogelen gezeigt werden, dass die Vernetzung von Mizellen mit einem makromolekularen Vernetzer die Schermoduli, Viskosität und Löslichkeitsstabilität im Vergleich zu reinen ABATriblockcopolymeren mit CMC-Übergang erhöht. Dieser Effekt konnte durch kovalente und nichtkovalente Mechanismen, wie beispielsweise Mizell- Wechselwirkungen, physikalische Interaktionen von Gelatinketten und physikalische Interaktionen von Gelatinketten und Mizellen, realisiert werden. Das Pfropfen von PEPE führte zu zusätzlichen Netzpunkten, die die mechanischen Eigenschaften der thermosensitiven architekturisierten, porösen Hydrogele beeinflussten. Insgesamt ermöglichten die physikalischen und chemischen Bindungen und die reversiblen physikalischen Wechselwirkungen in den strukturierten, porösen Hydrogelen eine Kontrolle der mechanischen Eigenschaften in diesem sehr komplexen System. Die Hydrogele, die eine Veränderung ihrer mechanischen Eigenschaften ohne Volumenänderung oder Sol-Gel-Übergang zeigen sind besonders interessant für Untersuchungen bezüglich Zellproliferation und –differenzierung. KW - thermosensitive KW - hydrogels KW - biomaterials KW - biopolymers KW - sol-gel Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69793 ER - TY - THES A1 - Salffner, Katharina T1 - Entwicklung eines breitbandigen Cavity-Ring-Down-Spektrometers unter Verwendung nahinfraroter, inkohärenter Strahlung T1 - Development of a broadband cavity ring-down spectrometer using incoherent near-infrared radiation N2 - In der vorliegenden Arbeit werden verschiedene Spektrometer für die Analyse von Gasen bzw. Gasgemischen vorgestellt und deren Design, Aufbau, Charakterisierung und Optimierung beschrieben. Das Resultat der Optimierung und Weiterentwicklungen ist ein spektral breitbandiges Cavity-Ring-Down-Spektrometer (CRD-Spektrometer). Ausgangspunkt der hier vorgestellten Arbeit ist ein Spektrometer auf Basis klassischer Absorptionsspektroskopie in einer Multireflexionszelle. Für dieses Spektrometer wurde als Strahlquelle ein Superkontinuumlaser verwendet. Der Vorteil dieses Spektrometers liegt in seiner Kompaktheit. Mit diesem Spektrometer wurden Absorptionsspektren von mehreren Reingasen und einem Gasgemisch über einen Wellenlängenbereich von 1500 nm – 1700 nm aufgenommen. Der qualitative Vergleich mit zu erwartenden Spektren, welche auf der HITRAN-Datenbank basieren, zeigte eine gute Übereinstimmung. Die quantitative Interpretierbarkeit der Daten war jedoch stark eingeschränkt aufgrund des hohen zufälligen und systematischen Fehlers der Messungen. Als Konsequenz aus der als nicht zufriedenstellend bewerteten quantitativen Interpretierbarkeit der Daten wurde eine alternative Messmethode gesucht, welche eine höhere Sensitivität und Genauigkeit ermöglicht. Die Wahl fiel auf die Cavity-Ring-Down-Spektroskopie, eine resonatorgestützte Variante der Absorptionsspektroskopie. Wesentliche Vorteile dieser Technik sind a) die Unabhängigkeit von Leistungsschwankungen der Strahlquelle, b) ein effektiver Absorptionsweg von bis zu mehreren Kilometern, welcher sich unmittelbar auf die Sensitivität der Messungen auswirkt, c) die Ermittlung absoluter Absorberkonzentrationen, ohne die Notwendigkeit einer Kalibrierung oder den Vergleich mit einer Referenzzelle und d) die Vernachlässigbarkeit von Absorptionen außerhalb des Resonators. Als notwendiger Zwischenschritt auf dem Weg zu einem breitbandigen CRD-Spektrometer wurde zunächst ein monochromatisches CRD-Spektrometer designt, aufgebaut und charakterisiert. Für die effektive Einkopplung von Strahlungsenergie in einen Resonator ist die Anpassung der Strahlparameter an die Mode des Resonators notwendig. Voraussetzung dieser Anpassung ist die Kenntnis der Strahlparameter, welche experimentell ermittelt wurden. Im Laufe des Aufbaus des Spektrometers ergab sich, dass trotz der Modenanpassung die Einkopplung der Strahlungsenergie in den Resonator gestört wurde. Daraufhin wurden systematisch mögliche Ursachen dieser Störung untersucht und das Spektrometer optimiert. Mit diesem optimierten Spektrometer wurden Spektren gemessen, welche sowohl qualitativ als auch quantitativ gut mit den zu erwartenden Spektren übereinstimmen. Als Nachweisgrenze dieses Spektrometers wurde ein Wert für den Absorptionskoeffizienten alpha von 10^-8 cm-1 bestimmt. Mit dem monochromatischen CRD-Spektrometer war es zudem möglich, isotopenspezifische Messungen durchzuführen. Für das breitbandige Spektrometer wurde als Strahlquelle eine ASE-Diode (amplified spontaneous emission) verwendet. Dabei handelt es sich um eine inkohärente Strahlquelle. Mittels Messungen nach dem Prinzip der Cavity-Enhanced-Absorptionsspektroskopie wurde die generelle Funktionalität des resonatorgestützten Spektrometers überprüft. Anschließend wurden die wellenlängenabhängigen Abklingsignale des leeren und des mit einem CO2-Luft-Gemisch gefüllten Resonators gemessen und ebenfalls mit den zu erwartenden Spektren verglichen. Qualitativ stimmen die experimentellen Spektren gut mit den zu erwartenden Spektren überein. Für die quantitative Interpretation der Daten wurde ein spezieller Algorithmus entwickelt, der die spektrale Auflösung des Systems berücksichtigt. Mit dem vorgestellten Spektrometer ist so die qualitative und quantitative Interpretation der Spektren möglich. Die Nachweisgrenze des breitbandigen Cavity-Ring-Down-Spektrometers wurde zu einem Wert von alpha = 8x10^-7 cm-1 bestimmt. Der systematischen und der zufällige Fehler der Messungen lagen bei Werten von ca. 1%. Bei diesem Spektrometer handelt es sich um einen Prototyp. Mittels Optimierung des Systems lassen sich sowohl der Wert der Nachweisgrenze als auch die Fehler der Messungen verbessern. N2 - This thesis presents the design, set-up, characterisation and optimization of various spectrometers to be used for the analysis of gases and gas mixtures. The result of this optimization and its further development is a spectrally broadband cavity ring-down spectrometer (CRD spectrometer), which uses an incoherent light source that emits in the near-infrared. The starting point of the development was a spectrometer which is based on classic absorption spectroscopy inside a multipass cell. This spectrometer uses a supercontinuum laser as light source. The advantage of this spectrometer is its compactness. With this spectrometer, the spectra of various gases and a gas mixture were detected in the spectral range of 1500 nm to 1700 nm. The experimentally derived spectra are in good qualitative accordance to expected spectra based on the HITRAN database. Nevertheless, the qualitative interpretation of the data reveals significant systematic and random errors. As a consequence, a different spectroscopic approach was chosen. The method of choice was cavity ring-down spectroscopy. The advantages of this technique are a) the independence from power fluctuations of the light source, b) an effective absorption path length of up to several kilometres, c) absolute measurement of absorber concentration and d) independence of absorption outside of the cavity. As an important intermediate step on the way to the broadband CRD spectrometer, a monochromatic CRD spectrometer was designed, set up and characterised. To effectively couple light into the cavity, the beam parameters have to be matched to the cavity’s mode. Prerequisite of this mode matching is the knowledge of the beam parameters, which were determined experimentally. Despite this mode matching, the coupling of the light into the cavity turned out to be instable. The cause of that disturbance was systematically investigated, which let to an optimization of the system. The spectra measured with this optimized system were in very good qualitative and quantitative agreement with the expected spectra. The limit of detection of this spectrometer was determined to an absorption coefficient alpha of 10^-8 cm-1. Furthermore, isotope-selective measurements were performed. The light source of the broadband CRD spectrometer is an amplified spontaneous emission diode, which is an incoherent light source. The general functionality of the spectrometer was first tested by means of CEAS measurements (cavity enhanced absorption spectroscopy). Afterwards, the wavelength dependent ring-down signals of the empty cavity and the cavity filled with a CO2 air mixture were detected. The qualitative comparison with the expected data shows very good agreement. For the quantitative interpretation of the experimental data, a special algorithm was developed. Thereby the data measured with the presented spectrometer can be interpreted both qualitatively and quantitatively. The limit of detection of the broadband CRD spectrometer was determined to a value of alpha = 8x10^-7 cm-1. The systematic and the random error are in the range of 1 %. The presented spectrometer is a prototype. Therefore the systematic and random error will be improved by further optimization of the spectrometer. KW - Spektroskopie KW - Nahinfrarot (NIR) KW - Breitband KW - Cavity Ring-Down KW - Gassensorik KW - spectroscopy KW - near-infrared (NIR) KW - broadband KW - cavity ring-down KW - gas sensing Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68952 ER - TY - THES A1 - Rätzel, Dennis T1 - Tensorial spacetime geometries and background-independent quantum field theory T1 - Tensorielle Raumzeit-Geometrien und hintergrundunabhängige Quantenfeldtheorie N2 - Famously, Einstein read off the geometry of spacetime from Maxwell's equations. Today, we take this geometry that serious that our fundamental theory of matter, the standard model of particle physics, is based on it. However, it seems that there is a gap in our understanding if it comes to the physics outside of the solar system. Independent surveys show that we need concepts like dark matter and dark energy to make our models fit with the observations. But these concepts do not fit in the standard model of particle physics. To overcome this problem, at least, we have to be open to matter fields with kinematics and dynamics beyond the standard model. But these matter fields might then very well correspond to different spacetime geometries. This is the basis of this thesis: it studies the underlying spacetime geometries and ventures into the quantization of those matter fields independently of any background geometry. In the first part of this thesis, conditions are identified that a general tensorial geometry must fulfill to serve as a viable spacetime structure. Kinematics of massless and massive point particles on such geometries are introduced and the physical implications are investigated. Additionally, field equations for massive matter fields are constructed like for example a modified Dirac equation. In the second part, a background independent formulation of quantum field theory, the general boundary formulation, is reviewed. The general boundary formulation is then applied to the Unruh effect as a testing ground and first attempts are made to quantize massive matter fields on tensorial spacetimes. N2 - Bekanntermaßen hat Albert Einstein die Geometrie der Raumzeit an den Maxwell-Gleichungen abgelesen. Heutzutage nehmen wie diese Geometrie so ernst, dass unsere fundamentale Materietheorie, das Standardmodell der Teilchenphysik, darauf beruht. Sobald es jedoch um die Physik außerhalb des Sonnensystems geht, scheinen einige Dinge unverstanden zu sein. Unabhängige Beobachtungsreihen zeigen, dass wir Konzepte wie dunkle Materie und dunkle Energie brauchen um unsere Modelle mit den Beobachtungen in Einklang zu bringen. Diese Konzepte passen aber nicht in das Standardmodell der Teilchenphysik. Um dieses Problem zu überwinden, müssen wir zumindest offen sein für Materiefelder mit Kinematiken und Dynamiken die über das Standardmodell hinaus gehen. Diese Materiefelder könnten dann aber auch durchaus zu anderen Raumzeitgeometrien gehören. Das ist die Grundlage dieser Arbeit: sie untersucht die zugehörigen Raumzeitgeometrien und beschäftigt sich mit der Quantisierung solcher Materiefelder unabhängig von jeder Hintergrundgeometrie. Im ersten Teil dieser Arbeit werden Bedingungen identifiziert, die eine allgemeine tensorielle Geometrie erfüllen muss um als sinnvolle Raumzeitgeometrie dienen zu können. Die Kinematik masseloser und massiver Punktteilchen auf solchen Raumzeitgeometrien werden eingeführt und die physikalischen Implikationen werden untersucht. Zusätzlich werden Feldgleichungen für massive Materiefelder konstruiert, wie zum Beispiel eine modifizierte Dirac-Gleichung. Im zweiten Teil wird eine hintergrundunabhängige Formulierung der Quantenfeldtheorie, die General Boundary Formulation, betrachtet. Die General Boundary Formulation wird dann auf den Unruh-Effekt angewendet und erste Versuche werden unternommen massive Materiefelder auf tensoriellen Raumzeiten zu quantisieren. KW - Quantenfeldtheorie KW - Raumzeitgeometrie KW - Hochenergiephysik KW - Elementarteilchen KW - Unruh-Effekt KW - quantum field theory KW - spacetime geometry KW - high energy physics KW - elementary particles KW - Unruh effect Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65731 ER - TY - THES A1 - Rudolph-Mohr, Nicole T1 - A novel non-invasive optical method for quantitative visualization of pH and oxygen dynamics in soils T1 - Entwicklung einer neuen, nicht invasiven, optischen Methode für die quantitative Darstellung von pH und Sauerstoffdynamiken in Böden N2 - In soils and sediments there is a strong coupling between local biogeochemical processes and the distribution of water, electron acceptors, acids and nutrients. Both sides are closely related and affect each other from small scale to larger scales. Soil structures such as aggregates, roots, layers or macropores enhance the patchiness of these distributions. At the same time it is difficult to access the spatial distribution and temporal dynamics of these parameter. Noninvasive imaging techniques with high spatial and temporal resolution overcome these limitations. And new non-invasive techniques are needed to study the dynamic interaction of plant roots with the surrounding soil, but also the complex physical and chemical processes in structured soils. In this study we developed an efficient non-destructive in-situ method to determine biogeochemical parameters relevant to plant roots growing in soil. This is a quantitative fluorescence imaging method suitable for visualizing the spatial and temporal pH changes around roots. We adapted the fluorescence imaging set-up and coupled it with neutron radiography to study simultaneously root growth, oxygen depletion by respiration activity and root water uptake. The combined set up was subsequently applied to a structured soil system to map the patchy structure of oxic and anoxic zones induced by a chemical oxygen consumption reaction for spatially varying water contents. Moreover, results from a similar fluorescence imaging technique for nitrate detection were complemented by a numerical modeling study where we used imaging data, aiming to simulate biodegradation under anaerobic, nitrate reducing conditions. N2 - In Böden und Sedimenten sind biogeochemische Prozesse und die Verteilung von Größen wie Wasser, Elektronenakzeptoren, Säuregehalte und Nährstoffe in enger Weise miteinander gekoppelt. Diese wechselseitige Beeinflussung ist skalenübergreifend und reicht von sehr kleinen bis zu größeren Skalen. Die in realen Böden vorhandene Struktur z. Bsp. Aggregate, Pflanzenwurzeln, Schichten und Makroporen bedingen eine starke räumlich Heterogenität und zeitliche Dynamik dieser Größen. Gleichzeitig sind Verteilung und Dynamik sehr schwer zu beobachten, zumindest ohne ihre gleichzeitige Störung. Bildgebende Verfahren bieten eine sehr gute räumliche und zeitliche Auflösung und ermöglichen die Darstellung dieser Größen. Um die dynamische Wechselwirkung zwischen Pflanzenwurzeln und Boden, aber auch die komplexen physikalisch – chemischen Prozesse in Böden zu verstehen, sind neue bildgebende Verfahren notwendig. Ziel dieser Arbeit war es, eine neue nicht-invasive Methode zu entwickeln, die es ermöglicht biogeochemische Parameter in der Wurzelzone zu visualisieren. Innerhalb dieser Studie wurde ein quantitatives bildgebendes Verfahren entwickelt, dass die räumlichen und zeitlichen Dynamiken des pH Wertes in der Rhizosphäre erfasst. Diese auf Fluoreszenzemissionen basierende Methode wurde ebenso für Sauerstoffdetektion entwickelt und mit Neutronen Radiographie kombiniert um gleichzeitig Aussagen über Wurzelwachstum, Sauerstoffzehrung durch Wurzelatmung und Wurzelwasseraufnahme treffen zu können. Die kombinierte bildgebende Methode wurde dann in einem künstlichen Boden genutzt um Nischen und Übergangsbereiche von Sauerstoff bei variierenden Wassergehalten zu charakterisieren. Das große Potential von bildgebenden Verfahren zeigt sich bei Modellierungsstudien. In dieser Studie wurden Bilddaten als Eingabeparameter für die Simulierung von denitrifizierendem biologischem Schadstoffabbau genutzt. KW - Optische Sensoren KW - pH KW - Sauerstoff KW - Fluoreszenzbildgebung KW - Rhizosphere KW - Optical sensor KW - pH KW - oxygen KW - fluorescence imaging KW - rhizosphere Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66993 ER - TY - THES A1 - Rothe, Monique T1 - Response of intestinal Escherichia coli to dietary factors in the mouse intestine T1 - Anpassung von Escherichia coli an Ernährungsfaktoren im Intestinaltrakt der Maus N2 - Diet is a major force influencing the intestinal microbiota. This is obvious from drastic changes in microbiota composition after a dietary alteration. Due to the complexity of the commensal microbiota and the high inter-individual variability, little is known about the bacterial response at the cellular level. The objective of this work was to identify mechanisms that enable gut bacteria to adapt to dietary factors. For this purpose, germ-free mice monoassociated with the commensal Escherichia coli K-12 strain MG1655 were fed three different diets over three weeks: a diet rich in starch, a diet rich in non-digestible lactose and a diet rich in casein. Two dimensional gel electrophoresis and electrospray tandem mass spectrometry were applied to identify differentially expressed proteins of E. coli recovered from small intestine and caecum of mice fed the lactose or casein diets in comparison with those of mice fed the starch diet. Selected differentially expressed bacterial proteins were characterised in vitro for their possible roles in bacterial adaptation to the various diets. Proteins belonging to the oxidative stress regulon oxyR such as alkyl hydroperoxide reductase subunit F (AhpF), DNA protection during starvation protein (Dps) and ferric uptake regulatory protein (Fur), which are required for E. coli’s oxidative stress response, were upregulated in E. coli of mice fed the lactose-rich diet. Reporter gene analysis revealed that not only oxidative stress but also carbohydrate-induced osmotic stress led to the OxyR-dependent expression of ahpCF and dps. Moreover, the growth of E. coli mutants lacking the ahpCF or oxyR genes was impaired in the presence of non-digestible sucrose. This indicates that some OxyR-dependent proteins are crucial for the adaptation of E. coli to osmotic stress conditions. In addition, the function of two so far poorly characterised E. coli proteins was analysed: 2 deoxy-D gluconate 3 dehydrogenase (KduD) was upregulated in intestinal E. coli of mice fed the lactose-rich diet and this enzyme and 5 keto 4 deoxyuronate isomerase (KduI) were downregulated on the casein-rich diet. Reporter gene analysis identified galacturonate and glucuronate as inducers of the kduD and kduI gene expression. Moreover, KduI was shown to facilitate the breakdown of these hexuronates, which are normally degraded by uronate isomerase (UxaC), altronate oxidoreductase (UxaB), altronate dehydratase (UxaA), mannonate oxidoreductase (UxuB) and mannonate dehydratase (UxuA), whose expression was repressed by osmotic stress. The growth of kduID-deficient E. coli on galacturonate or glucuronate was impaired in the presence of osmotic stress, suggesting KduI and KduD to compensate for the function of the regular hexuronate degrading enzymes under such conditions. This indicates a novel function of KduI and KduD in E. coli’s hexuronate metabolism. Promotion of the intracellular formation of hexuronates by lactose connects these in vitro observations with the induction of KduD on the lactose-rich diet. Taken together, this study demonstrates the crucial influence of osmotic stress on the gene expression of E. coli enzymes involved in stress response and metabolic processes. Therefore, the adaptation to diet-induced osmotic stress is a possible key factor for bacterial colonisation of the intestinal environment. N2 - Sowohl Humanstudien als auch Untersuchungen an Tiermodellen haben gezeigt, dass die Ernährung einen entscheidenden Einfluss auf die Zusammensetzung der Darmmikrobiota hat. Aufgrund der Komplexität der Mikrobiota und der inter individuellen Unterschiede sind die zellulären Mechanismen, die dieser Beobachtung zugrunde liegen, jedoch weitgehend unbekannt. Das Ziel dieser Arbeit war deshalb, Anpassungsmechanismen von kommensalen Darmbakterien auf unterschiedliche Ernährungsfaktoren mittels eines simplifizierten Modells zu untersuchen. Dazu wurden keimfreie Mäuse mit Escherichia coli MG1655 besiedelt und drei Wochen mit einer stärkehaltigen, einer laktosehaltigen oder einer kaseinhaltigen Diät gefüttert. Mittels zwei dimensionaler Gelelektrophorese und Elektrospray Ionenfallen-Massenspektrometrie wurde das Proteom der intestinalen E. coli analysiert und differentiell exprimierte bakterielle Proteine in Abhängigkeit der gefütterten Diät identifiziert. Die Funktion einiger ausgewählter Proteine bei der Anpassung von E. coli auf die jeweilige Diät wurde im Folgenden in vitro untersucht. E. coli Proteine wie z.B. die Alkylhydroperoxid Reduktase Untereinheit F (AhpF), das DNA Bindeprotein Dps und der eisenabhängige Regulator Fur, deren Expression unter der Kontrolle des Transkriptionsregulators OxyR steht, wurden stärker exprimiert, wenn die Mäuse mit der laktosehaltigen Diät gefüttert wurden. Reportergenanalysen zeigten, dass nicht nur oxidativer Stress, sondern auch durch Kohlenhydrate ausgelöster osmotischer Stress zu einer OxyR abhängigen Expression der Gene ahpCF and dps führte. Weiterhin wiesen E. coli Mutanten mit einer Deletion der ahpCF oder oxyR Gene ein vermindertes Wachstum in Gegenwart von nicht fermentierbarer Saccharose auf. Das spricht dafür, dass OxyR abhängige Proteine eine wichtige Rolle bei der Anpassung von E. coli an osmotischen Stress spielen. Weiterhin wurde die Funktion von zwei bisher wenig charakterisierten E. coli Proteinen untersucht: die 2 Deoxy D Glukonate 3 Dehydrogenase (KduD) wurde im Darm von Mäusen, die mit der laktosehaltigen Diät gefüttert wurden, induziert, während dieses Protein und die 5 Keto 4 Deoxyuronate Isomerase (KduI) nach Fütterung der kaseinhaltigen Diät herunterreguliert wurden. Mittels Reportergenanalysen wurde gezeigt, dass Galakturonat und Glukuronat die kduD und kduI Expression induzierten. KduI begünstigte die Umsetzung dieser Hexuronate. In E. coli wird die Umsetzung von Galakturonat und Glukuronat typischerweise von den Enzymen Uronate Isomerase (UxaC), Altronate Oxidoreduktase (UxaB), Altronate Dehydratase (UxaA), Mannonate Oxidoreduktase (UxuB) und Mannonate Dehydratase (UxuA) katalysiert. Weitere Experimente verdeutlichten, dass osmotischer Stress die Expression der Gene uxaCA, uxaB und uxuAB verminderte. Darüber hinaus zeigten kduID defiziente E. coli Mutanten in Gegenwart von Galakturonat oder Glukuronat und durch Saccharose ausgelösten osmotischen Stress eine Verlangsamung des Wachstums. Das deutet darauf hin, dass KduI und KduD die durch osmotischen Stress bedingten Funktionseinschränkungen der regulären hexuronatabbauenden Enzyme kompensieren. Die beobachtete Bildung von intrazellulären Hexuronaten während des Laktosekatabolismus in vitro stellt eine Verbindung zu dem ursprünglichen Tierexperiment her und deutet darauf hin, dass der Ernährungsfaktor Laktose die Verfügbarkeit von Hexuronat für intestinale E. coli beeinflusst. Diese Studie weist somit den Einfluss von osmotischem Stress auf die Expression von OxyR abhängigen Genen, die für Stressantwortproteine sowie für metabolische Enzymen kodieren, in E. coli nach. Durch Nahrungsfaktoren entstandener osmotischer Stress stellt demnach einen entscheidenden Faktor für die bakterielle Kolonisation des Darmes dar. KW - Mikrobiota KW - Escherichia coli KW - Proteom KW - Ernährungsfaktoren KW - OxyR KW - microbiota KW - Escherichia coli KW - proteome KW - dietary factors KW - OxyR Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66387 ER - TY - THES A1 - Roncaglia-Denissen, Maria Paula T1 - The role of first and second language speech rhythm in syntactic ambiguity processing and musical rhythmic aptitude T1 - Die Rolle von Erst- und Zweit-Sprachrhythmus bei der Verarbeitung von syntaktischen Ambiguitäten und Musikrhythmusbegabung N2 - Rhythm is a temporal and systematic organization of acoustic events in terms of prominence, timing and grouping, helping to structure our most basic experiences, such as body movement, music and speech. In speech, rhythm groups auditory events, e.g., sounds and pauses, together into words, making their boundaries acoustically prominent and aiding word segmentation and recognition by the hearer. After word recognition, the hearer is able to retrieve word meaning form his mental lexicon, integrating it with information from other linguistic domains, such as semantics, syntax and pragmatics, until comprehension is achieved. The importance of speech rhythm, however, is not restricted to word segmentation and recognition only. Beyond the word level rhythm continues to operate as an organization device, interacting with different linguistic domains, such as syntax and semantics, and grouping words into larger prosodic constituents, organized in a prosodic hierarchy. This dissertation investigates the function of speech rhythm as a sentence segmentation device during syntactic ambiguity processing, possible limitations on its use, i.e., in the context of second language processing, and its transferability as cognitive skill to the music domain. N2 - Rhythmus ist eine zeitliche und systematische Organisierung von akustischen Ereignissen im Sinne von Prominenz, Timing und Gruppierung. In der Sprache gruppiert Rhythmus auditorische Ereignisse, wie zum Beispiel Laute und Pausen, zu Wörtern und kreiert dadurch akustisch prominente Wortgrenzen die dem Hörer bei der Segmentierung und Erkennung von Wörtern helfen können. Werden Wörter erkannt, kann der Hörer die Wörterbedeutung aus seinem Lexicon abrufen und sie mit der Information aus verschiedenen linguistischen Bereichen, semantischer, syntaktischer und pragmatischer Bereich, integrieren. Die Rolle von Sprachrhythmus ist jedoch nicht auf Wortsegmentierung und Erkennung begrenzt. Er spielt eine entscheidender Rolle in der Bildung von der Prosodischer Hierarchie, die die linguistischen Konstituenten organisiert. Die vorliegende Dissertation untersucht die Rolle des Sprachrhythmus in a) der Segmentierung von Sätzen, basierend auf der Verarbeitung von syntaktischen Ambiguitäten, b) mögliche Grenzen dieser Segmentierungsfunktion im Bereich der Zweitsprachverarbeitung, und c) mögliche Gemeinsamkeiten zwischen der kognitiven Fähigkeit Rhythmus in Sprache und Musik zu erkennen und zur Segmentierung zu nutzen. KW - speech rhythm KW - syntactic processing KW - musical rhythm KW - Sprachrhythmus KW - syntaktische Ambiguität KW - Musikrhythmus Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-78256 N1 - Part of this dissertation has been published as articles (3 articles in total) in peer-reviewed journals. ER - TY - THES A1 - Rodríguez-Villagra, Odir Antonio T1 - Inhibition, attentional control, and causes of forgetting in working memory: a formal approach T1 - Hemmung, Aufmerksamkeitskontrolle und Ursachen für das Vergessen im Arbeitsgedächtnis: ein formaler Ansatz BT - experimental effects, age differences, and individual differences in working memory capacity BT - experimentelle Effekte, Altersunterschiede und individuelle Unterschiede in der Kapazität des Arbeitsgedächtnisses N2 - In many cognitive activities, the temporary maintenance and manipulation of mental objects is a necessary step in order to reach a cognitive goal. Working memory has been regarded as the process responsible for those cognitive activities. This thesis addresses the question: what limits working-memory capacity (WMC)? A question that still remains controversial (Barrouillet & Camos, 2009; Lewandowsky, Oberauer, & Brown, 2009). This study attempted to answer this question by proposing that the dynamics between the causes of forgetting and the processes helping the maintenance, and the manipulation of the memoranda are the key aspects in understanding the limits of WMC. Chapter 1 introduced key constructs and the strategy to examine the dynamics between inhibition, attentional control, and the causes of forgetting in working memory. The study in Chapter 2 tested the performance of children, young adults, and old adults in a working-memory updating-task with two conditions: one condition included go steps and the other condition included go, and no-go steps. The interference model (IM; Oberauer & Kliegl, 2006), a model proposing interference-related mechanisms as the main cause of forgetting was used to simultaneously fit the data of these age groups. In addition to the interference-related parameters reflecting interference by feature overwriting and interference by confusion, and in addition to the parameters reflecting the speed of processing, the study included a new parameter that captured the time for switching between go steps and no-go steps. The study indicated that children and young adults were less susceptible than old adults to interference by feature overwriting; children were the most susceptible to interference by confusion, followed by old adults and then by young adults; young adults presented the higher rate of processing, followed by children and then by old adults; and young adults were the fastest group switching from go steps to no-go steps. Chapter 3 examined the dynamics between causes of forgetting and the inhibition of a prepotent response in the context of three formal models of the limits of WMC: A resources model, a decay-based model, and three versions of the IM. The resources model was built on the assumption that a limited and shared source of activation for the maintenance and manipulation of the objects underlies the limits of WMC. The decay model assumes that memory traces of the working-memory objects decay over time if they are not reactivated via different mechanisms of maintenance. The IM, already described, proposes that interference-related mechanisms explain the limits of WMC. In two experiments and in a reanalysis of data of the second experiment, one version of the IM received more statistical support from the data. This version of the IM proposes that interference by feature overwriting and interference by confusion are the main factors underlying the limits of WMC. In addition, the model suggests that experimental conditions involving the inhibition of a prepotent response reduce the speed of processing and promotes the involuntary activation of irrelevant information in working memory. Chapter 4 summed up Chapter 2 and 3 and discussed their findings and presented how this thesis has provided evidence of interference-related mechanisms as the main cause of forgetting, and it has attempted to clarify the role of inhibition and attentional control in working memory. With the implementation of formal models and experimental manipulations in the framework of nonlinear mixed models the data offered explanations of causes of forgetting and the role of inhibition in WMC at different levels: developmental effects, aging effects, effects related to experimental manipulations and individual differences in these effects. Thus, the present approach afforded a comprehensive view of a large number of factors limiting WMC. N2 - Bei vielen kognitiven Aktivitäten ist die vorübergehende Speicherung und Manipulation von Mental Objects ein notwendiger Schritt um ein kognitiven Ziel zu erreichen. Diese Prozesse finden im Arbeitsgedächtnis statt. Diese Dissertation behandelt die Frage wodurch die Kapazität des Arbeitsgedächtnisses (Working Memory Capacity, WMC) limitiert wird. Dieses Thema wurde in der Literatur bislang kontrovers diskutiert (Barrouillet & Camos, 2009; Lewandowsky, Oberauer, & Brown, 2009). Es wird hier vorgeschlagen, dass die Dynamik zwischen den Ursachen des Vergessens und den Prozessen, welche die Aufrechterhaltung unterstützen, und die Manipulation der Memoranda die Grundlagen für das Verständnis der WMC-Limitierung bildet. Kapitel 1 führt in das Thema ein und erklärt die Strategie um die Dynamik zwischen Hemmung, Aufmerksamkeitskontrolle und den Ursachen des Vergessens im Arbeitsgedächtnis zu untersuchen. Die Untersuchung in Kapitel 2 testet die Leistung von Kindern, jungen und alten Erwachsenen in einem Working Memory Updating Task mit zwei Bedingungen; eine beinhaltet Go-Steps, die andere Go- und No-Go Steps. Die Daten der Experimentalgruppen wurden mithilfe des Interferenzmodells (IM; Oberauer & Kliegl, 2006), welches Interferenz-ähnliche Mechanismen als Hauptursache des Vergessens postuliert, simultan gefitted. Zusätzlich zu Interferenz-ähnlichen Parametern, die Interferenz durch Feature-Overwriting oder Ablenkung beinhalten, sowie Parametern welche die Geschwindigkeit der Informationsverarbeitung repräsentieren, wurde ein neuer Parameter eingeführt. Dieser beschreibt die benötigte Zeit um zwischen Go- und No-Go Steps zu unterscheiden. Es wird gezeigt, dass Kinder und junge Erwachsene weniger anfällig für Interferenz durch Feature-Overwriting waren als alte Erwachsene. Kinder waren am anfälligsten für Interferenz durch Ablenkung, gefolgt von alten Erwachsenen und jungen Erwachsenen. Junge Erwachsene zeigten die schnellste Verarbeitungsrate, gefolgt von Kindern und alten Erwachsenen. Weiterhin wechselten junge Erwachsene am schnellsten zwischen Go- und No-Go Steps. In Kapitel 3 werden die Dynamik zwischen den Ursachen des Vergessens und der Hemmung einer Prepotent Response im Kontext von folgenden drei formellen Modellen der Beschränkung des WMC beschrieben: Ein Ressource-Modell, ein Decay-Based-Modell und drei Versionen des IMs. Die Annahme, dass der Begrenzung der WMC eine beschränkte und eine gemeinsame Ursache der Aktivierung für die Aufrechterhaltung und Manipulation von Objekten zugrunde liegt wurde benutzt um das Ressource-Modell zu konstruieren. Das Decay-Modell nimmt an, dass Memory-Traces von Objekten im Arbeitsgedächtnis mit der Zeit verblassen, wenn sie nicht durch Mechanismen zur Aufrechterhaltung reaktiviert werden. Das IM (s.o.) besagt, dass Interferenz-ähnliche Mechanismen die Limitierung des WMC erklären können. In zwei Experimenten sowie einer Reanalyse der Daten des zweiten Experiments konnte eine der Versionen des IM als statistisch plausibler als die anderen beiden erkannt werden. In dieser Version des IM werden Feature-Overwriting und Interferenz durch Ablenkung als Hauptfaktoren für die Limitierung des WMCs beschrieben. Zusätzlich werden experimentelle Bedingungen welche eine Hemmung der Prepotent Response beinhalten als reduzierende Faktoren für die Geschwindigkeit der Informationsverarbeitung sowie für die unfreiwillige Aktivierung irrelevanter Information im WM genannt. Kapitel 4 fasst Kapitel 2 und 3 zusammen und zeigt, wie diese Arbeit Evidenz für Interferenz-ähnliche Mechanismen als Hauptursache des Vergessens liefert; weiterhin wird versucht die Rolle der Hemmung und Aufmerksamkeitskontrolle im Arbeitsgedächtnis zu erklären. Mit der Implementierung von formalen Modellen und experimentellen Manipulationen im Rahmen von Nonlinear-Mixed-Models konnten die Ursachen des Vergessens und die Rolle der Hemmung im WMC auf verschiedenen Ebenen erklärt werden. Entwicklungseffekte, altersbedingte Effekte, Effekte durch experimentelle Manipulationen sowie individuelle Unterschiede in diesen Effekten spielten eine wichtige Rolle. Die hier vorgestellte Herangehensweise ermöglicht daher einen umfassenden Blick auf eine große Anzahl auf WMC-limitierende Faktoren. KW - working memory capacity KW - attentional control KW - inhibition KW - formal cognitive models KW - age differences KW - Arbeitsgedächtniskapazität KW - Aufmerksamkeitskontrolle KW - Hemmung KW - formale kognitive Modelle KW - Altersunterschiede Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76434 N1 - Chapter 2 of this dissertation is presented as: Rodríguez-Villagra, Odir Antonio; Göthe, Katrin; Oberauer, Klaus; Kliegl, Reinhold (2013). Working memory capacity in a go/no-go task: Age differences in interference, processing speed, and attentional control. Developmental Psychology, 49 (9), 1683-1696. doi:10.1037/a0030883 ER - TY - THES A1 - Robinson, Joshua Wayne T1 - Novel Poly(N-substituted glycine)s : synthesis, post-modification, and physical properties T1 - Neuartige Poly(N-substituierte glycine) : Synthese, polymeranaloge Modifikation und physikalische Eigenschaften N2 - Various synthetic approaches were explored towards the preparation of poly(N-substituted glycine) homo/co-polymers (a.k.a. polypeptoids). In particular, monomers that would facilitate in the preparation of bio-relevant polymers via either chain- or step-growth polymerization were targeted. A 3-step synthetic approach towards N-substituted glycine N-carboxyanhydrides (NNCA) was implemented, or developed, and optimized allowing for an efficient gram scale preparation of the aforementioned monomer (chain-growth). After exploring several solvents and various conditions, a reproducible and efficient ring-opening polymerization (ROP) of NNCAs was developed in benzonitrile (PhCN). However, achieving molecular weights greater than 7 kDa required longer reaction times (>4 weeks) and sub-sequentially allowed for undesirable competing side reactions to occur (eg. zwitterion monomer mechanisms). A bulk-polymerization strategy provided molecular weights up to 11 kDa within 24 hours but suffered from low monomer conversions (ca. 25%). Likewise, a preliminary study towards alcohol promoted ROP of NNCAs suffered from impurities and a suspected alternative activated monomer mechanism (AAMM) providing poor inclusion of the initiator and leading to multi-modal dispersed polymeric systems. The post-modification of poly(N-allyl glycine) via thiol-ene photo-addition was observed to be quantitative, with the utilization of photo-initiators, and facilitated in the first glyco-peptoid prepared under environmentally benign conditions. Furthermore, poly(N-allyl glycine) demonstrated thermo-responsive behavior and could be prepared as a semi-crystalline bio-relevant polymer from solution (ie. annealing). Initial efforts in preparing these polymers via standard poly-condensation protocols were insufficient (step-growth). However, a thermally induced side-product, diallyl diketopiperazine (DKP), afforded the opportunity to explore photo-induced thiol-ene and acyclic diene metathesis (ADMET) polymerizations. Thiol-ene polymerization readily led to low molecular weight polymers (<2.5 kDa), that were insoluble in most solvents except heated amide solvents (ie. DMF), whereas ADMET polymerization, with diallyl DKP, was unsuccessful due to a suspected 6 member complexation/deactivation state of the catalyst. This understanding prompted the preparation of elongated DKPs most notably dibutenyl DKP. SEC data supports the aforementioned understanding but requires further optimization studies in both the preparation of the DKP monomers and following ADMET polymerization. This work was supported by NMR, GC-MS, FT-IR, SEC-IR, and MALDI-Tof MS characterization. Polymer properties were measured by UV-Vis, TGA, and DSC. N2 - Die Annehmlichkeiten des Alltags und das hohe Alter das Menschen in der heutigen Zeit erreichen sind ein Ergebnis des wissenschaftlichen und technologischen Fortschritts. Insbesondere in der Medizin haben die Entwicklung neuartiger Medikamente und Therapien, künstlicher Knochen und Gewebeteile sowie der Einsatz von neuen Geräten für die Diagnostik und Assistenz bei Operationen enorm zu diesen Errungenschaften beigetragen. Jede Entwicklung fundierte letztlichen auf den Ergebnissen der Grundlagenforschung sei es von Mikro-/biologen (Identifikation anormalen Verhaltens), Biochemikern (Identifikation von Auslösern und Wirkzentren) Bio-/ organischen Chemikern (Synthese von Makro-/molekülen), Material-/chemikern (Materialsynthese) und/oder Ingenieuren/Mathematikern/Physikern (theoretischen Modelle und Berechnungen). Biomedizinische Anwendungen wie z.B. Biosensoren, künstliche Gewebeteile und Trägersubstanzen zur gezielten Wirkstofffreisetzung sind von besonderem Interesse. Materialien, die nach Kontakt mit einer Zelloberfläche in der Lage sind definiert ihre Struktur oder mechanischen Eigenschaften zu verändern und anschließend bioabbaubar sind ohne toxische Nebenwirkungen zu entfalten befriedigen die zuvor genannten Bedürfnisse. Organismen entwickeln Biomaterialien bereits seit Millionen von Jahren und sind daher ein typischer Startpunkt für die Inspiration zu vielversprechenden Substanzen. Peptoide, als Mimetika von Peptiden, werden bereits längerem von Bio-/chemikern synthetisiert und auf ihren therapeutischen Nutzen hin, neuerdings auch auf ihre Materialeigenschaften untersucht. Grundlegende Eigenschaften dieser Materialien sind ihre Biokompatibilität, kontrollierte Bioabbaubarkeit, thermische Prozessierbarkeit sowie ihre Fähigkeit zur Selbstorganisation in höher geordnete Strukturen. Die sequenzdefinierte Synthese ist jedoch aufwendig und teuer. In dieser Arbeit habe ich ein alternatives Herstellungsverfahren (Ringöffnungspolymerisation) entwickelt mit dem es möglich ist hochmolekulare Substanzen - genannt poly(N-substituierte Glycine) – herzustellen. Ich erwarte, dass diese Materialien ähnliche stimulus responsive und thermische Eigenschaften wie Polypeptide, die bereits intensiv auf ihre biomedizinische Anwendbarkeit untersucht werden, haben. Im Vergleich zu den strukturgleichen Peptiden erwarte ich eine höhere Biokompatibilität sodass diese Materialen eine vielversprechende neue Klasse biorelevanter Materialien darstellen könnte. Die fundamentalen Ergebnisse dieser Arbeit stellen eine Alternative zu den bekannten Methoden zur Herstellung poly(N-substituierter Glycine) dar. Selbige weisen stimulus responsives Verhalten und thermische Prozessierbarkeit auf, das vergleichbar ist mit bereits bekannten Materialien. Darüber hinaus erlauben sie die einfache und vielseitige Funktionalisierung für vielschichtige Anwendungen. KW - Glycopeptoid KW - Polyglycin KW - NCA KW - biorelevant KW - thermoresponsiv KW - glycopeptoid KW - polyglycine KW - NCA KW - biorelevant KW - thermoresponsive Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64789 ER - TY - THES A1 - Rivera Villarreyes, Carlos Andres T1 - Cosmic-ray neutron sensing for soil moisture measurements in cropped fields T1 - Bodenfeuchtemessungen auf landwirtschaftlichen Anbauflächen mittels kosmischer Neutronenstrahlung N2 - This cumulative dissertation explored the use of the detection of natural background of fast neutrons, the so-called cosmic-ray neutron sensing (CRS) approach to measure field-scale soil moisture in cropped fields. Primary cosmic rays penetrate the top atmosphere and interact with atmospheric particles. Such interaction results on a cascade of high-energy neutrons, which continue traveling through the atmospheric column. Finally, neutrons penetrate the soil surface and a second cascade is produced with the so-called secondary cosmic-ray neutrons (fast neutrons). Partly, fast neutrons are absorbed by hydrogen (soil moisture). Remaining neutrons scatter back to the atmosphere, where its flux is inversely correlated to the soil moisture content, therefore allowing a non-invasive indirect measurement of soil moisture. The CRS methodology is mainly evaluated based on a field study carried out on a farmland in Potsdam (Brandenburg, Germany) along three crop seasons with corn, sunflower and winter rye; a bare soil period; and two winter periods. Also, field monitoring was carried out in the Schaefertal catchment (Harz, Germany) for long-term testing of CRS against ancillary data. In the first experimental site, the CRS method was calibrated and validated using different approaches of soil moisture measurements. In a period with corn, soil moisture measurement at the local scale was performed at near-surface only, and in subsequent periods (sunflower and winter rye) sensors were placed in three depths (5 cm, 20 cm and 40 cm). The direct transfer of CRS calibration parameters between two vegetation periods led to a large overestimation of soil moisture by the CRS. Part of this soil moisture overestimation was attributed to an underestimation of the CRS observation depth during the corn period ( 5-10 cm), which was later recalculated to values between 20-40 cm in other crop periods (sunflower and winter rye). According to results from these monitoring periods with different crops, vegetation played an important role on the CRS measurements. Water contained also in crop biomass, above and below ground, produces important neutron moderation. This effect was accounted for by a simple model for neutron corrections due to vegetation. It followed crop development and reduced overall CRS soil moisture error for periods of sunflower and winter rye. In Potsdam farmland also inversely-estimated soil hydraulic parameters were determined at the field scale, using CRS soil moisture from the sunflower period. A modelling framework coupling HYDRUS-1D and PEST was applied. Subsequently, field-scale soil hydraulic properties were compared against local scale soil properties (modelling and measurements). Successful results were obtained here, despite large difference in support volume. Simple modelling framework emphasizes future research directions with CRS soil moisture to parameterize field scale models. In Schaefertal catchment, CRS measurements were verified using precipitation and evapotranspiration data. At the monthly resolution, CRS soil water storage was well correlated to these two weather variables. Also clearly, water balance could not be closed due to missing information from other compartments such as groundwater, catchment discharge, etc. In the catchment, the snow influence to natural neutrons was also evaluated. As also observed in Potsdam farmland, CRS signal was strongly influenced by snow fall and snow accumulation. A simple strategy to measure snow was presented for Schaefertal case. Concluding remarks of this dissertation showed that (a) the cosmic-ray neutron sensing (CRS) has a strong potential to provide feasible measurement of mean soil moisture at the field scale in cropped fields; (b) CRS soil moisture is strongly influenced by other environmental water pools such as vegetation and snow, therefore these should be considered in analysis; (c) CRS water storage can be used for soil hydrology modelling for determination of soil hydraulic parameters; and (d) CRS approach has strong potential for long term monitoring of soil moisture and for addressing studies of water balance. N2 - In dieser kumulativen Dissertation wird die Detektion des natürlichen Hintergrunds von schnellen Neutronen, das sogenannte “Cosmic-Ray Neutron Sensing” (CRS), zur Messung von Bodenfeuchte auf der Feldskala in landwirtschaftlich genutzten Flächen untersucht. Die kosmische Primärstrahlung durchdringt die oberste Atmosphäre, und interagiert mit atmosphärischen Teilchen. Durch diese Wechselwirkungen entstehen Kaskaden hochenergetischer Teilchen die bis in die Erdoberfläche eindringen, wobei schnelle Neutronen entstehen. Teilweise werden diese durch Wasserstoff (Bodenfeuchte) absorbiert, teilweise zurück in die Atmosphäre gestreut. Dieser Neutronenfluss über dem Boden korreliert invers mit der Bodenfeuchte, was so eine non-invasive und indirekte Bodenfeuchteschätzung ermöglicht. Die CRS-Methode wird vor allem in einer Feldstudie auf einem Ackerland in Potsdam (Brandenburg, Deutschland), einschließlich dreier Phasen mit Anbau von Mais, Sonnenblume und Winterroggen getestet und beurteilt. Darüber hinaus wurde ein Feldmonitoring im Schäfertaleinzugsgebiet (Harz, Deutschland) durchgeführt, um das Potential von Langzeit-CRS-Messungen gegenüber herkömmlich erhobenen bodenhydraulischen Daten abzuschätzen. Im ersten Untersuchungsgebiet wurde die CRS-Methode kalibriert und mittels verschiedener Bodenfeuchtemessansätze validiert. In der Maisanbauphase wurden die Bodenfeuchte-Punktmessungen zunächst nur an der nahen Bodenoberfläche durchgeführt. In den folgendenen Anbauphasen (Sonnenblume und Winterroggen) wurden dann die Sensoren in drei unterschiedlichen Tiefen (5 cm, 20 cm und 40 cm) installiert. Die direkte Übertragung der CRS-Kalibrierparameter zwischen zwei Vegetationsperioden führte zu einer starken Überschätzung der CRS-Bodenfeuchte. Ein Teil der überschätzten Bodenfeuchte wurde der Unterschätzung der CRS-Beobachtungstiefe während der Maisperiode (5-10 cm) zugeschrieben, welche später basierend auf Werten zwischen 20-40 cm in anderen Anbauperioden (Sonnenblume und Winterroggen) neuberechnet wurde. Gemäß der Ergebnisse dieser Beobachtungsperioden mit verschiedenen Feldfrüchten, spielte die Vegetation eine wichtige Rolle für die CRS-Messungen, da das Wasser, das in der über- und unterirdischen Biomasse vorhanden ist, die Neutronen bedeutend abdämpft. Dieser Effekt, sowie der Einfluss des Getreidewachstums und des reduzierten Gesamt-CRS-Bodenfeuchte-Fehlers, wurden in ein einfaches Model zur vegetationsbedingten Neutronenkorrektur berücksichtigt. So wurde ein gekoppelter HYDRUS-1D- und PEST-Ansatz angewendet, um bodenhydraulische Parameter auf dem Feldmassstab während der Sonnenblumen-Phase invers abzuschätzen. Dann wurden die inversen Schätzungen der effektiven bodenhydraulischen Eigenschaften innerhalb des von CRS beobachteten Volumens durch die lokalen Bodeneigenschaften (Modellierung und Messungen) validiert. Abgesehen von Unterschieden auf Grund der Beobachtungstiefe und somit des Volumens, wurden hierbei erfolgreiche Ergebnisse erzielt. Dieser einfache Ansatz unterstreicht das zukünftige Forschungspotential, z.B. um mit Hilfe von Bodenfeuchten aus CRS-Messungen Modelle auf der Feldskala zu parametrisieren. Im Schäfertaleinzugsgebiet wurden die Langzeit-CRS-Messungen mit Nie-derschlags- und Evapotranspirations-Raten abgeglichen. Bei einer monatlichen Auflösung korrelierte die Änderung des CRS-Bodenwasserspeichers mit diesen beiden Wettervariablen. Die Wasserbilanz konnte jedoch auf Grund fehlender Informationen bezüglich Grundwasser, Abfluss des Einzugesgebiets, etc. nicht geschlossen werden. Darüber hinaus wurde, wie auch am Potsdamer Standort, festgestellt, dass das CRS-Signal stark von Schneefall und Schneeakkumulationen beeinflusst wird. Eine einfache Anwendung zur Schneemessung mittels CRS wurde für den Schäfertalfall vorgestellt. Abschließend zeigte sich, dass (a) „Cosmic-Ray Neutron Sensing“ (CRS) ein großes Potential hat, Messungen der mittleren Bodenfeuchte auf der Feldskala im Bereich landwirtschaftlich genutzter Flächen zu realisieren; (b) die CRS-Bodenfeuchte stark durch andere Wasserspeicher, wie Vegetation und Schnee beeinflusst wird, und dies im Rahmen von Analysen berücksichtigt werden sollte; (c) die CRS-Messungen über eine bodenhydraulische Modellierung zur Bestimmung von bodenhydraulischen Paramtern genutzt werden kann; und (d) der CRS-Ansatz ein großes Potential für Langzeit-Bodenfeuchte-Monitoring und für Wasserbilanzstudien hat. KW - CRS KW - kosmische Neutronenstrahlung KW - Bodenfeuchte KW - Feld KW - cosmic-ray KW - neutron field KW - soil moisture Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69748 ER - TY - THES A1 - Ritz, Julia T1 - Discourse-givenness of noun phrases : theoretical and computational models T1 - Diskursgegebenheit von Nominalphrasen : theoretische und komputationelle Modelle N2 - This thesis gives formal definitions of discourse-givenness, coreference and reference, and reports on experiments with computational models of discourse-givenness of noun phrases for English and German. Definitions are based on Bach's (1987) work on reference, Kibble and van Deemter's (2000) work on coreference, and Kamp and Reyle's Discourse Representation Theory (1993). For the experiments, the following corpora with coreference annotation were used: MUC-7, OntoNotes and ARRAU for Englisch, and TueBa-D/Z for German. As for classification algorithms, they cover J48 decision trees, the rule based learner Ripper, and linear support vector machines. New features are suggested, representing the noun phrase's specificity as well as its context, which lead to a significant improvement of classification quality. N2 - Die vorliegende Arbeit gibt formale Definitionen der Konzepte Diskursgegebenheit, Koreferenz und Referenz. Zudem wird über Experimente berichtet, Nominalphrasen im Deutschen und Englischen hinsichtlich ihrer Diskursgegebenheit zu klassifizieren. Die Definitionen basieren auf Arbeiten von Bach (1987) zu Referenz, Kibble und van Deemter (2000) zu Koreferenz und der Diskursrepräsentationstheorie (Kamp und Reyle, 1993). In den Experimenten wurden die koreferenzannotierten Korpora MUC-7, OntoNotes und ARRAU (Englisch) und TüBa-D/Z (Deutsch) verwendet. Sie umfassen die Klassifikationsalgorithmen J48 (Entscheidungsbäume), Ripper (regelbasiertes Lernen) und lineare Support Vector Machines. Mehrere neue Klassifikationsmerkmale werden vorgeschlagen, die die Spezifizität der Nominalphrase messen, sowie ihren Kontext abbilden. Mit Hilfe dieser Merkmale kann eine signifikante Verbesserung der Klassifikation erreicht werden. KW - Diskursgegebenheit KW - Klassifikator KW - Koreferenz KW - Kontext KW - tf-idf KW - discourse-givenness KW - classifier KW - coreference KW - context KW - tf-idf Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70818 ER - TY - THES A1 - Rietsch, Katrin T1 - Body composition especially external skeletal robustness in association with physical activity and recreation in pre-pubertal children : a national and international investigation T1 - Körperzusammensetzung insbesondere die äußere Skelettrobustizität im Zusammenhang mit der körperlichen Aktivität und der Freizeit in präpubertären Kindern : eine nationale und internationale Untersuchung N2 - In children the way of life, nutrition and recreation changed in recent years and as a consequence body composition shifted as well. It is established that overweight belongs to a global problem. In addition, German children exhibit a less robust skeleton than ten years ago. These developments may elevate the risk of cardiovascular diseases and skeletal modifications. Heredity and environmental factors as nutrition, socioeconomic status, physical activity and inactivity influence fat accumulation and the skeletal system. Based on these negative developments associations between type of body shape, skeletal measures and physical activity; relations between external skeletal robustness, physical activity and inactivity, BMI and body fat and also the progress of body composition especially external skeletal robustness in comparison in Russian and German children were investigated. In a cross-sectional study 691 German boys and girls aged 6 to 10 years were examined. Anthropometric measurements were taken and questionnaires about physical activity and inactivity were answered by parents. Additionally, pedometers were worn to determinate the physical activity in children. To compare the body composition in Russian and German children data from the years 2000 and 2010 were used. The study has shown that pyknomorphic individuals exhibit the highest external skeletal robustness and leptomorphic ones the lowest. Leptomorphic children may have a higher risk for bone diseases in adulthood. Pyknomorphic boys are more physically active by tendency. This is assessed as positive because pyknomorphic types display the highest BMI and body fat. Results showed that physical activity may reduce BMI and body fat. In contrast physical inactivity may lead to an increase of BMI and body fat and may rise with increasing age. Physical activity encourages additionally a robust skeleton. Furthermore external skeletal robustness is associated with BMI in order that BMI as a measure of overweight should be consider critically. The international 10-year comparison has shown an increase of BMI in Russian children and German boys. Currently, Russian children exhibit a higher external skeletal robustness than the Germans. However, in Russian boys skeleton is less robust than ten years ago. This trend should be observed in the future as well in other countries. All in all, several measures should be used to describe health situation in children and adults. Furthermore, in children it is essential to support physical activity in order to reduce the risk of obesity and to maintain a robust skeleton. In this way diseases are able to prevent in adulthood. N2 - Die Lebens- und Ernährungsweise sowie die Freizeitaktivitäten von Kindern haben sich im Laufe der letzten Jahre verändert. Daraus resultieren Veränderungen der Körperzusammensetzung. Es ist hinreichend bekannt, dass Übergewicht ein globales Problem ist. Des Weiteren weisen deutsche Kinder ein weniger robustes Skelett auf als noch vor 10 Jahren. Diese Entwicklungen können zu unterschiedlichen Erkrankungen des Herz-Kreislauf-Systems bzw. des Skelettsystems führen. Neben genetischen Faktoren haben Umweltfaktoren wie Ernährung, sozialer Status, die körperliche Aktivität bzw. Inaktivität einen Einfluss auf die Fettakkumulation und das Skelettsystem. Aufgrund der negativen Entwicklungen wurden daher die Zusammenhänge zwischen dem Körperbautyp, Skelettmaßen und der körperlichen Aktivität; die Beziehungen zwischen der äußeren Skelettrobustizität, der körperlichen Aktivität bzw. Inaktivität, dem BMI und dem Körperfettanteil sowie die Entwicklung der Körperzusammensetzung insbesondere die äußere Skelettrobustizität von russischen Kindern im Vergleich zu deutschen Kindern überprüft. In einer Querschnittstudie wurden 691 Jungen und Mädchen im Alter von 6 bis 10 Jahren aus Berlin und Brandenburg untersucht. Es wurden anthropometrische Messungen vorgenommen, Fragebögen bezüglich der sportlichen Aktivität und Inaktivität beantwortet sowie ein Schrittzähler zur Bestimmung der körperlichen Aktivität von den Kindern getragen. Für den internationalen Vergleich der Körperzusammensetzung wurden Daten aus den Jahren 2000 und 2010 von deutschen und russischen Kindern verwendet. Es konnte gezeigt werden, dass der pyknomorphe Körperbautyp die höchste und der leptomorphe Typ die niedrigste äußere Skelettrobustizität aufweisen. Leptomorphe Kinder könnten daher das höchste Risiko für Knochenerkrankungen im Erwachsenenalter aufweisen. Tendenziell zeigen pyknomorphe Jungen eine höhere körperliche Aktivität als die anderen Typen. Dies ist positiv zu bewerten, da die pyknomorphen Typen den höchsten BMI und Körperfettanteil besitzen. Wie die Resultate ergeben, kann die körperliche Aktivität zur Reduktion bzw. Inaktivität zur Erhöhung des BMIs und des Körperfettanteils führen. Die körperliche Inaktivität steigt mit zunehmendem Alter. Die körperliche Aktivität unterstützt weiterhin den Aufbau eines robusten Skeletts. Die äußere Skelettrobustizität ist ebenfalls positiv mit dem BMI assoziiert, so dass dargelegt werden konnte, dass der BMI als Maß für Übergewicht kritisch betrachtet werden sollte. Im internationalen 10-Jahresvergleich zeigt sich eine Zunahme des BMIs bei russischen Kindern und deutschen Jungen. Zurzeit weisen die russischen Kinder immer noch ein robusteres Skelett auf als die Deutschen jedoch ist das Skelett bei russischen Jungen weniger robust als noch vor 10 Jahren. Diese negative Entwicklung sollte weiterhin beobachtet werden auch in anderen Ländern. Alles in allem, sollten immer mehrere Maße zur Beschreibung des Gesundheitszustandes herangezogen werden. Weiterhin ist einer Förderung der körperlichen Aktivität bei Kindern notwendig, um zum einen das Risiko für Übergewicht zu minimieren und zum anderen ein robustes Skelett aufzubauen, um somit Erkrankungen im Erwachsenenalter vorzubeugen. KW - Skelettrobustizität KW - körperliche Bewegung KW - Körperbautyp KW - BMI KW - Körperfett KW - Skeletal robustness KW - physical activity KW - somatotype KW - BMI KW - percentage of body fat Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66913 ER - TY - THES A1 - Reisswig, Katja T1 - Die „unternehmerische Mission“ von Universitäten : eine neoinstitutionalistische Betrachtung des Aufgabenbereichs Wissens- und Technologietransfer (WTT) an deutschen Hochschulen T1 - The "entrepreneurial mission" of universities : a neoinstitutional view regarding the task of knowledge and technology transfer at universities N2 - Die Arbeit thematisiert die Veränderungen im deutschen Wissenschafts- und Hochschulsystem. Im Mittelpunkt steht die "unternehmerische Mission" von Universitäten. Der Blick wird auf das Aufgabenfeld Wissens- und Technologietransfer (WTT) gerichtet. Anhand dessen werden die Veränderungen, die innerhalb des deutschen Universitätssystems in den vergangenen Jahren erfolgten, nachgezeichnet. Die Erwartungshaltungen an Universitäten haben sich verändert. Ökonomische Sichtweisen nehmen einen immer größeren Stellenwert ein. Die Arbeit baut auf den Prämissen der neoinstitutionalistischen Organisationstheorie auf. Anhand dieser wird gezeigt, wie Erwartungen externer Stakeholder Eingang in Hochschulen finden und sich auf ihre organisatorische Ausgestaltung auswirken. Der Arbeit liegt ein exploratives, qualitatives Untersuchungsdesign zugrunde. In einer Fallstudie werden zwei Universitäten als Fallbeispiele untersucht. Die Untersuchung liefert Antworten auf die Fragen, wie der WTT als Aufgabenbereich an deutschen Universitäten umgesetzt wird, welche Strukturen sich herausgebildet haben und inwieweit eine Institutionalisierung des WTTs an Universitäten erfolgt ist. In der Arbeit werden verschiedene Erhebungsinstrumente im Rahmen einer Triangulation genutzt. Experteninterviews bilden das Hauptanalyseinstrument. Ziel der Untersuchung ist neben der Beantwortung der Forschungsfragen, Hypothesen zu bilden, die für weiterführende Untersuchungen genutzt werden können. Darüber hinaus werden Handlungsempfehlungen für die Umsetzung des WTTs an deutschen Hochschulen gegeben. Die Arbeit richtet sich sowohl an Wissenschaftler als auch Praktiker aus dem Bereich Wissens- und Technologietransfer. N2 - German universities are confronted with ongoing changes. One of these changes encompasses a paradigm shift, which affects the university and research system as a whole. This paradigm shift is the so called "third mission" - or "entrepreneurial mission" - of universities. Universities are asked to make contributions to the economic system via transfer of knowledge and technology. Economic perspectives have an increasing influence on universities and the research system. For this reason, the expectations of external stakeholers are growing. The dissertation shows how these expectations affect the organizational shape of universities. By using neoinstitutional organizational theory, this work finds answers to the following questions: How do universities integrate the "entrepreneurial mission" in their organizational structures? Which organizational structures have emerged? How far has an institutional process been taken place? An explorative, qualitative research design is used and a case study is performed, which includes two universities as examples. Two dimensions were investigated: The structures of universities in the field of technology and knowledge transfer, and the central actors of universities. The main research instrument consists of interviews with experts in the field. Apart from answering the questions posed above, the central aim of the survey is to get a deeper understanding of how German Universities fulfill their “entrepreneurial mission”. Several hypotheses are generated that can be used for further investigations. Furthermore, some practical input is provided for implementing knowledge and technology transfer at German universities. The target audience of this thesis are researchers and practitioners in the field of knowledge and technology transfer. KW - Unternehmerische Universitäten KW - Wissens- und Technologietransfer KW - unternehmerische Mission KW - neoinstitutionale Organisationstheorie KW - entrepreneurial university KW - knowledge- and technology transfer KW - entrepreneurial mission KW - neoinstitutional organizational theory Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70574 ER - TY - THES A1 - Reilich, Julia T1 - Bildungsrenditen in Deutschland T1 - Returns to education in Germany BT - eine nationale und regionale Analyse BT - a national and regional Analysis T2 - Potsdamer Schriften zur Raumwirtschaft N2 - Der Einfluss von Bildung gewinnt gesellschaftlich und politisch an Bedeutung. Auch im wissenschaftlichen Bereich zeigt sich dies über eine vielseitige Diskussion zum Einfluss von Bildung auf das Einkommen. In dieser Arbeit werden nationale und regionale Disparitäten in der monetären Wertschätzung von allgemeinem Humankapital aufgedeckt und diskutiert. Dafür werden verschiedene Verfahren diskutiert und basierend darauf Intervalle für die mittleren Bildungsrenditen bestimmt. Im ersten Abschnitt wird die Thematik theoretisch über zwei verschiedene Modellansätze fundiert und kritisch diskutiert. Anschließend folgt die Darstellung des aktuellen empirischen Forschungsbestands. Der Hauptteil der Arbeit beginnt mit der Darstellung des verwendeten Datensatzes und seiner kritischen Repräsentativitätsprüfung. Eine nähere Variablenbeschreibung mit deskriptiver Analyse dient zur Erklärung der verwendeten Größen. Darauffolgend werden bestehende Verfahren zur Schätzung von Bildungsrenditen diskutiert. Unter ausschließlicher Berücksichtigung der Erwerbstätigen zeigt das 3SLS-Verfahren die besten Eigenschaften. Bezieht man jedoch alle Erwerbspersonen in die Analyse mit ein, so erweist sich das Heckman-Verfahren als sehr geeignet. Die Analyse - zunächst auf nationaler Ebene - bestätigt weitestgehend die bestehenden Erkenntnisse der Literatur. Eine Separierung des Datensatzes auf verschiedene Alterscluster, Voll- und Teilerwerbstätige sowie Erwerbstätige in der Privatwirtschaft und im öffentlichen Dienst zeigen keine signifikanten Unterschiede in der Höhe der gezahlten durchschnittlichen Bildungsrenditen. Anders verhält es sich bei der regionalen Analyse. Zunächst werden Ost- und Westdeutschland separat betrachtet. Für diese erste Analyse lassen sich über 95 %-Konfidenzintervalle deutliche Unterschiede in der Höhe der Bildungsrenditen ermitteln. Aufbauend auf diese Ergebnisse wird die Analyse vertieft. Eine Separierung auf Bundesländerebene und ein weiterer Vergleich der Konfidenzintervalle folgen. Zur besseren statistischen Vergleichbarkeit der Ergebnisse wird neben dem 3SLS-Verfahren, angewendet auf die separierten Datensätze, auch ein Modell ohne die Notwendigkeit der Separierung gewählt. Hierbei ist die Variation der Regionen über Interaktionsterme berücksichtigt. Dieses Regressionsmodell wird auf das OLS- und das Heckman-Verfahren angewendet. Der Vorteil hierbei ist, dass die Koeffizienten auf Gleichheit getestet werden können. Dabei kristallisieren sich deutlich unterschiedliche Bildungsrenditen für Mecklenburg-Vorpommern, aber auch für Sachsen-Anhalt und Thüringen im Vergleich zu den restlichen Bundesländern Deutschlands heraus. Diese Länder zeichnen sich durch eine besonders hohe jährliche Verzinsung von allgemeinem Humankapital aus. Es folgt eine Diskussion über mögliche Ursachen für die regional verschiedenen Bildungsrenditen. Dabei zeigt sich, dass in den Bundesländern mit hoher Rendite das mittlere Einkommensniveau und auch das durchschnittliche Preisniveau tendenziell geringer sind. Weiterhin wird deutlich, dass bei höheren relativen Abweichungen der durchschnittlichen Einkommen höhere Renditen zu verzeichnen sind. Auch die Wanderungsbewegungen je nach Qualifikation unterscheiden sich. Unter zusätzlicher Berücksichtigung der Arbeitslosenquoten zeigt sich in den Ländern mit hoher Rendite eine tendenziell höhere Arbeitslosigkeit. Im zusammenfassenden Fazit der Arbeit werden abschließend die Erkenntnisse gewürdigt. Dabei ist zu bemerken, dass der Beitrag einen Start in die bundesländerweite Analyse liefert, die eine Fortführung auf beispielsweise eine mehrperiodische Betrachtung anregt. N2 - The impact of education becomes politically and for the society more important. In research area the higher relevance is indicated by a distinctive discussion about, for example, the influence from education to earnings. This thesis shows national and regional disparities with respect to the monetary appreciation to general human capital. Therefore different econometric methods are discussed and based on that, intervals for the returns to education are estimated. The first chapter presents the theoretical fundament using two different models, which are critically discussed in the text. Afterwards the existing empirical literature is shown. The main part starts with a description of the dataset and a discussion about its representativeness. A closer examination to the variables follows using descriptive statistics and verbal explanations. The estimation part starts with a discussion about common methods to measure returns to education. Looking at employees exclusively, 3SLS gives best performance. However, by extension the analysis to the overall manpower Heckman-method is best. The national analysis confirms the results from the existing literature. Within the next step the dataset is separated to have a closer look at different cohorts, full- and part-time worker, as well as public- and private-sector worker. Comparing these groups with each other the estimated returns to education are not statistically different. However, results change by estimating regional returns to education for Germany. First the dataset is splitted into two regions, the eastern- and the western-region. Comparing the estimated 95 %-confidence intervals, differences are significant between both regions in Germany. Hence, it is worth to intensify the regional analysis. The next step is a further separation of the dataset to a federal-state-analysis. Again, the comparisons of the resulting confidence intervals show partially no overlapping confidence intervals. Separating the dataset gives no possibility to compare the coefficients with statistic tests. Because of that a new regression model without the necessity of separation is introduced. For this purpose the variation of the regions are included by interaction terms. This model can be estimated using OLS- and Heckman-method. The advantage of this procedure is that the schooling-coefficients can be tested on statistical equality. Irrespective which method is used, differences in the return to education can be estimated for Mecklenburg-West Pomerania especially and for Saxony-Anhalt and Thuringia. These three states tend to a higher monetary return to general human capital compared to the other federal states. Thereafter a discussion follows about possible causes for the estimated regional heterogeneous returns to education. It is shown that federal states with a high return to education lean towards a lower middle level of income and a lower price level on average. In addition to that, there is a relation between a higher relative deviation from average income and higher returns to education. Looking at migration movements between federal states, it is shown that there are differences in the qualification levels. Moreover, regions with a higher unemployment rate tend to result in higher returns as well. The summarizing conclusion appreciates the scientific findings. For that it has to be said, that this work gives a start for an analysis which should have a closer look to different parts of Germany. It gives an incentive to pursue with, for example, an analysis for more than one year. T3 - Potsdamer Schriften zur Raumwirtschaft - 5 KW - Bildungsrenditen KW - Humankapital KW - regionale Arbeitsmärkte KW - returns to education KW - human capital KW - regional labor market Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62658 SN - 978-3-86956-219-3 SN - 2190-8702 SN - 2190-8710 IS - 5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Preiß, Andreas T1 - Determinanten postsekundärer Bildungsaspirationen im Kontext jugendlicher Lebensstile : eine empirische Analyse entlang eigener Erhebungsdaten T1 - Determinants of post-secondary educational aspirations within the context of adolescent life-styles : an empirical analysis along own survey data N2 - Nur langsam scheinen jene Schockwellen abzuebben, die ausgelöst durch die Ergebnisse der PISA-Erhebungen seit mehr als einem Jahrzehnt die Bildungsrepublik Deutschland durchqueren und weite Teile der Gesellschaft in den Zustand regelrechter Bildungspanik versetzten. An der Schwelle zum 21. Jahrhundert belegte eine Reihe von Studien für das wiedervereinte Deutschland eine im OECD-Vergleich besonders ausgeprägte Abhängigkeit des Bildungserfolges von der sozialen Herkunft. Als eine Konsequenz ist der Zugang zu tertiärer Bildung bis dato deutlich durch soziale Ungleichheit gekennzeichnet. Vor diesem Hintergrund leistet die vorliegende Dissertationsschrift einen wesentlichen Beitrag zur ursächlichen Erklärung von Mustern sozialer Selektivität, die an den Gelenkstellen zwischen sekundären und postsekundären Bildungsangeboten sichtbar werden. Auf innovative Weise verbindet die Arbeit ein zeitgemäßes handlungstheoretisches Modell mit einer komplexen Lebensstilanalyse. Die Analyse stützt sich auf Erhebungsdaten, die zwischen Januar und April 2010 an mehr als 30 weiterführenden Schulen des Bundeslandes Brandenburg erhoben wurden. Im Mittelpunkt des Forschungsinteresses steht einerseits die Identifikation von sozial-kognitiven Determinanten, die das Niveau und die Richtung postsekundärer Bildungsaspirationen maßgeblich vorstrukturieren sowie andererseits deren Verortung im Kontext jugendlicher Lebensstile. Das komplexe Analysedesign erweist sich als empirisch fruchtbar: So erbringt die Arbeit den empirischen Nachweis, dass die spezifischen Konfigurationen der bestätigten psychosozialen Prädiktoren nicht nur statistisch bedeutsam zwischen jugendlichen Stilmustern variieren, sondern sich diesbezüglich erfolgreiche von weniger erfolgreichen Typen unterscheiden lassen. N2 - The results of the PISA-inquiry sent shock waves through society, influencing education policy and causing large portions of society angst over education; these effects have subsided slowly over the past decade. A series of studies concerning a reunited Germany conducted at the beginning of the 21st century found a particularly strong correlation between educational success and social demographics as compared to the OECD, the consequence of this pattern being an inequality between social demographics in terms of access to tertiary education. Against this background, the presented dissertation thesis contributes to a causal explanation of patterns of social selectivity which become visible at the transition between secondary and post-secondary education. This thesis combines a contemporary action-theoretical approach with a complex life-style analysis in an innovative way. The analysis is based on survey data collected at more than 30 continuative/ post-secondary schools in Brandenburg (Germany) between January and April of 2010. Focus of the research is the identification of social-cognitive factors which significantly structure standard and direction of post-secondary aspirations as well as their localization in context of adolescent life-styles. The complex design of the analysis proves to be empirical fertile: Therefore, this thesis provides the empirical verification that the specific configurations of the affirmed psycho-social predicators do not only vary statistically important between adolescent style-patterns but provide the basis to differentiate between successful and less successful types. KW - Lebensstil KW - Selbstwirksamkeit KW - Wertorientierungen KW - berufliche Interessen KW - kulturelle Ressourcen KW - life-style analysis KW - self-efficacy expectations KW - values KW - vocational interests KW - cultural resources Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62626 SN - 978-3-86956-218-6 ER - TY - THES A1 - Pingel, Patrick T1 - Morphology, charge transport properties, and molecular doping of thiophene-based organic semiconducting thin films T1 - Morphologie, Ladungstransporteigenschaften und molekulares Dotieren thiophenbasierter organischer Halbleiterschichten N2 - Organic semiconductors combine the benefits of organic materials, i.e., low-cost production, mechanical flexibility, lightweight, and robustness, with the fundamental semiconductor properties light absorption, emission, and electrical conductivity. This class of material has several advantages over conventional inorganic semiconductors that have led, for instance, to the commercialization of organic light-emitting diodes which can nowadays be found in the displays of TVs and smartphones. Moreover, organic semiconductors will possibly lead to new electronic applications which rely on the unique mechanical and electrical properties of these materials. In order to push the development and the success of organic semiconductors forward, it is essential to understand the fundamental processes in these materials. This thesis concentrates on understanding how the charge transport in thiophene-based semiconductor layers depends on the layer morphology and how the charge transport properties can be intentionally modified by doping these layers with a strong electron acceptor. By means of optical spectroscopy, the layer morphologies of poly(3-hexylthiophene), P3HT, P3HT-fullerene bulk heterojunction blends, and oligomeric polyquaterthiophene, oligo-PQT-12, are studied as a function of temperature, molecular weight, and processing conditions. The analyses rely on the decomposition of the absorption contributions from the ordered and the disordered parts of the layers. The ordered-phase spectra are analyzed using Spano’s model. It is figured out that the fraction of aggregated chains and the interconnectivity of these domains is fundamental to a high charge carrier mobility. In P3HT layers, such structures can be grown with high-molecular weight, long P3HT chains. Low and medium molecular weight P3HT layers do also contain a significant amount of chain aggregates with high intragrain mobility; however, intergranular connectivity and, therefore, efficient macroscopic charge transport are absent. In P3HT-fullerene blend layers, a highly crystalline morphology that favors the hole transport and the solar cell efficiency can be induced by annealing procedures and the choice of a high-boiling point processing solvent. Based on scanning near-field and polarization optical microscopy, the morphology of oligo-PQT-12 layers is found to be highly crystalline which explains the rather high field-effect mobility in this material as compared to low molecular weight polythiophene fractions. On the other hand, crystalline dislocations and grain boundaries are identified which clearly limit the charge carrier mobility in oligo-PQT-12 layers. The charge transport properties of organic semiconductors can be widely tuned by molecular doping. Indeed, molecular doping is a key to highly efficient organic light-emitting diodes and solar cells. Despite this vital role, it is still not understood how mobile charge carriers are induced into the bulk semiconductor upon the doping process. This thesis contains a detailed study of the doping mechanism and the electrical properties of P3HT layers which have been p-doped by the strong molecular acceptor tetrafluorotetracyanoquinodimethane, F4TCNQ. The density of doping-induced mobile holes, their mobility, and the electrical conductivity are characterized in a broad range of acceptor concentrations. A long-standing debate on the nature of the charge transfer between P3HT and F4TCNQ is resolved by showing that almost every F4TCNQ acceptor undergoes a full-electron charge transfer with a P3HT site. However, only 5% of these charge transfer pairs can dissociate and induce a mobile hole into P3HT which contributes electrical conduction. Moreover, it is shown that the left-behind F4TCNQ ions broaden the density-of-states distribution for the doping-induced mobile holes, which is due to the longrange Coulomb attraction in the low-permittivity organic semiconductors. N2 - Organische Halbleiter kombinieren die molekulare Vielfalt und Anpassbarkeit, die mechanische Flexibilität und die preisgünstige Herstellung und Verarbeitung von Kunststoffen mit fundamentalen Halbleitereigenschaften wie Lichtabsorption und -emission und elektrischer Leitfähigkeit. Unlängst finden organische Leuchtdioden Anwendung in den Displays von TV-Geräten und Smartphones. Für die weitere Entwicklung und den Erfolg organischer Halbleiter ist das Verständnis derer physikalischer Grundlagen unabdingbar. Ein für viele Bauteile fundamentaler Prozess ist der Transport von Ladungsträgern in der organischen Schicht. Die Ladungstransporteigenschaften werden maßgeblich durch die Struktur dieser Schicht bestimmt, z.B. durch den Grad der molekularen Ordnung, die molekulare Verbindung von kristallinen Domänen und durch Defekte der molekularen Packung. Mittels optischer Spektroskopie werden in dieser Arbeit die temperatur-, molekulargewichts- und lösemittelabhängigen Struktureigenschaften poly- und oligothiophenbasierter Schichten untersucht. Dabei basiert die Analyse der Absorptionsspektren auf der Zerlegung in die spezifischen Anteile geordneten und ungeordneten Materials. Es wird gezeigt, dass sich hohe Ladungsträgerbeweglichkeiten dann erreichen lassen, wenn der Anteil der geordneten Bereiche und deren molekulare Verbindung in den Schichten möglichst hoch und die energetische Unordnung in diesen Bereichen möglichst klein ist. Der Ladungstransport in organischen Halbleitern kann außerdem gezielt beeinflusst werden, indem die Ladungsträgerdichte und die elektrische Leitfähigkeit durch molekulares Dotieren, d.h. durch das Einbringen von Elektronenakzeptoren oder -donatoren, eingestellt werden. Obwohl der Einsatz dotierter Schichten essentiell für effiziente Leuchtdioden und Solarzellen ist, ist der Mechanismus, der zur Erzeugung freier Ladungsträger im organischen Halbleiter führt, derzeit unverstanden. In dieser Arbeit wird der Ladungstransfer zwischen dem prototypischen Elektronendonator P3HT und dem Akzeptor F4TCNQ untersucht. Es wird gezeigt, dass, entgegen verbreiteter Vorstellungen, fast alle F4TCNQ-Akzeptoren einen ganzzahligen Ladungstransfer mit P3HT eingehen, aber nur 5% dieser Paare dissoziieren und einen beweglichen Ladungsträger erzeugen, der zur elektrischen Leitfähigkeit beiträgt. Weiterhin wird gezeigt, dass die zurückgelassenen F4TCNQ-Akzeptorionen Fallenzustände für die beweglichen Ladungsträger darstellen und so die Ladungsträgerbeweglichkeit in P3HT bei schwacher Dotierung absinkt. Die elektrischen Kenngrößen Ladungsträgerkonzentration, Beweglichkeit und Leitfähigkeit von F4TCNQ-dotierten P3HT-Schichten werden in dieser Arbeit erstmals in weiten Bereichen verschiedener Akzeptorkonzentrationen untersucht. KW - Polythiophen KW - organische Elektronik KW - molekulares Dotieren KW - organischer Halbleiter KW - Morphologie KW - polythiohene KW - organic electronics KW - molecular doping KW - organic semiconductor KW - morphology Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69805 ER - TY - THES A1 - Piffl, Tilmann T1 - Models of the Galaxy and the massive spectroscopic stellar survey RAVE T1 - Modelle der Milchstrasse und die spektroskopische Himmelsdurchmusterung RAVE N2 - Numerical simulations of galaxy formation and observational Galactic Astronomy are two fields of research that study the same objects from different perspectives. Simulations try to understand galaxies like our Milky Way from an evolutionary point of view while observers try to disentangle the current structure and the building blocks of our Galaxy. Due to great advances in computational power as well as in massive stellar surveys we are now able to compare resolved stellar populations in simulations and in observations. In this thesis we use a number of approaches to relate the results of the two fields to each other. The major observational data set we refer to for this work comes from the Radial Velocity Experiment (RAVE), a massive spectroscopic stellar survey that observed almost half a million stars in the Galaxy. In a first study we use three different models of the Galaxy to generate synthetic stellar surveys that can be directly compared to the RAVE data. To do this we evaluate the RAVE selection function to great detail. Among the Galaxy models is the widely used Besancon model that performs well when individual parameter distribution are considered, but fails when we study chemodynamic correlations. The other two models are based on distributions of mass particles instead of analytical distribution functions. This is the first time that such models are converted to the space of observables and are compared to a stellar survey. We show that these models can be competitive and in some aspects superior to analytic models, because of their self-consistent dynamic history. In the case of a full cosmological simulation of disk galaxy formation we can recover features in the synthetic survey that relate to the known issues of the model and hence proof that our technique is sensitive to the global structure of the model. We argue that the next generation of cosmological galaxy formation simulations will deliver valuable models for our Galaxy. Testing these models with our approach will provide a direct connection between stellar Galactic astronomy and physical cosmology. In the second part of the thesis we use a sample of high-velocity halo stars from the RAVE data to estimate the Galactic escape speed and the virial mass of the Milky Way. In the course of this study cosmological simulations of galaxy formation also play a crucial role. Here we use them to calibrate and extensively test our analysis technique. We find the local Galactic escape speed to be 533 (+54/-41) km/s (90% confidence). With this result in combination with a simple mass model of the Galaxy we then construct an estimate of the virial mass of the Galaxy. For the mass profile of the dark matter halo we use two extreme models, a pure Navarro, Frenk & White (NFW) profile and an adiabatically contracted NFW profile. When we use statistics on the concentration parameter of these profile taken from large dissipationless cosmological simulations we obtain an estimate of the virial mass that is almost independent of the choice of the halo profile. For the mass M_340 enclosed within R_340 = 180 kpc we find 1.3 (+0.4/-0.3) x 10^12 M_sun. This value is in very good agreement with a number of other mass estimates in the literature that are based on independent data sets and analysis techniques. In the last part of this thesis we investigate a new possible channel to generate a population of Hypervelocity stars (HVSs) that is observed in the stellar halo. Commonly, it is assumed that the velocities of these stars originate from an interaction with the super-massive black hole in the Galactic center. It was suggested recently that stars stripped-off a disrupted satellite galaxy could reach similar velocities and leave the Galaxy. Here we study in detail the kinematics of tidal debris stars to investigate the probability that the observed sample of HVSs could partly originate from such a galaxy collision. We use a suite of $N$-body simulations following the encounter of a satellite galaxy with its Milky Way-type host galaxy. We quantify the typical pattern in angular and phase space formed by the debris stars and develop a simple model that predicts the kinematics of stripped-off stars. We show that the distribution of orbital energies in the tidal debris has a typical form that can be described quite accurately by a simple function. The main parameters determining the maximum energy kick a tidal debris star can get is the initial mass of the satellite and only to a lower extent its orbit. Main contributors to an unbound stellar population created in this way are massive satellites (M_sat > 10^9 M_sun). The probability that the observed HVS population is significantly contaminated by tidal debris stars appears small in the light of our results. N2 - Ein häufig verfolgter Ansatz Galaxien wie unsere Milchstraße besser zu verstehen, sind numerische Simulationen, d.h. das Nachvollziehen ihrer Entstehung und Entwicklung mit Hilfe von Computern. Dieses Vorgehen erlaubt das Betrachten solcher Objekte von einem evolutionären Standpunkt aus. Eine andere Herangehensweise verfolgt die Galaktische Astronomie, welche über Sternbeobachtungen den aktuellen Zustand der Milchstraße untersucht. Hier wird versucht, die konstitutiven Bestandteile unserer Galaxie zu erkennen, um dadurch ein besseres Verständnis ihrer Struktur zu erlangen. Die enorme Rechenleistung moderner Supercomputer und die Entwicklungssprünge im Bereich der digitalen Himmelsdurchmusterungen haben dazu geführt, dass inzwischen mit beiden Ansätzen vergleichbare Populationen von einzeln beobachtbaren Sternen studiert werden können. In der vorliegenden Arbeit werden verschiedene Möglichkeiten untersucht, die Ergebnisse dieser beiden astrophysikalischen Disziplinen, welche bislang weitgehend getrennt von einander betrieben wurden, sinnvoll zu kombinieren. Der überwiegende Teil der Beobachtungsdaten, die dabei verwendet werden, wurde im Zuge des Radial Velocity Experiments (RAVE) gesammelt, einer spektroskopischen Durchmusterung der Sterne fast des gesamten Südhimmels. Um die Daten des RAVE-Projekts statistisch auswerten zu können, musste zuerst die detaillierte Auswahlfunktion der Durchmusterung rekonstruiert werden, d.h. die Wahrscheinlichkeit, dass ein Stern von RAVE beobachtet wurde, musste, in Abhängigkeit von den Eigenschaften des Sterns, bestimmt werden. Der Hauptteil der Dissertation gliedert sich in drei weitgehend unabhängige Studien. Im ersten Teil wird die oben erwähnte Auswahlfunktion benutzt, um voraus zu sagen, was das RAVE Projekt beobachtet hätte, falls bestimmte theoretische Modelle unserer Milchstraße zu träfen. Auf diese Art und Weise umgehe ich das problematische Unterfangen, die Beobachtungsdaten zu einem physikalischen Modell zu verallgemeinern. Die Problematik hierbei liegt darin, dass astronomische Beobachtungen nicht direkt physikalisch relevante Größen, wie Massen oder Alter der Sterne, liefern, sondern scheinbare Helligkeiten oder Winkelpositionen. In dieser Studie wird der umgekehrte Weg beschritten und synthetische Beobachtungen aus den Modellen generiert. Untersucht wurden dabei sowohl klassische analytische Modelle als auch Modelle, die aus numerischen Simulationen resultieren. Letztere wurden zu ersten Mal überhaupt auf diese Art und Weise getestet und es zeigt sich, dass solche Modelle den klassischen in bestimmten Aspekten, die mit der Entwicklungsgeschichte der Milchstraße verknüpft sind, überlegen sind. Im zweiten Teil der Arbeit werden die RAVE-Daten benutzt um die Masse der Milchstraße, bzw. die Masse der in ihr enthaltenen dunklen Materie, ab zu schätzen. Zur Eichung der Analysemethode wird dabei wieder auf Ergebnisse von Simulationen zurück gegriffen, die die Entwicklung von ähnlichen Galaxien wie der Milchstraße verfolgt haben. Zuerst wird die lokale Entweichgeschwindigkeit, d.h. die Mindestgeschwindigkeit, die ein Körper benötigt, um unsere Galaxie zu verlassen, bestimmt. Die beste Abschätzung beträgt 533 (+54/-41) km/s. Anhand dieser Schätzung kann, in Kombination mit vereinfachten analytischen Modellen der Materieverteilung in unserer Galaxie, die Masse der Milchstraße innerhalb von 180 kpc auf 1,3 (+0,4/-0,3) x 10^12 Sonnenmassen bestimmt werden. Dieses Ergebnis bestätigt frühere unabhängige Massenschätzungen, die auf anderen Beobachtungsdaten und anderen Analysestrategien basieren. Im letzten Teil der Arbeit wird eine spezielle Population von Sternen im Außenbereich unserer Galaxie untersucht, sogenannte Hyperschnellläufersterne (HSS). Diese wurde in einer weiteren Himmelsdurchmusterung, dem Sloan Digital Sky Survey (SDSS), gefunden. Die Besonderheit dieser Sterne besteht in ihren extrem hohen Geschwindigkeiten oberhalb der Entweichgeschwindigkeit. Allgemein wird angenommen, dass die Sterne ihre Geschwindigkeiten im Zuge der Spaltung eines Doppelsternsystems durch Gezeitenkräfte nahe des supermassereichen Schwarzen Lochs im Zentrum der Milchstraße erreichen. Vor Kurzem wurde jedoch ein alternatives Szenario vorgeschlagen. Nach diesem können solche Sterne auch während des Einfalls einer Satellitengalaxie auf die Milchstraße entstehen. Diese Hypothese wird anhand von numerischen Simulationen, die diese Situation nachbilden, getestet. Es zeigt sich, dass HSS auf diese Weise entstehen können, aber dass die beobachtete Population höchstwahrscheinlich einen anderen Ursprung hat. KW - RAVE KW - Milchstrassenmasse KW - Hyperschnellläufersterne KW - Pseudobeobachtungen KW - RAVE KW - galactic structure KW - hypervelocity stars Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70371 ER - TY - THES A1 - Perscheid, Michael T1 - Test-driven fault navigation for debugging reproducible failures T1 - Die test-getriebene Fehlernavigation zur Beseitigung von reproduzierbaren Softwarefehlern N2 - The correction of software failures tends to be very cost-intensive because their debugging is an often time-consuming development activity. During this activity, developers largely attempt to understand what causes failures: Starting with a test case that reproduces the observable failure they have to follow failure causes on the infection chain back to the root cause (defect). This idealized procedure requires deep knowledge of the system and its behavior because failures and defects can be far apart from each other. Unfortunately, common debugging tools are inadequate for systematically investigating such infection chains in detail. Thus, developers have to rely primarily on their intuition and the localization of failure causes is not time-efficient. To prevent debugging by disorganized trial and error, experienced developers apply the scientific method and its systematic hypothesis-testing. However, even when using the scientific method, the search for failure causes can still be a laborious task. First, lacking expertise about the system makes it hard to understand incorrect behavior and to create reasonable hypotheses. Second, contemporary debugging approaches provide no or only partial support for the scientific method. In this dissertation, we present test-driven fault navigation as a debugging guide for localizing reproducible failures with the scientific method. Based on the analysis of passing and failing test cases, we reveal anomalies and integrate them into a breadth-first search that leads developers to defects. This systematic search consists of four specific navigation techniques that together support the creation, evaluation, and refinement of failure cause hypotheses for the scientific method. First, structure navigation localizes suspicious system parts and restricts the initial search space. Second, team navigation recommends experienced developers for helping with failures. Third, behavior navigation allows developers to follow emphasized infection chains back to root causes. Fourth, state navigation identifies corrupted state and reveals parts of the infection chain automatically. We implement test-driven fault navigation in our Path Tools framework for the Squeak/Smalltalk development environment and limit its computation cost with the help of our incremental dynamic analysis. This lightweight dynamic analysis ensures an immediate debugging experience with our tools by splitting the run-time overhead over multiple test runs depending on developers’ needs. Hence, our test-driven fault navigation in combination with our incremental dynamic analysis answers important questions in a short time: where to start debugging, who understands failure causes best, what happened before failures, and which state properties are infected. N2 - Die Beseitigung von Softwarefehlern kann sehr kostenintensiv sein, da die Suche nach der Fehlerursache meist sehr lange dauert. Während der Fehlersuche versuchen Entwickler vor allem die Ursache für den Fehler zu verstehen: Angefangen mit einem Testfall, welcher den sichtbaren Fehler reproduziert, folgen sie den Fehlerursachen entlang der Infektionskette bis hin zum ursprünglichen Defekt. Dieses idealisierte Vorgehen benötigt ein grundlegendes Verständnis über das Systemverhalten, da Fehler und Defekt sehr weit auseinander liegen können. Bedauerlicherweise bieten jedoch gebräuchliche Entwicklungswerkzeuge wenig Unterstützung, um solche Infektionsketten detailliert zu untersuchen. Dementsprechend müssen Entwickler primär auf ihr Gespür vertrauen, so dass die Lokalisierung von Fehlerursachen sehr viel Zeit in Anspruch nehmen kann. Um ein willkürliches Vorgehen zu verhindern, verwenden erfahrene Entwickler deshalb die wissenschaftliche Methode, um systematisch Hypothesen über Fehlerursachen zu prüfen. Jedoch kann auch noch mittels der wissenschaftlichen Methode die Suche nach Fehlerursachen sehr mühsam sein, da passende Hypothesen meist manuell und ohne die systematische Hilfe von Werkzeugen aufgestellt werden müssen. Diese Dissertation präsentiert die test-getriebene Fehlernavigation als einen zusammenhängenden Wegweiser zur Beseitigung von reproduzierbaren Fehlern mit Hilfe der wissenschaftlichen Methode. Basierend auf der Analyse von funktionierenden und fehlschlagenden Testfällen werden Anomalien aufgedeckt und in eine Breitensuche integriert, um Entwickler zum Defekt zu führen. Diese systematische Suche besteht aus vier spezifischen Navigationstechniken, welche zusammen die Erstellung, Evaluierung und Verfeinerung von Hypothesen für die wissenschaftliche Methode unterstützen. Erstens grenzt die Strukturnavigation verdächtige Systemteile und den initialen Suchraum ein. Zweitens empfiehlt die Team-Navigation erfahrene Entwickler zur Behebung von Fehlern. Drittens erlaubt es die Verhaltensnavigation Entwicklern, die hervorgehobene Infektionskette eines fehl- schlagenden Testfalls zurückzuverfolgen. Viertens identifiziert die Zustandsnavigation fehlerhafte Zustände, um automatisch Teile der Infektionskette offenzulegen. Alle vier Navigationen wurden innerhalb des Path Tools Framework für die Squeak/Smalltalk Entwicklungsumgebung implementiert. Dabei bauen alle Werkzeuge auf die inkrementelle dynamische Analyse, welche die Berechnungskosten über mehrere Testdurchläufe abhängig von den Bedürfnissen des Nutzers aufteilt und somit schnelle Ergebnisse während der Fehlersuche liefert. Folglich können wichtige Fragen in kurzer Zeit beantwortet werden: Wo wird mit der Fehlersuche begonnen? Wer versteht Fehlerursachen am Besten? Was passierte bevor der Fehler auftrat? Welche Programmzustände sind betroffen? KW - Softwaretest KW - Fehlerbeseitigung KW - Test-getriebene Fehlernavigation KW - Anomalien KW - Ausführungsgeschichte KW - testing KW - debugging KW - test-driven fault navigation KW - anomalies KW - back-in-time Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68155 ER - TY - THES A1 - Pauly, Dennis T1 - Grenzfälle der Subordination : Merkmale, Empirie und Theorie abhängiger Nebensätze T1 - Borderline cases of subordination : features, empiricism and theory of dependent clauses N2 - Gegenstand dieser Arbeit sind sog. nicht-kanonische bzw. unintegrierte Nebensätze. Diese Nebensätze zeichnen sich dadurch aus, dass sie sich mittels gängiger Kriterien (Satzgliedstatus, Verbletztstellung) nicht klar als koordiniert oder subordiniert beschreiben lassen. Das Phänomen nicht-kanonischer Nebensätze ist ein Thema, welches in der Sprachwissenschaft generell seit den späten Siebzigern (Davison 1979) diskutiert wird und spätestens mit Fabricius-Hansen (1992) auch innerhalb der germanistischen Linguistik angekommen ist. Ein viel beachteter Komplex ist hierbei – neben der reinen Identifizierung nicht-kanonischer Satzgefüge – meist auch die Erstellung einer Klassifikation zur Erfassung zumindest einiger nicht-kanonischer Gefüge, wie dies etwa bei Fabricius-Hansen (1992) und Reis (1997) zu sehen ist. Das Ziel dieser Studie ist es, eine exhaustive Klassifikation der angesprochenen Nebensatztypen vorzunehmen. Dazu werden zunächst – unter Zuhilfenahme von Korpusdaten – alle potentiellen Subordinationsmerkmale genauer untersucht, da die meisten bisherigen Studien zu diesem Thema die stets gleichen Merkmale als gegeben voraussetzen. Dabei wird sich herausstellen, dass nur eine kleine Anzahl von Merkmalen sich wirklich zweifelsfrei dazu eignet, Aufschluss über die Satzverknüpfungsqualität zu geben. Die anschließend aufgestellte Taxonomie deutscher Nebensätze wird schließlich einzig mit der Postulierung einer nicht-kanonischen Nebensatzklasse auskommen. Sie ist darüber hinaus auch in der Lage, die zahlreich vorkommenden Ausnahmefälle zu erfassen. Dies heißt konkret, dass auch etwaige Nebensätze, die sich aufgrund bestimmter Eigenschaften teilweise idiosynkratisch verhalten, einfach in die vorgeschlagene Klassifikation übernommen werden können. In diesem Zuge werde ich weiterhin zeigen, wie eine Nebensatzklassifikation auch sog. sekundären Subordinationsmerkmalen gerecht werden kann, obwohl diese sich hinsichtlich der einzelnen Nebensatzklassen nicht einheitlich verhalten. Schließlich werde ich eine theoretische Modellierung der zuvor postulierten Taxonomie vornehmen, die auf Basis der HPSG mittels Merkmalsvererbung alle möglichen Nebensatztypen zu erfassen imstande ist. N2 - This study focuses on so-called non-canonical or unintegrated clauses in German. These clauses cannot easily be categorized as either subordinate or coordinate by using classical criteria like the syntactic function or the position of the finite verb. In linguistics in general, this phenomenon has been discussed since the seventies (Davison 1979) and Fabricius-Hansen (1992) brought this topic to German linguistics. Apart from the mere identification of non-canonical clause types, previous studies mostly deal with classification approaches in order to be able to subsume at least some non-canonical clause types under the same category, see Fabricius-Hansen (1992) or Reis (1997). This study aims at providing an exhaustive classification of non-canonical clause types. In order to do so, I will first look at all potential diagnostics that could be used to distinguish between different clause linkage patterns. This needs to be addressed because most previous studies simply assume a certain set of diagnostics to be relevant and valid. Eventually, it will turn out that only a very limited number of criteria can serve as clear diagnostics with regard to a certain clause linkage status. After that, I will present a taxonomy of German clauses that is able to cover all non-canonical clauses only with postulating one additional subcategory. Furthermore, this classification is also able to cover the numerous cases of non-canonical clauses that show idiosyncratic behavior. Besides, I will further show how such a classification can address so-called secondary diagnostics. Finally, the previously established taxonomy will be embedded in a generative framework. By using HPSG and its default inheritance principle, it is possible to capture all non-canonical clause types within one simple classification. KW - Syntax KW - Satzgefüge KW - nicht-kanonische Nebensätze KW - syntax KW - clause linkage KW - non-canonical clauses Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70275 ER - TY - THES A1 - Patz, Ronny T1 - Information flows in the context of EU policy-making : affiliation networks and the post-2012 reform of the EU's Common Fisheries Policy T1 - Informationsflüsse im Kontext von EU-Entscheidungsprozessen : Affiliations-Netzwerke und die Reform der Gemeinsamen Fischereipolitik der EU für die Zeit nach 2012 N2 - Information flows in EU policy-making are heavily dependent on personal networks, both within the Brussels sphere but also reaching outside the narrow limits of the Belgian capital. These networks develop for example in the course of formal and informal meetings or at the sidelines of such meetings. A plethora of committees at European, transnational and regional level provides the basis for the establishment of pan-European networks. By studying affiliation to those committees, basic network structures can be uncovered. These affiliation network structures can then be used to predict EU information flows, assuming that certain positions within the network are advantageous for tapping into streams of information while others are too remote and peripheral to provide access to information early enough. This study has tested those assumptions for the case of the reform of the Common Fisheries Policy for the time after 2012. Through the analysis of an affiliation network based on participation in 10 different fisheries policy committees over two years (2009 and 2010), network data for an EU-wide network of about 1300 fisheries interest group representatives and more than 200 events was collected. The structure of this network showed a number of interesting patterns, such as – not surprisingly – a rather central role of Brussels-based committees but also close relations of very specific interests to the Brussels-cluster and stronger relations between geographically closer maritime regions. The analysis of information flows then focused on access to draft EU Commission documents containing the upcoming proposal for a new basic regulation of the Common Fisheries Policy. It was first documented that it would have been impossible to officially obtain this document and that personal networks were thus the most likely sources for fisheries policy actors to obtain access to these “leaks” in early 2011. A survey of a sample of 65 actors from the initial network supported these findings: Only a very small group had accessed the draft directly from the Commission. Most respondents who obtained access to the draft had received it from other actors, highlighting the networked flow of informal information in EU politics. Furthermore, the testing of the hypotheses connecting network positions and the level of informedness indicated that presence in or connections to the Brussels sphere had both advantages for overall access to the draft document and with regard to timing. Methodologically, challenges of both the network analysis and the analysis of information flows but also their relevance for the study of EU politics have been documented. In summary, this study has laid the foundation for a different way to study EU policy-making by connecting topical and methodological elements – such as affiliation network analysis and EU committee governance – which so far have not been considered together, thereby contributing in various ways to political science and EU studies. N2 - Informationsflüsse im Kontext von EU-Entscheidungsprozessen sind ohne persönliche Netzwerke kaum denkbar, sowohl solche innerhalb der Brüsseler Sphäre aber auch solche, die über die engen Grenzen der belgischen Hauptstadt hinausreichen. Solche Netzwerke entwickeln sich zum Beispiel im Laufe von offiziellen und inoffiziellen Treffen, oft auch am Rande solcher Ereignisse. Die Vielzahl von Ausschüssen auf europäischer, transnationaler und regionaler Ebene bildet daher die Grundlage für die Schaffung europäischer Netzwerkstrukturen. Indem wir die Teilnahme an solchen Ausschüssen untersuchen, ist es uns möglich, grundlegende Strukturmerkmale solcher Netzwerke aufzudecken. Solche Affiliationsnetzwerk-Strukturen können dann die Grundlage zur Vorhersage von europäischen Informationsflüssen bilden: Die Annahme ist, dass bestimmte Positionen in solchen Netzwerken vorteilhaft für den Zugang zu Informationsflüssen sind, während andere Positionen (zu) weit entfernt und zu peripher sind, um rechtzeitigen Zugriff auf relevante Informationen zu erhalten. Die vorliegende Studie testet diese Annahmen anhand der Reform der Gemeinsamen Fischereipolitik der Europäischen Union für die Zeit nach 2012 . Basierend auf Teilnahmedaten von 10 Fischereipolitik-Ausschüssen über den Zeitraum von zwei Jahren (2009 und 2010) wurde ein Affilationsnetzwerk aus mehr als 1300 Interessenvertretern und –vertreterinnen sowie über 200 Ereignissen erhoben. Die Struktur dieses Netzwerks zeigt eine Reihe von interessanten Mustern auf, zum Beispiel die zentrale Rolle von Brüssel-basierten Ausschüssen aber auch die enge Verknüpfung bestimmter Interessen mit dem Brüsseler Kern des Netzwerk sowie die enge Vernetzung geographisch benachbarter Meeresregionen. Die Analyse von EU-Informationsflüssen wurde dann Anhand des Zugangs von Akteuren aus dem erhobenen Netzwerk zu (nichtöffentlichen) Entwurfsfassungen des Kommissionsvorschlags für eine neue Gemeinsame Fischereipolitik durchgeführt. Zunächst wurde dokumentiert, dass der Zugang zu diesen Dokumenten auf offiziellen Wegen unmöglich war und dass daher Zugang durch erweiterte persönliche Netzwerke die wahrscheinlichste Erklärung für den Erhalt von „Leaks“ durch Fischereipolitik-Interessengruppen in der ersten Hälfte von 2011 war. Eine Umfrage unter 65 Akteuren aus der Gesamtpopulation des Gesamtnetzwerk unterstützte diese Vermutung: Nur eine kleine Gruppe hatte Zugang zu den nicht-öffentlichen Entwurfsdokumenten durch ihre direkten Beziehungen mit der EU-Kommission. Die meisten Teilnehmer der Umfrage hatte Zugang zu diesen Dokumenten durch Dritte erhalten, ein Nachweis, dass EU-Informationen sich tatsächlich in weiteren Netzwerkstrukturen verbreiten. Die Studie konnte auch zeigen, dass enge Affiliations-Beziehungen zur Brüsseler Sphäre ein relevanter Indikator für den (zeitnahen) Zugang zu nicht-öffentlichen EU-Dokumenten ist. Die Herausforderungen in der methodischen Erhebungen von europäischen Affiliationsnetzwerkdaten und von EU-Informationsflüssen werden dabei in der Studie ausführlich dokumentiert. Die Relevanz dieser Methoden zur Analyse von EU-Politik wird ebenfalls im Detail dargelegt. Zusammenfassend legt diese Doktorarbeit die Grundlage für eine neue Art, europäische und transnationale politische Prozesse in Europa zu untersuchen. Sie verbinden thematische und methodische Ansätze – zum Beispiel Affiliationsnetzwerkanalyse und die Untersuchung des EU-Ausschusswesens – die bislang in dieser Form noch nicht zusammengeführt wurden, und trägt dadurch auf verschiedenste Weise zur Weiterentwicklung der Politikwissenschaft und der Europastudien bei. KW - Netzwerkanalyse KW - Europäische Union KW - Informationsflüsse KW - Ausschüsse KW - Affiliationsnetzwerke KW - network analysis KW - European Union KW - information flow KW - committee governance KW - affiliation networks Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70732 ER - TY - THES A1 - Patterson, Clare T1 - The role of structural and discourse-level cues during pronoun resolution T1 - Zur Rolle von struktureller und diskursbasierter Information während der Pronomenverarbeitung N2 - Pronoun resolution normally takes place without conscious effort or awareness, yet the processes behind it are far from straightforward. A large number of cues and constraints have previously been recognised as playing a role in the identification and integration of potential antecedents, yet there is considerable debate over how these operate within the resolution process. The aim of this thesis is to investigate how the parser handles multiple antecedents in order to understand more about how certain information sources play a role during pronoun resolution. I consider how both structural information and information provided by the prior discourse is used during online processing. This is investigated through several eye tracking during reading experiments that are complemented by a number of offline questionnaire experiments. I begin by considering how condition B of the Binding Theory (Chomsky 1981; 1986) has been captured in pronoun processing models; some researchers have claimed that processing is faithful to syntactic constraints from the beginning of the search (e.g. Nicol and Swinney 1989), while others have claimed that potential antecedents which are ruled out on structural grounds nonetheless affect processing, because the parser must also pay attention to a potential antecedent’s features (e.g. Badecker and Straub 2002). My experimental findings demonstrate that the parser is sensitive to the subtle changes in syntactic configuration which either allow or disallow pronoun reference to a local antecedent, and indicate that the parser is normally faithful to condition B at all stages of processing. Secondly, I test the Primitives of Binding hypothesis proposed by Koornneef (2008) based on work by Reuland (2001), which is a modular approach to pronoun resolution in which variable binding (a semantic relationship between pronoun and antecedent) takes place before coreference. I demonstrate that a variable-binding (VB) antecedent is not systematically considered earlier than a coreference (CR) antecedent online. I then go on to explore whether these findings could be attributed to the linear order of the antecedents, and uncover a robust recency preference both online and offline. I consider what role the factor of recency plays in pronoun resolution and how it can be reconciled with the first-mention advantage (Gernsbacher and Hargreaves 1988; Arnold 2001; Arnold et al., 2007). Finally, I investigate how aspects of the prior discourse affect pronoun resolution. Prior discourse status clearly had an effect on pronoun resolution, but an antecedent’s appearance in the previous context was not always facilitative; I propose that this is due to the number of topic switches that a reader must make, leading to a lack of discourse coherence which has a detrimental effect on pronoun resolution. The sensitivity of the parser to structural cues does not entail that cue types can be easily separated into distinct sequential stages, and I therefore propose that the parser is structurally sensitive but not modular. Aspects of pronoun resolution can be captured within a parallel constraints model of pronoun resolution, however, such a model should be sensitive to the activation of potential antecedents based on discourse factors, and structural cues should be strongly weighted. N2 - Pronomenauflösung erfolgt normalerweise scheinbar mühelos und ohne bewusste Anstrengung. Jedoch ist die Verarbeitung von pronominalen Referenzen aus linguistischer Sicht ein hochkomplexer Prozess. Durch unterschiedliche wissenschaftliche Studien wurden bereits zahlreiche Faktoren ermittelt, die bei der Pronomenauflösung eine Rolle spielen, allerdings herrscht weitgehend noch keine Einigkeit darüber, wie genau diese Faktoren die Verarbeitung von Pronomen beeinflussen. Ziel dieser Dissertation ist es zu untersuchen, wie der Leser/Hörer mit Pronomen umgeht, denen mehrere Antezedenten zugeordnet werden können, um zu verstehen, welche Rolle bestimmte Informationsquellen in der Verarbeitung von Pronomen spielen. Besondere Beachtung findet dabei, wie strukturelle Eigenschaften sowie Informationen aus dem vorangegangenen Diskurs für die Suche nach einem passenden Antezedenten benutzt werden. Die angewandte Untersuchungsmethode der vorliegenden Dissertation ist Eye-tracking during reading, ergänzt mit verschiedenen offline-Fragebögen. Die Experimente erforschen die Rolle der folgenden Aspekte in der Verarbeitung von Pronomen: Prinzip B der Bindungstheorie (Chomsky 1981; 1986), Koreferenz und Variablenbindung laut der Primitives of Binding Hypothese (Reuland 2001, Koornneef 2008), Antezedentenreihenfolge im Satz, und Diskursstatus des Antezedents. Obwohl es zeigt sich, dass der Hörer/Leser sensibel für subtile Veränderungen in der syntaktischen Konfiguration ist, wie z.B. für die Reihenfolge der Antezedenten im Satz und für den Diskursstatus des Antezedenten, gibt es keinen Nachweis dafür, dass Variablenbindung zeitlich vor Koreferenz erfolgt. Einige Aspekte der Auflösung pronominaler Referenzen können in einem parallel constraints model erfasst werden, allerdings sollte so ein Modell strukturelle Informationen stark gewichten und sensitiv sein für die Aktivierung potenzieller Antezedenten aufgrund von Diskursfaktoren. KW - Pronomen KW - Anaphora KW - Psycholinguistik KW - Pronouns KW - anaphora KW - psycholinguistics KW - Binding Theory KW - Centering Theory Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71280 ER - TY - THES A1 - Patra, Pintu T1 - Population dynamics of bacterial persistence T1 - Populationsdynamik von Bakterielle Persistenz N2 - The life of microorganisms is characterized by two main tasks, rapid growth under conditions permitting growth and survival under stressful conditions. The environments, in which microorganisms dwell, vary in space and time. The microorganisms innovate diverse strategies to readily adapt to the regularly fluctuating environments. Phenotypic heterogeneity is one such strategy, where an isogenic population splits into subpopulations that respond differently under identical environments. Bacterial persistence is a prime example of such phenotypic heterogeneity, whereby a population survives under an antibiotic attack, by keeping a fraction of population in a drug tolerant state, the persister state. Specifically, persister cells grow more slowly than normal cells under growth conditions, but survive longer under stress conditions such as the antibiotic administrations. Bacterial persistence is identified experimentally by examining the population survival upon an antibiotic treatment and the population resuscitation in a growth medium. The underlying population dynamics is explained with a two state model for reversible phenotype switching in a cell within the population. We study this existing model with a new theoretical approach and present analytical expressions for the time scale observed in population growth and resuscitation, that can be easily used to extract underlying model parameters of bacterial persistence. In addition, we recapitulate previously known results on the evolution of such structured population under periodically fluctuating environment using our simple approximation method. Using our analysis, we determine model parameters for Staphylococcus aureus population under several antibiotics and interpret the outcome of cross-drug treatment. Next, we consider the expansion of a population exhibiting phenotype switching in a spatially structured environment consisting of two growth permitting patches separated by an antibiotic patch. The dynamic interplay of growth, death and migration of cells in different patches leads to distinct regimes in population propagation speed as a function of migration rate. We map out the region in parameter space of phenotype switching and migration rate to observe the condition under which persistence is beneficial. Furthermore, we present an extended model that allows mutation from the two phenotypic states to a resistant state. We find that the presence of persister cells may enhance the probability of resistant mutation in a population. Using this model, we explain the experimental results showing the emergence of antibiotic resistance in a Staphylococcus aureus population upon tobramycin treatment. In summary, we identify several roles of bacterial persistence, such as help in spatial expansion, development of multidrug tolerance and emergence of antibiotic resistance. Our study provides a theoretical perspective on the dynamics of bacterial persistence in different environmental conditions. These results can be utilized to design further experiments, and to develop novel strategies to eradicate persistent infections. N2 - Das Leben von Mikroorganismen kann in zwei charakteristische Phasen unterteilt werde, schnelles Wachstum unter Wachstumsbedingungen und Überleben unter schwierigen Bedingungen. Die Bedingungen, in denen sich die Mikroorganismen aufhalten, verändern sich in Raum und Zeit. Um sich schnell an die ständig wechselnden Bedingungen anzupassen entwickeln die Mikroorganismen diverse Strategien. Phänotypische Heterogenität ist eine solche Strategie, bei der sich eine isogene Popolation in Untergruppen aufteilt, die unter identischen Bedingungen verschieden reagieren. Bakterielle Persistenz ist ein Paradebeispiel einer solchen phänotypischen Heterogenität. Hierbei überlebt eine Popolation die Behandlung mit einem Antibiotikum, indem sie einen Teil der Bevölkerung in einem, dem Antibiotikum gegenüber tolerant Zustand lässt, der sogenannte "persister Zustand". Persister-Zellen wachsen unter Wachstumsbedingungen langsamer als normale Zellen, jedoch überleben sie länger in Stress-Bedingungen, wie bei Antibiotikaapplikation. Bakterielle Persistenz wird experimentell erkannt indem man überprüft ob die Population eine Behandlung mit Antibiotika überlebt und sich in einem Wachstumsmedium reaktiviert. Die zugrunde liegende Popolationsdynamik kann mit einem Zwei-Zustands-Modell für reversibles Wechseln des Phänotyps einer Zelle in der Bevölkerung erklärt werden. Wir untersuchen das bestehende Modell mit einem neuen theoretischen Ansatz und präsentieren analytische Ausdrücke für die Zeitskalen die für das Bevölkerungswachstums und die Reaktivierung beobachtet werden. Diese können dann einfach benutzt werden um die Parameter des zugrunde liegenden bakteriellen Persistenz-Modells zu bestimmen. Darüber hinaus rekapitulieren wir bisher bekannten Ergebnisse über die Entwicklung solch strukturierter Bevölkerungen unter periodisch schwankenden Bedingungen mithilfe unseres einfachen Näherungsverfahrens. Mit unserer Analysemethode bestimmen wir Modellparameter für eine Staphylococcus aureus-Popolation unter dem Einfluss mehrerer Antibiotika und interpretieren die Ergebnisse der Behandlung mit zwei Antibiotika in Folge. Als nächstes betrachten wir die Ausbreitung einer Popolation mit Phänotypen-Wechsel in einer räumlich strukturierten Umgebung. Diese besteht aus zwei Bereichen, in denen Wachstum möglich ist und einem Bereich mit Antibiotikum der die beiden trennt. Das dynamische Zusammenspiel von Wachstum, Tod und Migration von Zellen in den verschiedenen Bereichen führt zu unterschiedlichen Regimen der Populationsausbreitungsgeschwindigkeit als Funktion der Migrationsrate. Wir bestimmen die Region im Parameterraum der Phänotyp Schalt-und Migrationsraten, in der die Bedingungen Persistenz begünstigen. Darüber hinaus präsentieren wir ein erweitertes Modell, das Mutation aus den beiden phänotypischen Zuständen zu einem resistenten Zustand erlaubt. Wir stellen fest, dass die Anwesenheit persistenter Zellen die Wahrscheinlichkeit von resistenten Mutationen in einer Population erhöht. Mit diesem Modell, erklären wir die experimentell beobachtete Entstehung von Antibiotika- Resistenz in einer Staphylococcus aureus Popolation infolge einer Tobramycin Behandlung. Wir finden also verschiedene Funktionen bakterieller Persistenz. Sie unterstützt die räumliche Ausbreitung der Bakterien, die Entwicklung von Toleranz gegenüber mehreren Medikamenten und Entwicklung von Resistenz gegenüber Antibiotika. Unsere Beschreibung liefert eine theoretische Betrachtungsweise der Dynamik bakterieller Persistenz bei verschiedenen Bedingungen. Die Resultate könnten als Grundlage neuer Experimente und der Entwicklung neuer Strategien zur Ausmerzung persistenter Infekte dienen. KW - Populationsdynamik KW - Antibiotikaresistenz KW - Antibiotika-Toleranz KW - Phänotypische Heterogenität KW - population dynamics KW - drug tolerance KW - antibiotic resistance KW - phenotypic heterogeneity Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69253 ER - TY - THES A1 - Ohl, Sven T1 - Small eye movements during fixation : the case of postsaccadic fixation and preparatory influences T1 - Kleine Augenbewegungen während der Fixation: Der Fall der postsakkadischen Fixation und vorbereitender Einflüsse N2 - Describing human eye movement behavior as an alternating sequence of saccades and fixations turns out to be an oversimplification because the eyes continue to move during fixation. Small-amplitude saccades (e.g., microsaccades) are typically observed 1-2 times per second during fixation. Research on microsaccades came in two waves. Early studies on microsaccades were dominated by the question whether microsaccades affect visual perception, and by studies on the role of microsaccades in the process of fixation control. The lack of evidence for a unique role of microsaccades led to a very critical view on the importance of microsaccades. Over the last years, microsaccades moved into focus again, revealing many interactions with perception, oculomotor control and cognition, as well as intriguing new insights into the neurophysiological implementation of microsaccades. In contrast to early studies on microsaccades, recent findings on microsaccades were accompanied by the development of models of microsaccade generation. While the exact generating mechanisms vary between the models, they still share the assumption that microsaccades are generated in a topographically organized saccade motor map that includes a representation for small-amplitude saccades in the center of the map (with its neurophysiological implementation in the rostral pole of the superior colliculus). In the present thesis I criticize that models of microsaccade generation are exclusively based on results obtained during prolonged presaccadic fixation. I argue that microsaccades should also be studied in a more natural situation, namely the fixation following large saccadic eye movements. Studying postsaccadic fixation offers a new window to falsify models that aim to account for the generation of small eye movements. I demonstrate that error signals (visual and extra-retinal), as well as non-error signals like target eccentricity influence the characteristics of small-amplitude eye movements. These findings require a modification of a model introduced by Rolfs, Kliegl and Engbert (2008) in order to account for the generation of small-amplitude saccades during postsaccadic fixation. Moreover, I present a promising type of survival analysis that allowed me to examine time-dependent influences on postsaccadic eye movements. In addition, I examined the interplay of postsaccadic eye movements and postsaccadic location judgments, highlighting the need to include postsaccadic eye movements as covariate in the analyses of location judgments in the presented paradigm. In a second goal, I tested model predictions concerning preparatory influences on microsaccade generation during presaccadic fixation. The observation, that the preparatory set significantly influenced microsaccade rate, supports the critical model assumption that increased fixation-related activity results in a larger number of microsaccades. In the present thesis I present important influences on the generation of small-amplitude saccades during fixation. These eye movements constitute a rich oculomotor behavior which still poses many research questions. Certainly, small-amplitude saccades represent an interesting source of information and will continue to influence future studies on perception and cognition. N2 - Die Beschreibung des Blickbewegungsverhaltens als eine sich abwechselnde Folge von Sakkaden und Fixationen stellt eine starke Vereinfachung dar, denn auch während einer Fixation bewegen sich die Augen. Typischerweise treten Bewegungen von kleiner Amplitude (z.B. Mikrosakkaden), 1-2 mal pro Sekunde während einer Fixation auf. Frühe Studien zu Mikrosakkaden wurden von Fragen bezüglich des Einflusses von Mikrosakkaden auf die visuelle Wahrnehmung, und Studien zu der Rolle von Mikrosakkaden bei der Fixationskontrolle dominiert. Fehlende Evidenz für eine Rolle, die ausschließlich Mikrosakkaden zufällt, führten zu einer sehr kritischen Betrachtung von Mikrosakkaden. In den letzten Jahren rückten Mikrosakkaden wieder mehr in den Fokus. Vielerlei Zusammenhänge mit Wahrnehmung, okulomotorischer Kontrolle und Kognition, sowie neue Erkenntnisse bezüglich der neurophysiologischen Implementierung von Mikrosakkaden konnten aufgedeckt werden. In den letzten Jahren wurden verschiedene Modelle der Mikrosakkadengenerierung vorgestellt. Auch wenn sich diese in ihren exakten Mechanismen unterscheiden, so teilen sie doch die Annahme, dass Mikrosakkaden in einer topographisch organisierten motorischen Karte für Sakkaden ausgelöst werden. Diese Karten beinhalten eine Repräsentation für klein-amplitudige Sakkaden im Zentrum der Karte (mit dem rostralen Pol der colliculi superiores als neurophysiologische Implementierung). In der vorliegenden Arbeit kritisiere ich, dass Modelle der Mikrosakkadengenerierung ausschließlich auf Resultaten langanhaltender präsakkadischer Fixation beruhen. Ich führe an, dass Mikrosakkaden in einer natürlicheren Situation untersucht werden sollten, nämlich während der Fixation nach einer großen Sakkade. Die Untersuchung postsakkadischer Fixation bietet eine neue Möglichkeit Modelle der Mikrosakkadengenerierung zu falsifizieren. In den Studien zeige ich, dass Signale über den Fehler in der Sakkadenlandeposition (visuelle und extra-retinale), sowie fehler-unabhängige Signale, wie die Zielreiz-Exzentrizität, einen entscheidenden Einfluss auf kleine Sakkaden haben. Diese Resultate erfordern Modifikationen an dem kürzlich eingeführten Modell von Rolfs, Kliegl und Engbert (2008), um die Generierung von kleinen Sakkaden auch während der postsakkadischen Fixation erklären zu können. Darüber hinaus präsentiere ich eine viel versprechende Ereigniszeitanalyse, die uns erlaubt zeitabhängige Einflüsse auf das postsakkadische Blickbewegungsverhalten zu untersuchen. Außerdem untersuche ich das Zusammenspiel von postsakkadischen Augenbewegungen und postsakkadischen Positionsurteilen. Dabei wird die Bedeutung von postsakkadischen Augenbewegungen als Kovariate in den statistischen Analysen betont. Ein zweites Ziel dieser Arbeit besteht darin Modellvorhersagen bezüglich vorbereitender Einflüsse auf die Mikrosakkadengenerierung zu untersuchen. Die Ergebnisse, hinsichtlich eines signifikanten Einflusses des preparatory set auf die Mikrosakkadenrate unterstützt die wesentliche Modellannahme, dass erhöhte fixationsbezogene Aktivität zu einer größeren Anzahl an Mikrosakkaden führt. In der vorliegenden Arbeit präsentiere ich wichtige Einflüsse auf die Generierung von kleinen Sakkaden während der Fixation. Diese Augenbewegungen stellen ein vielseitiges okulomorisches Verhalten dar, welche weiterhin zahlreiche Fragen mit sich bringen und sicherlich zukünftige Studien zu Wahrnehmung und Kognition beeinflussen werden. KW - Augenbewegungen KW - Mikrosakkaden KW - Sekundärsakkaden KW - Korrektursakkaden KW - Landepositionsfehler KW - eye movements KW - microsaccades KW - secondary saccades KW - corrective saccades KW - saccadic error Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69862 ER - TY - THES A1 - Oehme, Astrid T1 - Ästhetisches Verständnis und ästhetische Wertschätzung von Automobildesign : eine Frage der Expertise T1 - Aesthetic understanding and aesthetic appreciation of automotive design : a question of expertise N2 - Automobildesigner haben als Gestaltungsexperten die Aufgabe, die Identität und damit die Werte einer Marke in Formen zu übersetzen, welche eine Vielzahl von Kunden ansprechen (Giannini & Monti, 2003; Karjalainen, 2002). Für diesen Übersetzungsprozess ist es zielführend, ästhetische Kundenbedürfnisse zu kennen, denn die Qualität einer Designlösung hängt auch davon ab, inwieweit der Designer Kundenbe-dürfnisse und damit das Designproblem richtig erfasst hat (Ulrich, 2006). Eine Grundlage hierfür entsteht durch eine erfolgreiche Designer-Nutzer-Interaktion und den Aufbau eines gemeinsamen Kontextwissens (Lee, Popovich, Blackler & Lee, 2009). Zwischen Designern und Kunden findet jedoch häufig kein direkter Austausch statt (Zeisel, 2006). Zudem belegen Befunde der Kunst- und Produktästhetikforschung, dass der Erwerb von gestalterischem Wissen und damit die Entwicklung ästhetischer Expertise mit Veränderungen der kognitiven Verarbeitung ästhetischer Objekte einhergeht, die sich in Wahrnehmung, Bewertung und Verhalten manifestieren. Damit ist auch zu erwarten, dass die Präferenzurteile von Designern und Kunden bei der ästhetischen Bewertung von Design nicht immer konvergieren. Ziel der vorliegenden Arbeit war daher die systematische Untersuchung dieser expertisebedingten Wahrnehmungs- und Bewertungsunterschiede zwischen designge-schulten und ungeschulten Personen bei der Betrachtung von Automobildesign. Damit sollten Perzeption, Verarbeitung und Bewertung von Automobildesign durch design-ungeschulte Personen transparenter gemacht und mit der Verarbeitung designgeschul-ter Personen verglichen werden, um einen Beitrag zur gemeinsamen Wissensbasis und damit einer erfolgreichen Designer-Nutzer-Interaktion zu leisten. Die theoretische Einbettung der Arbeit basierte auf dem Modell ästhetischer Erfahrung und ästheti-schen Urteilens von Leder, Belke, Oeberst und Augustin (2004), welches konkrete Annahmen zu Verarbeitungsunterschieden von ästhetischen Objekten zwischen Experten und Laien bietet, die bisher allerdings noch nicht umfassend geprüft wurden. Den ersten Schwerpunkt dieser Arbeit bildete die Untersuchung von Unter-schieden zwischen Designern und designungeschulten Rezipienten bei der Beschrei-bung und Bewertung auf dem Markt vorhandenen Fahrzeugdesigns. Dabei sollte auch geprüft werden, ob eine lexikalische Verbindung zwischen Beschreibungsattributen von Fahrzeugrezipienten und den postulierten Markenwerten von Automobilmarken hergestellt werden kann. Diesem ersten Untersuchungsanliegen wurde in zwei Studien nachgegangen: Studie I diente der Erhebung von Beschreibungsattributen mittels Triadenvergleich in Anlehnung an Kelly (1955). Es wurde geprüft, ob designgeschulte Teilnehmer produkti-ver verbalisieren, dabei anteilig mehr symbolbezogene als formbezogene Attribute generieren und innerhalb ihrer Gruppe häufiger gleiche Attribute nutzen als designun-geschulte Teilnehmer. Hierfür beschrieben 20 designgeschulte Probanden und 20 designungeschulte Probanden mit selbst gewählten Adjektiven die Unterschiede zwischen vier präsentierten Fahrzeugen. Die Gruppen nutzten dabei entgegen der Annahmen sehr ähnliche Attribute und unterschieden sich somit auch nicht in ihrer Verwendung symbolbezogener und formbezogener Attribute. Die generierten Attribute wurden mittels Prototypenansatz (Amelang & Zielinski, 2002) den ermittelten und nachfolgend kategorisierten Markenwerten von 10 Automobilherstellern zugeordnet, so dass sechs Skalen zur Erfassung der ästhetischen Wirkung von Fahrzeugen entstanden. In Studie II wurde ein diese sechs Skalen umfassender Fragebogen an einer Stichprobe von 83 Designern und Designstudierenden sowie 98 Probanden ohne Designausbildung in einer Onlinebefragung hinsichtlich Skalenkonsistenz geprüft. Außerdem wurden erste Annahmen aus dem Modell von Leder et al. (2004) abgeleitet und durch einen Vergleich der beiden Teilnehmergruppen hinsichtlich der Bewertung der vier präsentierten Fahrzeugmodelle für die Skalen mit guter interner Konsistenz (Attraktivität, Dynamik, Fortschritt, Qualität), sowie eines ästhetischen Gesamturteils, der benötigten Bewertungszeit und der Automobilaffinität überprüft. Hierbei vergaben Designstudierende und insbesondere ausgebildete Designer radikalere Bewertungen als Designlaien, benötigten mehr Zeit bei der Bewertung und waren automobilaffiner als die ungeschulten Befragungsteilnehmer. Den zweiten Schwerpunkt der Arbeit bildete eine konzeptionelle Zusammen-führung der Annahmen des Modells von Leder et al. (2004) und der Postulate zur Wirkung von Objekteigenschaften auf ästhetische Urteile (Berlyne, 1971; Martindale, 1988; Silvia, 2005b). Konkret sollte geprüft werden, welchen Einfluss marktrelevante Objekteigenschaften, wie z.B. das Ausmaß an Innovativität, auf die durch Expertise moderierte Bewertung von Design haben. In den Studien III und IV wurden hierfür systematisch bezüglich Innovativität und Balance gestufte Linienmodelle von Fahrzeu-gen präsentiert. In Studie III wurden die Modelle in einer Onlinebefragung durch 18 Designstudierende und 20 Studenten der Fahrzeugtechnik hinsichtlich Attraktivität, Innovativität und Balance bewertet. Im Einklang mit den Annahmen konnte gezeigt werden, dass sehr neuartiges Design von den designungeschulten Probanden als weniger attraktiv bewertet wird als von Betrachtern eines Designstudienganges. In Studie IV wurden neben den Ästhetikbewertungen zusätzlich das Blickverhal-ten und der affektiver Zustand der Versuchsteilnehmer in einem Messwiederholungs-design mit einer zwischengelagerten Phase elaborierter Designbewertung, in welcher der in Studie II geprüfte Fragebogen eingesetzt wurde, erhoben. An der Laborstudie nahmen je 11 Designer, Ingenieure, und Geisteswissenschaftler teil. Wiederum wurde innovatives Design von den designungeschulten Gruppen als weniger attraktiv bewertet. Dieser Unterschied reduzierte sich jedoch nach wiederholter Bewertung der Modelle. Die Manifestation expertisebedingten Blickverhaltens konnte nicht beobach-tet werden, wie auch die durch eine angenommene bessere Bewältigung einherge-hende positivere Stimmung oder höhere Zufriedenheit in der Expertengruppe. Gemeinsam mit den Befunden aus den Studien II und III wurde deutlich, dass Designausbildung und, noch ausgeprägter, Designexpertise neben einer höheren Attraktivitätsbewertung innovativen Designs auch zu einer differenzierteren Beurtei-lung von Innovativität führt. Dies wurde mit der Erweiterung des mentalen Schemas für Fahrzeuge durch die Beschäftigung mit vielfältigen Modellvarianten bereits während des Studiums interpretiert. Es wurden Hinweise auf eine stilbezogene, elaboriertere Verarbeitung von Fahrzeugdesign durch designgeschulte Betrachter beobachtet sowie eine mit Expertise einhergehende Autonomität ästhetischer Urteile als Ausdruck einer hohen ästhetischen Entwicklungsstufe (Parsons, 1987). Mit diesen bei unterschiedlichen Stichproben beobachteten, stabilen expertisebedingten Bewer-tungsunterschieden wurde eine begründete Basis für die geforderte Sensibilisierung für ästhetische Kundenbedürfnisse im Gestaltungsprozess geschaffen. Der in dieser Arbeit entwickelte Fragebogen kann hierbei für eine elaborierte Messung von Fahrzeugdesignpräferenzen, zum Vergleich der ästhetischen Wirkung mit den intendierten Markenwerten sowie für die Diskussion von Nutzereindrücken eingesetzt werden. Die Ergebnisse der vorliegenden Arbeiten tragen somit zur Erweiterung und Präzisierung des theoretischen Verständnisses von Ästhetikbewertungen bei und lassen sich gleichzeitig in die Praxis der Designausbildung und des Designprozesses übertragen. N2 - Car designers are experts in creating car exteriors that transport a brand’s identity by giving a form to its values which has to appeal to a multitude of customers (Giannini & Monti, 2003; Karjalainen, 2002). In this process of translating values into forms it is quintessential to apprehend the customers’ requirements, as the designers understanding of these needs and thus of the design problem itself has a major impact on the quality of the design (Ulrich, 2011). One basis for this apprehension is shared contextual knowledge stemming from a successful interaction between the designer and the user (Lee, Popovich, Blackler & Lee, 2009). Unfortunately, there often is no direct exchange between designers and users (Zeisel, 2006). What is more, findings from research on the fine arts and product aesthetics prove that acquiring design knowledge and aesthetic expertise distinctly alters one’s cognitive processing of aesthetic objects, which also manifests in one’s perception, assessment, and behaviour. One should also expect experts’ preferential assessments to differ from the ones of users as far as aesthetic assessment is concerned. Considering these propositions, the goal of this doctoral thesis was to systematically examine these expertise-induced differences between design experts and laymen in perceiving and assessing automotive design. This thesis also contibutes to furthering the interaction between designers and users by establishing a shared knowledge basis and does so by analyzing the perception, processing, and assessment of car design by designers and laymen. Theoretical assumptions are based on the model of aesthetic appreciation by Leder, Belke, Oeberst and Augustin (2004), which provides detailed but hitherto untested assumptions on how experts and laymen differ in their processing of aesthetic objects. The thesis first focussed on examining the expertiseinduced differences in describing and assessing car design available „in the wild“, i.e. on the market. This and the lexical link between customers’ descriptive attributes and brand values as intended by the car companies were tested in two studies: Study I collected descriptive attributes by using Kelly’s (1955) method of triadic comparions. It also tested the assumption that experts verbalise more productively, generate a higher ratio of symbol-related to form-related attributes and are more homogenous in their use of attributes. In this study, 20 experts and 20 laymen were presented four cars and were to describe the differences between them using self-chosen adjectives. Contrary to the initial assumption, both groups used similar attributes and did thus also not differ in the ratio of symbol-related and form-related attributes. The attributes generated in this study were matched to the collected and categorised values of ten brands using a prototype approach (cp. Amelang & Zielinski, 2002), which resulted in six scales for covering the aesthetic impression of cars. Study II tested these scales for consistency on 83 designers and students of design and 98 design laymen in an online questionnaire. In addition, first predictions were derived from the model by Leder et al. (2004) and tested by comparing these two groups regarding their assessment of four cars on the scales that had shown a high level of internal consistency (attractiveness, dynamics, progressiveness and quality) as well as regarding their overall aesthetic appreciation, response time, and affinity for cars. In this study, the experts were more radical in their assessments, took more time working in the tasks, and cherished cars more than the laymen. The second focus of this work was to combine the assumptions of the model by Leder et al. (2004) and the postulations on how the characteristics of aesthetic objects influence aesthetic assessments (Berlyne, 1971; Martindale, 1988; Silvia, 2005b): Inhowfar do market-relevant characteristics such as innovativeness affect expertise-induced assessment of design? Study III and IV used line art models that were systematically graduated for innovativeness and balance to answer this question. In study III, 18 design students and 20 engineering students assessed these models in an online questionnaire regarding attractiveness, innovativeness, and balance. The results were in line with the assumptions and showed that laymen rated highly innovative design less attractive than experts. Study IV collected data on the aesthetic assessment, gaze behavior, and the participants’ affective state in a repeated measures design that included an intermediary phase of elaborately assessing design by using the questionnaire developed in study II. The sample consisted of 11 designers, 11 engineers, and 11 humanities scholars. Although highly innovative design – as in study III – was rated less attractive by the laymen, repeated measurement decreased this group difference. The study assumed but could not show effects of expertise-induced gaze behaviour, and an expertise-induced better coping with the task resulting in a greater satisfaction with one’s task performance. The findings of this thesis demonstrate that experience with design and – even more pronounced – expertise in this field result in a greater appreciation for innovative design and a more nuanced assessment of innovativeness. Probably, designers constantly enhance their mental schema due to being confronted with various variations of and solutions for a design problem. The studies suggest that experts process car design in a more style-related, elaborate manner and also that designers, due to their more advanced aesthetic level of development (Parsons, 1987) and expertise, are more autonomous in their assessment. These stable expertise-induced differences in assessment between laymen and experts could be demonstrated for various samples. Thus, they are a valid basis for dealing more sensitively with customers’ requirements in the design process. The questionnaire developed in this thesis can be applied to measure design preferences in detail, to compare the aesthetic impact to the intended brand statement, and to discuss users’ impressions. To conclude, the results presented in this thesis contribute to the theory of aesthetic assessment in providing a more precise understanding of aesthetic assessments and can also be applied to design education and design processes. T3 - Potsdam Cognitive Science Series - 4 KW - Expertise KW - Automobildesign KW - Produkterleben KW - Innovativität KW - ästhetische Nutzeranforderungen KW - ästhetische Präferenzen KW - expertise KW - automotive design KW - product experience KW - innovativeness KW - aesthetic user requirements KW - aesthetic preferences Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62013 SN - 978-3-86956-210-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Nitschke, Felix T1 - Phosphorylation of polyglycans, especially glycogen and starch T1 - Phosphorylierung von Polysacchariden, insbesondere bei Glykogen und Stärke N2 - Functional metabolism of storage carbohydrates is vital to plants and animals. The water-soluble glycogen in animal cells and the amylopectin which is the major component of water-insoluble starch granules residing in plant plastids are chemically similar as they consist of α-1,6 branched α-1,4 glucan chains. Synthesis and degradation of transitory starch and of glycogen are accomplished by a set of enzymatic activities that to some extend are also similar in plants and animals. Chain elongation, branching, and debranching are achieved by synthases, branching enzymes, and debranching enzymes, respectively. Similarly, both types of polyglucans contain low amounts of phosphate esters whose abundance varies depending on species and organs. Starch is selectively phosphorylated by at least two dikinases (GWD and PWD) at the glucosyl carbons C6 and C3 and dephosphorylated by the phosphatase SEX4 and SEX4-like enzymes. In Arabidopsis insufficiency in starch phosphorylation or dephosphorylation results in largely impaired starch turnover, starch accumulation, and often in retardation of growth. In humans the progressive neurodegenerative epilepsy, Lafora disease, is the result of a defective enzyme (laforin) that is functional equivalent to the starch phosphatase SEX4 and capable of glycogen dephosphorylation. Patients lacking laforin progressively accumulate unphysiologically structured insoluble glycogen-derived particles (Lafora bodies) in many tissues including brain. Previous results concerning the carbon position of glycogen phosphate are contradictory. Currently it is believed that glycogen is esterified exclusively at the carbon positions C2 and C3 and that the monophosphate esters, being incorporated via a side reaction of glycogen synthase (GS), lack any specific function but are rather an enzymatic error that needs to be corrected. In this study a versatile and highly sensitive enzymatic cycling assay was established that enables quantification of very small G6P amounts in the presence of high concentrations of non-target compounds as present in hydrolysates of polysaccharides, such as starch, glycogen, or cytosolic heteroglycans in plants. Following validation of the G6P determination by analyzing previously characterized starches G6P was quantified in hydrolysates of various glycogen samples and in plant heteroglycans. Interestingly, glucosyl C6 phosphate is present in all glycogen preparations examined, the abundance varying between glycogens of different sources. Additionally, it was shown that carbon C6 is severely hyperphosphorylated in glycogen of Lafora disease mouse model and that laforin is capable of removing C6 phosphate from glycogen. After enrichment of phosphoglucans from amylolytically degraded glycogen, several techniques of two-dimensional NMR were applied that independently proved the existence of 6-phosphoglucosyl residues in glycogen and confirmed the recently described phosphorylation sites C2 and C3. C6 phosphate is neither Lafora disease- nor species-, or organ-specific as it was demonstrated in liver glycogen from laforin-deficient mice and in that of wild type rabbit skeletal muscle. The distribution of 6-phosphoglucosyl residues was analyzed in glycogen molecules and has been found to be uneven. Gradual degradation experiments revealed that C6 phosphate is more abundant in central parts of the glycogen molecules and in molecules possessing longer glucan chains. Glycogen of Lafora disease mice consistently contains a higher proportion of longer chains while most short chains were reduced as compared to wild type. Together with results recently published (Nitschke et al., 2013) the findings of this work completely unhinge the hypothesis of GS-mediated phosphate incorporation as the respective reaction mechanism excludes phosphorylation of this glucosyl carbon, and as it is difficult to explain an uneven distribution of C6 phosphate by a stochastic event. Indeed the results rather point to a specific function of 6-phosphoglucosyl residues in the metabolism of polysaccharides as they are present in starch, glycogen, and, as described in this study, in heteroglycans of Arabidopsis. In the latter the function of phosphate remains unclear but this study provides evidence that in starch and glycogen it is related to branching. Moreover a role of C6 phosphate in the early stages of glycogen synthesis is suggested. By rejecting the current view on glycogen phosphate to be a stochastic biochemical error the results permit a wider view on putative roles of glycogen phosphate and on alternative biochemical ways of glycogen phosphorylation which for many reasons are likely to be mediated by distinct phosphorylating enzymes as it is realized in starch metabolism of plants. Better understanding of the enzymology underlying glycogen phosphorylation implies new possibilities of Lafora disease treatment. N2 - Pflanzen und Tiere speichern Glukose in hochmolekularen Kohlenhydraten, um diese bei Bedarf unter anderem zur Gewinnung von Energie zu nutzen. Amylopectin, der größte Bestandteil des pflanzlichen Speicherkohlenhydrats Stärke, und das tierische Äquivalent Glykogen sind chemisch betrachtet ähnlich, denn sie bestehen aus verzweigten Ketten, deren Bausteine (Glukosylreste) auf identische Weise miteinander verbunden sind. Zudem kommen in beiden Kohlenhydraten kleine aber ähnliche Mengen von Phosphatgruppen vor, die offenbar eine tragende Rolle in Pflanzen und Tieren spielen. Ist in Pflanzen der Einbau oder die Entfernung von Phosphatgruppen in bzw. aus Stärke gestört, so ist oft der gesamte Stärkestoffwechsel beeinträchtigt. Dies zeigt sich unter anderem in der übermäßigen Akkumulation von Stärke und in Wachstumsverzögerungen der gesamten Pflanze. Beim Menschen und anderen Säugern beruht eine schwere Form der Epilepsie (Lafora disease) auf einer Störung des Glykogenstoffwechsels. Sie wird durch das erblich bedingte Fehlen eines Enzyms ausgelöst, das Phosphatgruppen aus dem Glykogen entfernt. Während die Enzyme, die für die Entfernung des Phosphats aus Stärke und Glykogen verantwortlich sind, hohe Ähnlichkeit aufweisen, ist momentan die Ansicht weit verbreitet, dass der Einbau von Phosphat in beide Speicherkohlenhydrate auf höchst unterschiedliche Weise erfolgt. In Pflanzen sind zwei Enzyme bekannt, die Phosphatgruppen an unterschiedlichen Stellen in Glukosylreste einbauen (Kohlenstoffatome 6 und 3). In Tieren soll eine seltene, unvermeidbare und zufällig auftretende Nebenreaktion eines Enzyms, das eigentlich die Ketten des Glykogens verlängert (Glykogen-Synthase), den Einbau von Phosphat bewirken, der somit als unwillkürlich gilt und weithin als „biochemischer Fehler“ (mit fatalen Konsequenzen bei ausbleibender Korrektur) betrachtet wird. In den Glukosylresten des Glykogens sollen ausschließlich die C-Atome 2 und 3 phosphoryliert sein. Die Ergebnisse dieser Arbeit zeigen mittels zweier unabhängiger Methoden, dass Glykogen auch am Glukosyl-Kohlenstoff 6 phosphoryliert ist, der Phosphatposition, die in der Stärke am häufigsten vorkommt. Die Tatsache, dass in dieser Arbeit Phosphat neben Stärke auch erstmals an Glukosylresten von anderen pflanzlichen Kohlenhydraten (wasserlösliche Heteroglykane) nachgewiesen werden konnte, lässt vermuten, dass Phosphorylierung ein generelles Phänomen bei Polysacchariden ist. Des Weiteren wiesen die Ergebnisse darauf hin, dass Phosphat im Glykogen, wie auch in der Stärke, einem bestimmten Zweck dient, der im Zusammenhang mit der Regulation von Kettenverzweigung steht, und dass kein zufälliges biochemisches Ereignis für den Einbau verantwortlich sein kann. Aufgrund der grundlegenden Ähnlichkeiten im Stärke- und Glykogenstoffwechsel, liegt es nahe, dass die Phosphorylierung von Glykogen, ähnlich der von Stärke, ebenfalls durch spezifische Enzyme bewirkt wird. Ein besseres Verständnis der Mechanismen, die der Glykogen-Phosphorylierung zugrunde liegen, kann neue Möglichkeiten der Behandlung von Lafora disease aufzeigen. KW - Stärke KW - Glykogen KW - Phosphorylierung KW - NMR KW - Lafora disease KW - starch KW - glycogen KW - phosphorylation KW - NMR KW - Lafora disease Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67396 ER - TY - THES A1 - Nikolaeva, Elena T1 - Landslide kinematics and interactions studied in central Georgia by using synthetic aperture radar interferometry, optical imagery and inverse modeling T1 - Studien zur Kinematic und Interaction von Hangrutschen in Zentral Georgien mit Radarinterferometrie, optischen daten und inverser Modellierung N2 - Landslides are one of the biggest natural hazards in Georgia, a mountainous country in the Caucasus. So far, no systematic monitoring and analysis of the dynamics of landslides in Georgia has been made. Especially as landslides are triggered by extrinsic processes, the analysis of landslides together with precipitation and earthquakes is challenging. In this thesis I describe the advantages and limits of remote sensing to detect and better understand the nature of landslide in Georgia. The thesis is written in a cumulative form, composing a general introduction, three manuscripts and a summary and outlook chapter. In the present work, I measure the surface displacement due to active landslides with different interferometric synthetic aperture radar (InSAR) methods. The slow landslides (several cm per year) are well detectable with two-pass interferometry. In same time, the extremely slow landslides (several mm per year) could be detected only with time series InSAR techniques. I exemplify the success of InSAR techniques by showing hitherto unknown landslides, located in the central part of Georgia. Both, the landslide extent and displacement rate is quantified. Further, to determine a possible depth and position of potential sliding planes, inverse models were developed. Inverse modeling searches for parameters of source which can create observed displacement distribution. I also empirically estimate the volume of the investigated landslide using displacement distributions as derived from InSAR combined with morphology from an aerial photography. I adapted a volume formula for our case, and also combined available seismicity and precipitation data to analyze potential triggering factors. A governing question was: What causes landslide acceleration as observed in the InSAR data? The investigated area (central Georgia) is seismically highly active. As an additional product of the InSAR data analysis, a deformation area associated with the 7th September Mw=6.0 earthquake was found. Evidences of surface ruptures directly associated with the earthquake could not be found in the field, however, during and after the earthquake new landslides were observed. The thesis highlights that deformation from InSAR may help to map area prone landslides triggering by earthquake, potentially providing a technique that is of relevance for country wide landslide monitoring, especially as new satellite sensors will emerge in the coming years. N2 - Erdrutsche zählen zu den größten Naturgefahren in Georgien, ein gebirgiges Land im Kaukasus. Eine systematische Überwachung und Analyse der Dynamik von Erdrutschen in Georgien ist bisher nicht vorhanden. Da Erdrutsche durch extrinsische Prozesse ausgelöst werden, wird ihre Analyse zusammen mit Niederschlag und Erdbeben zu einer besonderen Herausforderung. In dieser Dissertation beschreibe ich die Potenziale und Limitierungen der Fernerkundung für die Detektion und das Verständnis von Erdrutschen in Georgien. Die Arbeit ist in einer kumulativen Form geschrieben, und besteht aus einer allgemeinen Einführung, drei Manuskripten sowie einer Zusammenfassung und einem Ausblick. In der vorliegenden Arbeit, Gestimme ich die Oberflächenverschiebung von aktiven Erdrutschen mit Methoden der Radarinterferometrie (InSAR). Die langsamen Erdrutsche (cm pro Jahr) konnten im einfachen Vergleich zeitlich unterschiedlicher Radaraufnahmen (two-pass InSAR), gut nachgewiesen werden. Die extrem langsamen Erdrutsche (mm pro Jahr) konnten hingegen nur mit InSAR Zeitreihentechniken nachgewiesen werden. Der Erfolg der angewandten InSAR Techniken wird durch die erfolgreiche Identifikation von bisher unbekannten Erdrutschen in Zentral Georgien veranschaulicht. Sowohl das Ausmaß als auch die Verschiebungsrate der Erdrutsche wurden quantifiziert. Ferner, um die mögliche Tiefe und Lage von potentiellen Gleitflächen zu bestimmen, wurden inverse Modelle entwickelt. Inverse Modellierung sucht nach Parametern der Quelle, welche die beobachtete Verschiebungsverteilung reproduzieren können. Ferner habe ich anhand der ermittelten Verschiebungsverteilung aus InSAR in Verbindung mit der Morphologie aus Luftaufnahmen das Volumen der untersuchten Erdrutsche empirisch abgeleitet. Ich habe eine Volumenformel für unseren Fall angepasst, und die verfügbaren Datensätze bezüglich Seismizität und Niederschlag kombiniert, um potenzielle auslösende Faktoren zu analysieren. Eine leitende Frage hierbei war: Was sind die Ursachen für die Beschleunigung von Erdrutschen, wie sie in den InSAR Daten beobachtet werden konnte? Das Untersuchungsgebiet in Zentral Georgien ist seismisch sehr aktiv. Als zusätzlichen Produkt der InSAR Datenanalyse wurde ein Deformationsgebiet gefunden, welches im Zusammenhang mit dem Mw=6.0 Erdbeben vom 7. September 2009 zusammenhängt. Beweise für Oberflächenbrüche, die direkt mit dem Erdbeben zusammenhängen, konnten in dem Gebiet nicht gefunden werden, jedoch konnten während und nach dem Erdbeben neue Erdrutsche beobachtet werden. Die Dissertation unterstreicht, dass Verformungsinformationen aus InSAR Analysen helfen können ein Gebiet, welches von Erdbebeninduzierten Erdrutschen gefährdet ist, zu kartieren. Potenziell stellt InSAR eine Technik dar, die von Bedeutung für die landesweite Überwachung von Erdrutschen sein kann, insbesondere im Hinblick auf die neuen Satellitensensoren, die in den kommenden Jahren verfügbar sein werden. KW - Erdrutsch KW - Georgien KW - InSAR Datenanalyse KW - Landslide KW - remote sensing KW - Georgia KW - displacement KW - InSAR Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70406 ER - TY - THES A1 - Neymeyer, Hanna T1 - Annexin A1 im chronischen Nierenversagen T1 - Annexin A1 in chronic renal failure N2 - Die Expansion des renalen Tubulointerstitiums aufgrund einer Akkumulation zellulärer Bestandteile und extrazellulärer Matrix ist eine charakteristische Eigenschaft der chronischen Nierenerkrankung (CKD) und führt zu einer Progression der Erkrankung in Richtung eines terminalen Nierenversagens. Die Fibroblasten Proliferation und ihre Transformation hin zum sekretorischen Myofibroblasten-Phänotyp stellen hierbei Schlüsselereignisse dar. Signalprozesse, die zur Induktion der Myofibroblasten führen, werden aktiv beforscht um anti-fibrotische Therapieansätze zu identifizieren. Das anti-inflammatorische Protein Annexin A1 und sein Rezeptor Formyl-Peptid Rezeptor 2 (FPR2) wurden in verschiedenen Organsystemen mit der Regulation von Fibroblastenaktivität in Verbindung gebracht, jedoch wurden ihre Expression und Funktion bei renalen fibrotischen Erkrankungen bisher nicht untersucht. Ziel der aktuellen Studie war daher die Untersuchung der renalen Annexin A1- und FPR2-Expression in einem Tiermodell des chronischen Nierenversagens, sowie die Charakterisierung der funktionellen Rolle von Annexin A1 in der Regulation des Fibroblasten Phänotyps und ihrer Syntheseleistung. Dazu wurden neugeborene Sprague-Dawley Ratten in den ersten zwei Wochen ihres Lebens entweder mit Vehikel oder mit einem Angiotensin II Typ I Rezeptor Antagonisten behandelt und ohne weitere Intervention bis zu einem Alter von 11 Monaten (CKD Ratten) gehalten. Die Regulation und Lokalisation von Annexin A1 und FPR2 wurden mit Hilfe von Real-Time PCR und Immunhistochemie erfasst. Annexin A1- und FPR2-exprimierende Zellen wurden weiter durch Doppelimmunfluoreszenzfärbungen charakterisiert. Gefärbt wurde mit Antikörpern gegen endotheliale Zellen (rat endothelial cell antigen), Makrophagen (CD 68), Fibroblasten (CD73) und Myofibroblasten (alpha-smooth muscle actin (α-sma)). Zellkulturstudien wurden an immortalisierten renalen kortikalen Fibroblasten aus Wildtyp- und Annexin A1-defizienten Mäusen, sowie an etablierten humanen und murinen renalen Fibrolasten durchgeführt. Eine Überexpression von Annexin A1 wurde durch eine stabile Transfektion erreicht. Die Expression von Annexin A1, α-sma und Kollagen 1α1 wurde durch Real-Time PCR, Western Blot und Immuhistochemie erfasst. Die Sekretion des Annexin A1 Proteins wurde nach TCA-Fällung des Zellkulturüberstandes im Western Blot untersucht. Wie zu erwarten zeigten die CKD Ratten eine geringere Anzahl an Nephronen mit deutlicher glomerulären Hypertrophie. Der tubulointerstitielle Raum war durch fibrilläres Kollagen, aktivierte Fibroblasten und inflammatorische Zellen expandiert. Parallel dazu war die mRNA Expression von Annexin A1 und Transforming growth factor beta (TGF-β) signifikant erhöht. Die Annexin A1-Lokalisation mittels Doppelimmunfluorsezenz identifizierte eine große Anzahl von CD73-positiven kortikalen Fibroblasten und eine Subpopulation von Makrophagen als Annexin A1-positiv. Die Annexin A1-Menge in Myofibroblasten und renalen Endothelien war gering. FPR2 konnte in der Mehrzahl der renalen Fibroblasten, in Myofibroblasten, in einer Subpopulation von Makrophagen und in renalen Epithelzellen nachgewiesen werden. Eine Behandlung der murinen Fibroblasten mit dem pro-fibrotischen Zytokin TGF-β führte zu einem parallelen Anstieg der α-sma-, Kollagen 1α1- und Annexin A1-Biosynthese und zu einer gesteigerten Sekretion von Annexin A1. Eine Überexpression von Annexin A1 in murinen Fibroblasten reduzierte das Ausmaß der TGF-β induzierten α-sma- und Kollagen 1α1-Biosynthese. Fibroblasten aus Annexin A1-defizienten Mäusen zeigten einen starken Myofibroblasten-Phänotyp mit einer gesteigerten Expression an α-sma und Kollagen 1α1. Der Einsatz eines Peptidantagonisten des FPR2 (WRW4) resultierte in einer Stimulation der α-sma-Biosynthese, was die Vermutung nahe legte, dass Annexin A1 FPR2-vermittelt anti-fibrotische Effekte hat. Zusammenfassend zeigen diese Ergebnisse, dass renale kortikale Fibroblasten eine Hauptquelle des Annexin A1 im renalen Interstitium und einen Ansatzpunkt für Annexin A1-Signalwege in der Niere darstellen. Das Annexin A1/FPR2-System könnte daher eine wichtige Rolle in der Kontrolle des Fibroblasten Phänotyp und der Fibroblasten Aktivität spielen und daher einen neuen Ansatz für die anti-fibrotischen pharmakologischen Strategien in der Behandlung des CKD darstellen. N2 - Expansion of the renal tubulointerstitium due to an accumulation of cellular constituents and extracellular matrix is a characteristic feature of chronic kidney disease (CKD) and leads to the progression towards renal failure. Fibroblast proliferation and transformation to the secretory myofibroblast phenotype present key events herein. The signaling process which leads to the generation of myofibroblasts is actively investigated to identify targets for antifibrotic therapeutic strategies. The antiinflammatory protein annexin A1 and its receptor formyl peptide receptor 2 (FPR2) have been implicated in the regulation of fibroblasts from various organs but the expression and function of the two products in renal fibrotic disease have not been elucidated so far. Aim of the present study was therefore to investigate the renal expression of annexin A1 and FPR2 in an animal model of chronic kidney disease and to characterize the role of annexin A1 in the regulation of fibroblast phenotype and synthetic activity. To this end, newborn Sprague-Dawley rats were treated either with vehicle or with an angiotensin II type I receptor antagonist during the first two weeks of their life and kept without further intervention until the age of 11 month (CKD rats). Regulation and localization of annexin A1 and FPR2 were studied using real-time PCR and immunohistochemistry. Annexin A1 and FPR2 expressing cells were further characterized by double labeling immunofluorescence with markers for endothelial cells (rat endothelial cell antigen), macrophages (CD68), fibroblasts (CD73), and myofibroblasts (alpha-smooth muscle actin (α-sma)). Cell culture studies were conducted in immortalized renal cortical fibroblast derived from wildtype and from annexin A1-deficient mice as well as in established cell lines of human and murine renal fibroblasts. Overexpression of annexin A1 was achieved by stable transfection. Expression of annexin A1, α-sma and collagen 1α1 was determined using real-time PCR, Western blotting and immunohistochemistry. Secretion of annexin A1 was studied using trichloroacetic acid protein precipitation of cell culture supernatants and Western blotting. As expected, CKD rats had an overall lower number of nephrons with a marked glomerular hypertrophy. The tubulointerstitial space was expanded due to an accumulation of fibrillar collagens, activated fibroblasts and inflammatory cells. In parallel, mRNA expression for Annexin A1 and transforming growth factor beta (TGF-β) was significantly increased. Double labeling immunofluorescence localization of annexin A1 demonstrated a high abundance in CD73 positive cortical interstitial fibroblasts and in a subset of CD68 immunoreactive macrophages. The abundance in myofibroblasts and renal endothelia was low. FPR2 was found in the majority of renal fibroblasts, myofibroblasts, a subset of macrophages, and in renal endothelial cells. Treatment of cultured murine fibroblasts with the profibrotic cytokine TGF-β resulted in a parallel induction of α-sma-, collagen 1α1- and annexin A1 biosynthesis. In addition, annexin A1 secretion was markedly increased. Overexpression of annexin A1 in murine fibroblasts reduced TGF β-induced α-sma- and collagen 1α1-biosynthesis. Fibroblasts derived from annexin A1-deficient mice showed a strong myofibroblast phenotype with increased expression of both, α-sma-, and collagen 1α1. Application of a peptide antagonist of FPR2 receptor (WRW4) caused a stimulation of α-sma biosynthesis thus suggesting a role of FPR2 in the antifibrotic effects of annexin A1. In conclusion, these results identify renal cortical interstitial fibroblasts as major source and as a target for annexin A1 signalling in the kidney. The annexin A1/FPR2 signalling system may therefore play an important role in the control of fibroblast phenotype and activity and may therefore provide a novel target for antifibrotic pharmacological strategies in the treatment of CKD. KW - Myofibroblasten KW - Transforming Growth Factor beta KW - Formyl-Peptid Rezeptor 2 KW - extrazelluläre Matrix KW - myofibroblast KW - transforming growth factor beta KW - formyl peptide receptor 2 KW - extracellular matrix Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69670 ER - TY - THES A1 - Naß, Andrea T1 - Konzeption und Implementierung eines GIS-basierten Kartierungssystems für die geowissenschaftliche Planetenforschung T1 - Concept and implementation of a GIS-based mapping system for planetary geology science N2 - Die Kartierung planetarer Körper stellt ein wesentliches Mittel der raumfahrtgestützten Exploration der Himmelskörper dar. Aktuell kommen zur Erstellung der planetaren Karten Geo-Informationssysteme (GIS) zum Einsatz. Ziel dieser Arbeit ist es, eine GIS-orientierte Prozesskette (Planetary Mapping System (PMS)) zu konzipieren, mit dem Schwerpunkt geologische und geomorphologische Karten planetarer Oberflächen einheitlich durchführen zu können und nachhaltig zugänglich zu machen. N2 - Mapping of planetary bodies has been an important asset in the space-based exploration. The aim of this work is to create a mapping chain (Planetary Mapping System (PMS)) with the focus on geological and geomorphological mapping of planetary surfaces, using Geo-Informationsystems (GIS) and an associated data model. Along with a user-targeted design the PMS has been developed in order to provide means for a homogeneous digital mapping workflow and storage of information that allows comparability of map results and the extraction of new information. KW - Kartographie KW - GIS KW - Planetare Geologie KW - Datenmodell KW - Cartography KW - GIS KW - Planetary Geology KW - Datamodell Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65298 ER - TY - THES A1 - Müller, Mike-Freya T1 - Die Glutathionperoxidase 2 : physiologische Funktion und Rolle in der Azoxymethan-induzierten Colonkanzerogenese T1 - The glutathione peroxidase 2 : physiological function and role in azoxymethane-induced colon carcinogenesis N2 - Das Selenoprotein Glutathionperoxidase 2 (GPx2) ist ein epithelzellspezifisches, Hydroperoxide-reduzierendes Enzym, welches im Darmepithel, vor allem in den proliferierenden Zellen des Kryptengrundes, exprimiert wird. Die Aufrechterhaltung der GPx2-Expression im Kryptengrund auch bei subadäquatem Selenstatus könnte darauf hinweisen, dass sie hier besonders wichtige Funktionen wahrnimmt. Tatsächlich weisen GPx2 knockout (KO)-Mäuse eine erhöhte Apoptoserate im Kryptengrund auf. Ein Ziel dieser Arbeit war es deshalb, die physiologische Funktion der GPx2 näher zu untersuchen. In Kryptengrundepithelzellen aus dem Colon selenarmer GPx2 KO-Mäuse wurde eine erhöhte Caspase 3/7-Aktivität im Vergleich zum Wildtyp (WT) festgestellt. Zudem wiesen diese Zellen eine erhöhte Suszeptibilität für oxidativen Stress auf. Die GPx2 gewährleistet also den Schutz der proliferierenden Zellen des Kryptengrundes auch bei subadäquater Selenversorgung. Des Weiteren wurde im Colon selenarmer (-Se) und -adäquater (+Se) GPx2 KO-Mäuse im Vergleich zum WT eine erhöhte Tumornekrosefaktor α-Expression und eine erhöhte Infiltration von Makrophagen festgestellt. Durch Fütterung einer selensupplementierten Diät (++Se) konnte dies verhindert werden. In GPx2 KO-Mäusen liegt demnach bereits basal eine niedriggradige Entzündung vor. Dies unterstreicht, dass GPx2 vor allem eine wichtige antiinflammatorische Funktion im Darmepithel besitzt. Dem Mikronährstoff Selen werden protektive Funktionen in der Colonkanzerogenese zugeschrieben. In einem Mausmodell der Colitis-assoziierten Colonkanzerogenese wirkte GPx2 antiinflammatorisch und hemmte so die Tumorentstehung. Auf der anderen Seite wurden jedoch auch prokanzerogene Eigenschaften der GPx2 aufgedeckt. Deshalb sollte in dieser Arbeit untersucht werden, welchen Effekt ein GPx2 knockout in einem Modell der sporadischen, durch Azoxymethan (AOM) induzierten, Colonkanzerogenese hat. Im WT kam es in präneoplastischen Läsionen häufig zu einer erhöhten GPx2-Expression im Vergleich zur normalen Darmmucosa. Eine derartige Steigerung der GPx2-Expression wurde auch in der humanen Colonkanzerogenese beschrieben. Das Fehlen der GPx2 resultierte in einer verminderten Entstehung von Tumoren (-Se und ++Se) und präneoplastischen Läsionen (-Se und +Se). Somit förderte GPx2 die Tumorentstehung im AOM-Modell. Acht Stunden nach AOM-Gabe war im GPx2 KO-Colon im Vergleich zum WT eine erhöhte Apoptoserate in der Kryptenmitte (-Se, +Se), nicht jedoch im Kryptengrund oder in der ++Se-Gruppe zu beobachten. Möglicherweise wirkte GPx2 prokanzerogen, indem sie die effiziente Elimination geschädigter Zellen in der Tumorinitiationsphase verhinderte. Eine ähnliche Wirkung wäre auch durch die erhöhte GPx2-Expression in der Promotionsphase denkbar. So könnte GPx2 proliferierende präneoplastische Zellen vor oxidativem Stress, Apoptosen, oder auch der Antitumorimmunität schützen. Dies könnte durch ein Zusammenwirken mit anderen Selenoproteinen wie GPx1 und Thioredoxinreduktasen, für die ebenfalls auch prokanzerogene Funktionen beschrieben wurden, verstärkt werden. Eine wichtige Rolle könnte hier die Modulation des Redoxstatus in Tumorzellen spielen. Die Variation des Selengehalts der Diät hatte im WT einen eher U-förmigen Effekt. So traten in der –Se und ++Se-Gruppe tendenziell mehr und größere Tumore auf, als in der +Se Gruppe. Zusammenfassend schützt GPx2 also die proliferierenden Zellen des Kryptengrundes. Sie könnte jedoch auch proliferierende transformierte Zellen schützen und so die sporadische, AOM-induzierte Colonkanzerogenese fördern. In einem Modell der Colitis-assoziierten Colonkanzerogenese hatte GPx2 auf Grund ihrer antiinflammatorischen Wirkung einen gegenteiligen Effekt und hemmte die Tumorentstehung. Die Rolle der GPx2 in der Colonkanzerogenese ist also abhängig vom zugrunde liegenden Mechanismus und wird maßgeblich von der Beteiligung einer Entzündung bestimmt. N2 - The selenoprotein glutathione peroxidase 2 (GPx2) is a hydroperoxide-reducing enzyme that is mainly expressed in the gastrointestinal epithelium, especially in the crypt base were the proliferating cells reside. GPx2 expression is maintained even when the selenium supply is limited, which indicates that GPx2 might have an important function in these cells. Indeed, GPx2 knockout (KO)-mice have an enhanced rate of apoptosis in the crypt base. Therefore one aim of this study was to further elucidate the physiological function of the GPx2. Isolated colonic crypt base epithelial cells of selenium deficient GPx2 KO-mice were found to have a higher caspase 3/7 activity than wild type (wt) cells. Moreover they exhibited an enhanced susceptibility for oxidative stress. Thus GPx2 protects the proliferative crypt base cells of the intestine, especially when the selenium supply is limited. Additionally an enhanced expression of tumor necrosis factor α and an enhanced infiltration of macrophages were detected in the colon of GPx2 KO-mice in comparison to the wt. These effects were observed on a selenium deficient (-Se) and -adequate (+Se) diet, but could be prevented by feeding a selenium supplemented (++Se) diet. Accordingly, GPx2 KO-mice have a basal low grade inflammation. This underlines, that GPx2 has an important anti-inflammatory function in the intestinal epithelium. Selenium deficiency is linked to an increased risk of developing colorectal cancer. In a mouse model of colitis-associated colon carcinogenesis, GPx2 had anti-inflammatory and thus anticarcinogenic effects. However, also procarcinogenic functions of the GPx2 have been observed. Therefore, this study aimed to analyse the role of GPx2 in a model of non-inflammation triggered, sporadic colon carcinogenesis induced by azoxymethane (AOM). In preneoplastic lesions of wt mice, an enhanced expression of GPx2 in comparison to the normal mucosa was frequently observed. An upregulation of GPx2 expression has also been described in human colon carcinogenesis. GPx2 KO mice had less tumors (-Se and ++Se) and less preneoplastic lesions (-Se, +Se) than wt mice. Accordingly GPx2 promotes colon carcinogenesis in the AOM-model. Eight hours after AOM-application, a higher rate of apoptosis was observed in the mid-crypt region of the colon of GPx2 ko mice in comparison to wt mice in the –Se and +Se groups, but not in the ++Se group or in the crypt base. Thus GPx2 might act procarcinogenic by preventing the elimination of cells with DNA-damage in the tumor initiation stage. Similarly, the enhanced GPx2-expression in preneoplastic cells could promote tumorigenesis by protecting these cells from oxidative stress, apoptosis or antitumor immunity. This effect might be enhanced by other selenoproteins like GPx1 or thioredoxin reductases that have also been reported to possess procarcinogenic properties and it might be closely related to the regulation of the redox state of tumor cells. In wt mice, the selenium content of the diet turned out to have a rather U-shaped effect on colon carcinogenesis. In the –Se and ++Se groups, wt mice tended to have more and larger tumors than in the ++Se group. In conclusion, GPx2 protects the proliferating cells of the intestinal crypt base, but it could also protect proliferating transformed cells and thus promote sporadic, AOM-induced colon carcinogenesis. In contrast, GPx2 acted anticarcinogenic in a model of colitis-associated colon carcinogenesis due to its antiinflammatory properties. Thus, the role of GPx2 in colon carcinogenesis depends on the underlying mechanisms, especially on the involvement of an inflammation. KW - Glutathionperoxidase KW - Selen KW - Colonkanzerogenese KW - Entzündung KW - Redox KW - glutathione peroxidase KW - selenium KW - colon carcinogenesis KW - inflammation KW - redox Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66955 ER - TY - THES A1 - Mostafa Kamel Abdelfatah, Ali T1 - Interactions of food proteins with plant phenolics – modulation of structural, techno- and bio-functional properties of proteins T1 - Wechselwirkungen der Nahrungsproteine mit Pflanzenphenolen - Modulation der strukturellen, techno- und biofunktionellen Eigenschaften der Proteine N2 - The phenolic compounds as food components represent the largest group of secondary metabolites in plant foods. The phenolic compounds, e.g. chlorogenic acid (CQA), are susceptible to oxidation by enzymes specially, polyphenol oxidase (PPO) and at alkaline conditions. Both enzymatic and non-enzymatic oxidations occur in the presence of oxygen and produce quinone, which normally further react with other quinone to produce colored compounds (dimers), as well as is capable of undergoing a nucleophilic addition to proteins. The interactions of proteins with the phenolic compounds have received considerable attention in the recent years where, plant phenolic compounds have drawn increasing attention due to their antioxidant properties and their noticeable effects in the prevention of various oxidative stress associated diseases. Green coffee beans are one of the richest sources of chlorogenic acids. Therefore, a green coffee extract would provide an eligible food relevant source for phenolic compounds for modification of proteins. The interaction between 5-CQA and amino acid lysine showed decrease in both free CQA and amino acid groups and only a slight effect on the antioxidative capacity depending on the reaction time was found. Furthermore, this interaction showed a large number of intermediary substances of low intensities. The reaction of lysine with 5-CQA in a model system initially leads to formation of 3-CQA and 4-CQA (both are isomers of 5-CQA), oxidation giving rise to the formation of a dimer which subsequently forms an adduct with lysine to finally result in a benzacridine derivative as reported and confirmed with the aid of HPLC coupled with ESI-MSn. The benzacridine derivative containing a trihydroxy structural element, was found to be yellow, being very reactive with oxygen yielding semiquinone and quinone type of products with characteristic green colors. Finally, the optimal conditions for this interaction as assessed by both the loss of CQA and free amino groups of lysine can be given at pH 7 and 25°C, the interaction increasing with incubation time and depending also on the amount of tyrosinase present. Green coffee bean has a higher diversity and content of phenolics, where besides the CQA isomers and their esters, other conjugates like feruloylquinic acids were also identified, thus documenting differences in phenolic profiles for the two coffee types (Coffea arabica and Coffea robusta). Coffee proteins are modified by interactions with phenolic compounds during the extraction, where those from C. arabica are more susceptible to these interactions compared to C. robusta, and the polyphenol oxidase activity seems to be a crucial factor for the formation of these addition products. Moreover, In-gel digestion combined with MALDI-TOF-MS revealed that the most reactive and susceptible protein fractions to covalent reactions are the α-chains of the 11S storage protein. Thus, based on these results and those supplied by other research groups, a tentative list of possible adduct structures was derived. The diversity of the different CQA derivatives present in green coffee beans complicates the series of reactions occurring, providing a broad palette of reaction products. These interactions influence the properties of protein, where they exposed changes in the solubility and hydrophobicity of proteins compared to faba bean proteins (as control). Modification of milk whey protein products (primarily b-lactoglobulin) with coffee specific phenolics and commercial CQA under enzymatic and alkaline conditions seems to be affecting their chemical, structural and functional properties, where both modifications led to reduced free amino-,thiol groups and tryptophan content. We propose that the disulfide-thiol exchange in the C-terminus of b-lactoglobulin may be initiated by the redox conditions provided in the presence of CQA. The protein structure b-lactoglobulin thereupon becomes more disordered as simulated by molecular dynamic calculation. This unfolding process may additionally be supported by the reaction of the CQA at the proposed sites of modification of -amino groups of lysine (K77, K91, K138, K47) and the thiol group of cysteine (C121). These covalent modifications also decreased the solubility and hydrophobicity of b-lactoglobulin, moreover they provide modified protein samples with a high antioxidative power, thermally more stable as reflected by a higher Td, require less amount of energy to unfold and when emulsified with lutein esters, exhibit their higher stability against UV light. The MALDI-TOF and SDS-PAGE results revealed that proteins treated at alkaline conditions were more strongly modified than those treated under enzymatic conditions. Finally, the results showed a slight change in emulsifying properties of modified proteins. N2 - Für die Verbesserung von Nahrungsmitteleigenschaften können Modifikationen an verschiedenen Inhaltsstoffen vorgenommen werden. Beispielsweise werden bereits Proteine miteinander verknüpft und bilden sogenannte „Crosslinks“ oder vernetzte Biomoleküle. Diese werden für die Herstellung fester, viskoelastischer Produkte, die zum Verdicken als auch zum Stabilisieren von Emulsionen oder Schäumen eingesetzt werden, genutzt. Da die Verbraucher sich Zunehmens mit gesundheitsfördernden Lebensmitteln befassen, ist das Einbringen von gesundheitsfördernden Inhaltsstoffen wie z.B. phenolische Verbindungen, immer mehr in den Fokus der Forschung gerückt. Demnach ist das wissenschaftliche Bestreben phenolische Verbindungen in die Vernetzung von Proteinen mit einzubeziehen und deren positive Wirkungen (antioxidativ) auszunutzen, vorteilhaft. Als Phenole werden Verbindungen bezeichnet, die eine oder mehrere Hydroxygruppen am Benzolring aufweisen. Phenole liegen in der Enolform vor, da diese, bedingt durch den Erhalt des aromatischen Benzolringes, energetisch begünstigt ist. Kaffeesäure ist eine Hydroxyzimtsäure und in Kaffeebohnen zu finden. Der am häufigsten anzutreffende Ester besteht aus Kaffee- und Chinasäure. Der einfachste Vertreter ist die Chlorogensäure (5-Caffeoylchinasäure, 5-CQA), die in vielen Pflanzenteilen enthalten ist. Chlorogensäure und ihre Derivate besitzen ebenfalls antioxidative Eigenschaften. Zusätzlich wirken sie auf Enzyme, die an entzündlichen- oder allergischen Reaktion teilnehmen, inhibierend. Während Verarbeitungs- und Lagerungsprozessen können phenolische Komponenten pflanzlicher Lebensmittel mit den Aminosäuren der Proteine in Lebensmitteln reagieren. Solche Reaktionen können die physikalisch-chemischen Eigenschaften von Proteinen verändern und deren ernährungsphysiologische Wertigkeit vermindern. Proteine weisen verschiedene reaktive Seitengruppen (Sulfhydryl-, Hydroxyl-, Aminogruppen) auf, mit denen sie über kovalente und nicht-kovalente Wechselwirkungen mit Phenolen Verbindungen eingehen können. Zu den nicht-kovalenten Verbindungen gehören u. a. Wasserstoffbrückenbindungen, hydrophobe Wechselwirkungen und Ionenbindungen. Phenole (z.B. Chlorogensäuren) können bei Anwesenheit von Sauerstoff enzymatisch bzw. nichtenzymatisch oxidiert werden. Die Reaktionsprodukte (Chinone) bilden anschließend mit reaktiven Thiol- bzw. Aminogruppen von Proteinen Addukte. Die Erfassung dieser verschiedenen Facetten von Interaktionen stellt somit die primäre Forschungsaufgabe im Rahmen dieser Arbeit. Die primäre Aufgabe der vorliegenden Arbeit besteht demzufolge in der Etablierung der Analysen- und der Charakterisierungsmöglichkeiten solcher Wechselwirkungen (Bindung) pflanzlicher Verbindungen bzw. deren Reaktionsprodukten mit Proteinen u.a. über massenspektrometrische Methoden. Da die Wechselwirkung mit Proteinen auch zu Veränderungen der Proteinstruktur führt, können deren funktionelle Eigenschaften auch verändert sein. Dies soll anhand der Messung von isolierten Proteinen die an der Wechselwirkung beteiligt sind, nachgewiesen werden. Anschließend sollen über Docking-Untersuchungen die entsprechenden Bindungsstellen näher charakterisiert werden. Durch die vorliegenden Ergebnisse wurden mögliche Reaktionen von phenolischen Verbindungen mit Proteinen, näher charakterisiert. Es wurde festgestellt, dass die Apfelsorte Braeburn über die höchste PPO- Enzymaktivität beim gleichzeitigen niedrigen CQA Gehalt im Vergleich zu den anderen untersuchten Sorten verfügt. Die PPO/Tyrosinase modulierte Reaktionen zwischen CQA und Lysine wurden in Abhängigkeit der vorherrschenden Bedingungen optimiert und die Reaktionsprodukte analysiert. In dem zweiten Teil wurden solche Reaktionsmöglichkeiten in den Grünen Kaffeebohnen lokalisierte und modelliert. Dazu wurden die sortenabhängige CQA-Zusammensetzung ermittelt und die möglichen Reaktionen mit den Hauptspeicherproteinen des Kaffees dargestellt. Im letzten Teil wurden dann diese Reaktionen mit Molkenproteinen simuliert und Einflüsse auf die Struktur und die funktionellen Eigenschaften erfasst. Die Ergebnisse belegen eine umfangreiche und sehr heterogene Adduktbildung mit den Aminoseitenketten des Lysins und Cysteins. Ein Katalog der unterschiedlichen Reaktionsprodukte wurde erstellt und am Protein modelliert. Die entsprechende Veränderung an die Proteinstruktur wurde experimentell belegt und der Einfluss wurde in den technofunktionelle Eigenschaften (wie die Löslichkeit, Emulgierbarkeit usw.) wiederspiegelt. Ein Anstieg des antioxidativen Potentials der Proteine wurde erreicht und diese so modifizierten Proteine wurden weiter zur Stabilisierung und Produktentwicklung getestet. Die ersten Ergebnisse eröffnen Nutzungsmöglichkeiten der modifizierten Proteine zur Verkapselung von bioaktiven Sekundären Pflanzenstoffen. KW - Protein-Wechselwirkungen KW - Kaffeeproteine KW - Chlorogensäure KW - Molkenproteine KW - Proteinmodifizierung KW - protein interactions KW - coffee proteins KW - chlorogenic acid KW - whey proteins KW - protein modification Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69033 ER - TY - THES A1 - Morad, Iris T1 - Freiheit und Verantwortung : Überlegungen im Anschluss an Peter Bieri T1 - Freedom and responsibility : reflections followed by Peter Bieri N2 - In der Diskussion über Freiheit und Verantwortung vertritt die Hirnforschung die These, dass wir determiniert sind und unser Gehirn es ist, das denkt und entscheidet. Aus diesem Grunde könne uns für unsere Entscheidungen und Handlungen auch keine Verantwortung zugewiesen werden. Die Philosophie versucht in dieser Diskussion zu klären, ob wir trotz Determiniertheit für unsere Entscheidungen und Urteile verantwortlich sind oder ob Vereinbarkeit von Freiheit und Determinismus grundsätzlich nicht möglich ist. Diese Fragen stellt diese Untersuchung über Freiheit und Verantwortung nicht. In dieser Untersuchung wird ein gewisses Maß an Freiheit vorausgesetzt, weil diese Annahme der erste Schritt für unsere Freiheit ist. In dieser Arbeit geht es um die Verbindung von Freiheit und Verantwortung und was diese Verbindung in unserem Menschsein und Miteinander bedeutet. Ziel ist es, zu zeigen, dass wir uns zusätzliche Freiheit aneignen können, dass Bildung für unsere Freiheit nötig und dass Freiheit ohne Verantwortung nicht möglich ist. Die Untersuchung schließt sich Peter Bieris Thesen an, dass Aneignung von Freiheit und Bildung, die weder als Schul- noch als Ausbildung zu verstehen ist, möglich und nötig sind, um verantwortlich entscheiden und handeln zu können, lehnt jedoch Peter Bieris These ab, dass bedingte Freiheit Voraussetzung für unsere Freiheit ist. Zudem geht diese Arbeit über Peter Bieri hinaus, indem sie eine Lösungsmöglichkeit für unsere Freiheit und der damit verbundenen Verantwortlichkeit anbietet. Als Lösung wird eine Bildung vorgeschlagen, die uns die Verbundenheit mit den anderen und die Abhängigkeit von den anderen zeigt und die die Rechte und Bedürfnisse der anderen ebenso anerkennen lässt wie unsere eigenen. Es ist eine Bildung, die nicht nur Wissen, sondern auch bestimmte rationale und emotionale Kompetenzen beinhaltet. Es ist eine Bildung, die als lern- und lehrbar angesehen wird. Um diese Bildung als eine Notwendigkeit für unsere Freiheit und Verantwortlichkeit uns und den anderen gegenüber vermitteln zu können, ist es wichtig, uns in unserem Wesen verstehen. Deshalb werden in dieser Arbeit Faktoren dargestellt, die auf uns wirken und die uns als Menschen ausmachen. Es sind Faktoren, die auf unsere Freiheit und Verantwortung Einfluss nehmen, indem sie unsere Entscheidungen, unser Urteilsvermögen und in diesem Sinne auch unsere Handlungen ermöglichen oder einschränken. Durch die Darstellung dieser Faktoren werden wir auf unsere Möglichkeiten hingewiesen, die uns unser Leben in Selbstverantwortung und in Verantwortlichkeit den anderen gegenüber gestalten lassen. In dieser Untersuchung wird gezeigt, dass Freiheit ohne Verantwortung nicht möglich ist und es wird gezeigt, dass wir, wenn wir unsere Verantwortung abgeben, unsere Freiheit verlieren. N2 - In the discussion on free will and responsibility, brain research supports the belief that humans are determined and that deliberation and decision-making take place in the brain. We can therefore not be held responsible for our decisions and actions. The role of philosophy in this discussion is to determine if we are responsible for our decisions and judgments in spite of being determined or if free will and determinism principally exclude each other. However, these are not the questions asked in this paper on free will and responsibility. It is based on the assumption that a certain degree of freedom exists because this assumption constitutes the first step towards freedom. This paper is about the connection between free will and responsibility and what it means for us as individuals and as members of a community of people. The goal is to show that we are able to acquire additional freedom, that freedom needs education and cannot exist without responsibility. The study supports Peter Bieri´s hypothesis that it is possible and necessary to develop freedom and education – not in the sense of schooling or formation – for making responsible decisions and taking responsible actions; however, it rejects Bieri´s hypothesis that conditional freedom is a prerequisite for free will. In addition, this work goes beyond the approach taken by Peter Bieri by offering a possible solution for our freedom and the related issue of responsibility. The suggested solution lies in an education that lets us understand our mutual connectedness and interdependence and leads us to acknowledge the rights and needs of others in the same way as our own. It is a type of education which is not just knowledge-driven but also includes certain rational and emotional skills. It is an education considered as learnable and teachable. To be able to impart this education as a necessary prerequisite for our freedom and responsibility towards ourselves and others, it is important that we understand our true being. The study therefore presents factors affecting us and shaping us as human beings. These factors influence our free will and responsibility by supporting or limiting our decisions, our judgment and, hence, our actions. The presentation of these factors outlines our options to design a self-responsible life in which we are responsible to others. The paper shows that freedom is impossible without responsibility and that, by abdicating our responsibility, we are loosing our freedom. KW - Freiheit KW - Verantwortung KW - Bildung KW - Peter Bieri KW - Altruimus KW - freedom KW - responsibility KW - education KW - Peter Bieri KW - altruism Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69215 ER - TY - THES A1 - Mondal, Suvendu Sekhar T1 - Design of isostructural metal-imidazolate frameworks : application for gas storage T1 - Synthese isostruktureller Metall-Imidazolat Frameworks : Anwendung für Gasspeicherung N2 - The sharply rising level of atmospheric carbon dioxide resulting from anthropogenic emissions is one of the greatest environmental concerns facing our civilization today. Metal-organic frameworks (MOFs) are a new class of materials that constructed by metal-containing nodes bonded to organic bridging ligands. MOFs could serve as an ideal platform for the development of next generation CO2 capture materials owing to their large capacity for the adsorption of gases and their structural and chemical tunability. The ability to rationally select the framework components is expected to allow the affinity of the internal pore surface toward CO2 to be precisely controlled, facilitating materials properties that are optimized for the specific type of CO2 capture to be performed (post-combustion capture, precombustion capture, or oxy-fuel combustion) and potentially even for the specific power plant in which the capture system is to be installed. For this reason, significant effort has been made in recent years in improving the gas separation performance of MOFs and some studies evaluating the prospects of deploying these materials in real-world CO2 capture systems have begun to emerge. We have developed six new MOFs, denoted as IFPs (IFP-5, -6, -7, -8, -9, -10, IFP = Imidazolate Framework Potsdam) and two hydrogen-bonded molecular building block (MBB, named as 1 and 2 for Zn and Co based, respectively) have been synthesized, characterized and applied for gas storage. The structure of IFP possesses 1D hexagonal channels. Metal centre and the substituent groups of C2 position of the linker protrude into the open channels and determine their accessible diameter. Interestingly, the channel diameters (range : 0.3 to 5.2 Å) for IFP structures are tuned by the metal centre (Zn, Co and Cd) and substituent of C2 position of the imidazolate linker. Moreover hydrogen bonded MBB of 1 and 2 is formed an in situ functionalization of a ligand under solvothermal condition. Two different types of channels are observed for 1 and 2. Materials contain solvent accessible void space. Solvent could be easily removed by under high vacuum. The porous framework has maintained the crystalline integrity even without solvent molecules. N2, H2, CO2 and CH4 gas sorption isotherms were performed. Gas uptake capacities are comparable with other frameworks. Gas uptake capacity is reduced when the channel diameter is narrow. For example, the channel diameter of IFP-5 (channel diameter: 3.8 Å) is slightly lower than that of IFP-1 (channel diameter: 4.2 Å); hence, the gas uptake capacity and Brunauer-Emmett-Teller (BET) surface area are slightly lower than IFP-1. The selectivity does not depend only on the size of the gas components (kinetic diameter: CO2 3.3 Å, N2 3.6 Å and CH4 3.8 ) but also on the polarizability of the surface and of the gas components. IFP-5 and-6 have the potential applications for the separation of CO2 and CH4 from N2-containing gas mixtures and CO2 and CH4 containing gas mixtures. Gas sorption isotherms of IFP-7, -8, -9, -10 exhibited hysteretic behavior due to flexible alkoxy (e.g., methoxy and ethoxy) substituents. Such phenomenon is a kind of gate effects which is rarely observed in microporous MOFs. IFP-7 (Zn-centred) has a flexible methoxy substituent. This is the first example where a flexible methoxy substituent shows the gate opening behavior in a MOF. Presence of methoxy functional group at the hexagonal channels, IFP-7 acted as molecular gate for N2 gas. Due to polar methoxy group and channel walls, wide hysteretic isotherm was observed during gas uptake. The N2 The estimated BET surface area for 1 is 471 m2 g-1 and the Langmuir surface area is 570 m2 g-1. However, such surface area is slightly higher than azolate-based hydrogen-bonded supramolecular assemblies and also comparable and higher than some hydrogen-bonded porous organic molecules. N2 - Metallorganische Gerüstverbindungen (MOFs) sind eine neue Klasse von porösen Koordinationspolymeren, die aus Metall-Knoten und verbrückenden Liganden bestehen. MOFs können Gasgemische trennen und Gase speichern. Aufgrund ihres modularen Aufbaus können die MOF-Eigenschaften systematisch variiert werden. Ein wichtiges Ziel für das Design von MOFs ist die Synthese von Materialien, die eine hohe selektive Aufnahmefähigkeit und -kapazität für Kohlenstoffdioxid besitzen. Im Rahmen der Arbeit ist es gelungen sechs neue MOFs (IFP-5, -6, -7, -8, -9 und -10) zu synthetisieren. Diese MOFs tragen die Kurzbezeichnung IFP. IFP steht als Abkürzung für Imidazolat-Framework-Potsdam (Imidazolat-basierte Gerüstverbindung Potsdam). In diesen IFPs wurde der Metallknoten (Zink, Cobalt, Cadmium) und der Brückenligand, ein 2-substituiertes Imidazolat-amid-imidat, in der Position variiert, um gute und selektive Sorptionseigenschaften für Kohlenstoffdioxid zu erzielen. Von den synthetisierten Verbindungen hat das IFP-5 die besten Sorptionseigenschaften für Kohlenstoffdioxid. Es konnte weiter gezeigt werden, dass sich die IFP-Struktur bei der Wahl von geeigneten Substituenten 2, wie z.B. Methoxy und Ethoxy auch für das Design von gate-opening (Tür-öffnenden) Effekten eignet. Diese Effekte können wiederum genutzt werden, um selektiv Gasmischungen zu trennen. Wenn man das 4,5-Dicyano-2-methoxy-imidazol in Gegenwart von Zink- und Cobalt-Salzen unter solvothermalen Bedingungen zur Reaktion bringt, erhält man beispiellose supramolekulare Wasserstoffbrückenbindungen zu einem dreidimensionalen Netzwerk, die mit Kanälen verknüpft sind. Diese Kanäle können von Lösungsmittelmolekülen (Wasser und Dimethylformamid) befreit werden und Gase aufnehmen. Insgesamt besteht nun die neue MOF-Klasse der Imidazolat-basierten IFPs aus Vertretern. Das Potential der 2-substituierten 4,5-Dicyanoimidazole ist nicht nur auf die Bildung von porösen Koordinationspolymeren beschränkt, sondern kann auch für die Synthese von bisher unbekannten supramolekularen Strukturen genutzt werden. KW - Metal-organic framework KW - Gas Sorption KW - Cobalt KW - Zinc KW - Ionic Liquid KW - metal-organic framework KW - gas sorption KW - cobalt KW - zinc KW - ionic liquid Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69692 ER - TY - THES A1 - Mohr, Christian Heinrich T1 - Hydrological and erosion responses to man-made and natural disturbances : insights from forested catchments in South-central Chile T1 - Hydrologische und Erosions-Reaktionen auf anthropogene und natürliche Störungen : Einblicke aus bewaldeten Einzugsgebieten im südlichen Zentralchile N2 - Logging and large earthquakes are disturbances that may significantly affect hydrological and erosional processes and process rates, although in decisively different ways. Despite numerous studies that have documented the impacts of both deforestation and earthquakes on water and sediment fluxes, a number of details regarding the timing and type of de- and reforestation; seismic impacts on subsurface water fluxes; or the overall geomorphic work involved have remained unresolved. The main objective of this thesis is to address these shortcomings and to better understand and compare the hydrological and erosional process responses to such natural and man-made disturbances. To this end, south-central Chile provides an excellent natural laboratory owing to its high seismicity and the ongoing conversion of land into highly productive plantation forests. In this dissertation I combine paired catchment experiments, data analysis techniques, and physics-based modelling to investigate: 1) the effect of plantation forests on water resources, 2) the source and sink behavior of timber harvest areas in terms of overland flow generation and sediment fluxes, 3) geomorphic work and its efficiency as a function of seasonal logging, 4) possible hydrologic responses of the saturated zone to the 2010 Maule earthquake and 5) responses of the vadose zone to this earthquake. Re 1) In order to quantify the hydrologic impact of plantation forests, it is fundamental to first establish their water balances. I show that tree species is not significant in this regard, i.e. Pinus radiata and Eucalyptus globulus do not trigger any decisive different hydrologic response. Instead, water consumption is more sensitive to soil-water supply for the local hydro-climatic conditions. Re 2) Contradictory opinions exist about whether timber harvest areas (THA) generate or capture overland flow and sediment. Although THAs contribute significantly to hydrology and sediment transport because of their spatial extent, little is known about the hydrological and erosional processes occurring on them. I show that THAs may act as both sources and sinks for overland flow, which in turn intensifies surface erosion. Above a rainfall intensity of ~20 mm/h, which corresponds to <10% of all rainfall, THAs may generate runoff whereas below that threshold they remain sinks. The overall contribution of Hortonian runoff is thus secondary considering the local rainfall regime. The bulk of both runoff and sediment is generated by Dunne, saturation excess, overland flow. I also show that logging may increase infiltrability on THAs which may cause an initial decrease in streamflow followed by an increase after the groundwater storage has been refilled. Re 3) I present changes in frequency-magnitude distributions following seasonal logging by applying Quantile Regression Forests at hitherto unprecedented detail. It is clearly the season that controls the hydro-geomorphic work efficiency of clear cutting. Logging, particularly dry seasonal logging, caused a shift of work efficiency towards less flashy and mere but more frequent moderate rainfall-runoff events. The sediment transport is dominated by Dunne overland flow which is consistent with physics-based modelling using WASA-SED. Re 4) It is well accepted that earthquakes may affect hydrological processes in the saturated zone. Assuming such flow conditions, consolidation of saturated saprolitic material is one possible response. Consolidation raises the hydraulic gradients which may explain the observed increase in discharge following earthquakes. By doing so, squeezed water saturates the soil which in turn increases the water accessible for plant transpiration. Post-seismic enhanced transpiration is reflected in the intensification of diurnal cycling. Re 5) Assuming unsaturated conditions, I present the first evidence that the vadose zone may also respond to seismic waves by releasing pore water which in turn feeds groundwater reservoirs. By doing so, water tables along the valley bottoms are elevated thus providing additional water resources to the riparian vegetation. By inverse modelling, the transient increase in transpiration is found to be 30-60%. Based on the data available, both hypotheses, are not testable. Finally, when comparing the hydrological and erosional effects of the Maule earthquake with the impact of planting exotic plantation forests, the overall observed earthquake effects are comparably small, and limited to short time scales. N2 - Landmanagement und tektonische Prozesse haben einen erheblichen Einfluss auf das Abflussverhalten und den Wasser-, sowie den Sedimenthaushalt von Gebirgsregionen. Sowohl forstwirtschaftliche Bewirtschaftung, als auch starke Erdbeben sind Impulse, die hydrologische und Erosionsprozesse, sowie deren Prozessraten beeinflussen. Obwohl zahlreiche Arbeiten bereits den Einfluss von forstlicher Bewirtschaftung (Abholzungen, Aufforstungen) als auch von Erdbeben auf Wasser und Sedimentflüsse dokumentiert haben, bleiben wichtige Fragen offen. Wie entscheidend ist der Zeitpunkts der Abholzung und des nachfolgenden Wiederaufforstens? Wie wirken seismische Störungen auf unterirdische Wasserflüsse? Wie ändert sich die geomorphologische Arbeit nach Kahlschlägen? Zur Erforschung dieser Fragen bietet sich das südliche Zentralchile aufgrund seiner hohen lokalen seismischen Aktivität und der kontinuierlichen Umwidmung von Flächen in hochproduktive Plantagenwälder hervorragend an. Letztere verursachen sich häufig verändernde Umweltbedingungen durch kurze forstwirtschaftliche Rotationszyklen. Diese Dissertation betrachtet Einzugsgebiete mit vergleichbarer naturräumlicher Ausstattung. Dabei werden experimentelle Datenerhebung, ein Monitoring-Programm und Datenanalysetechniken mit prozessbasierter Modellierung kombiniert. Ziel der vorliegenden Arbeit ist: 1) die Untersuchung des Einflusses von Plantagenwäldern auf den lokalen Wasserhaushalt. Hier zeigt sich, dass die Baumart (Pinus radiata vs. Eucalyptus globulus) keinen entscheidenden Einfluss auf die lokale Wasserbilanz hat. Vielmehr ist der Bodenwasserspeicher unter dem gegebenen lokalen Hydroklima der entscheidende Faktor für den Wasserverbrauch. 2) die Untersuchung des Verhaltens von Kahlschlagflächen im Hinblick auf Quellen oder Senkenwirkung für Oberflächenabfluss und Sedimenttransport. Hier zeigt sich, dass diese Flächen sowohl als Quelle als auch als Senke für Oberflächenabfluss und Sedimenttransport wirken können – abhängig von der Regenintensität. Übersteigt diese ~20 mm/h, was <10 % der lokalen Niederschlagsereignisse entspricht, generieren Kahlschlagflächen Horton-Oberflächenabfluss (Infiltrationsüberschuss) und Sedimenttransport. Unterhalb dieses Schwellenwerts wirken sie als Senke. In Anbetracht der lokalen Niederschlagintensitäten ist der Gesamtbeitrag des Horton-Oberflächenabflusses daher sekundär. Der Großteil des Abflusses entsteht durch Dunne-Oberflächenabfluss (Sättigungsüberschuss). Zudem zeigt die vorliegende Arbeit, dass Abholzen die Infiltrabilität erhöhen kann. Dies führte dazu, dass zunächst der Gebietsabfluss abfällt bevor er erst nach Auffüllen des Grundwasserspeichers signifikant ansteigt. 3) Die Untersuchung des Einflusses von Kahlschlägen auf die hydro-geomorphologische Arbeit und ihre Effizienz. Durch das Anwenden von Quantile Regression Forests (QRF) wird auf kurzer Prozessskala gezeigt, dass Abholzung zu unterschiedlicher Jahreszeit zu signifikanten Veränderungen im Sedimenttransport führt. Vor allem Kahlschläge die während der Trockenzeit durchgeführt werden, verursachten einen Bedeutungsverlust von seltenen, stärkeren Abflussereignissen zu Gunsten der häufigeren, jedoch weniger starken Ereignissen. Hierbei dominierte der Dunne-Oberflächenabfluss. Dies stimmt mit den Ergebnissen eines prozessbasierten hydrologischen Modells (WASA-SED) überein. Es ist somit eindeutig die Jahreszeit, die die Leistung der hydro-geomorphologischer Arbeit nach Kahlschlägen prägte. 4) die Untersuchung von Grundwasserreaktionen auf das M8.8 Maule Erdbeben. Unter Grundwasserbedingungen kann der gesättigte Saprolith mit Verdichtung auf die Erdbebenerschütterungen reagieren. Dieser Prozess erhöht den hydraulischen Gradienten, der eine plausible Erklärung für den beobachteten Anstieg am Gebietsausfluss nach dem Erdbeben liefert. Die Verdichtung mobilisiert Grundwasser, das zudem von der ungesättigten Bodenmatrix aufgenommen werden kann. Hierdurch erhöht sich das Wasservolumen im Wurzelraum und begünstigt die Pflanzaktivität. Eine solche Aktivitätserhöhung spiegelt sich in verstärkten Tagesgängen wider. 5) die Untersuchung von hydrologischen Reaktionen auf das Erdbeben in der ungesättigten Zone. Hier zeigt sich, dass auch Bodenwasser aus der ungesättigten Bodenzone durch Erdbebenerschütterungen freigesetzt werden kann und den darunter liegenden Grundwasserspeicher zufließt. Hierdurch steigt der Grundwasserspiegel in den Talböden und erhöht dort die Pflanzenwasserverfügbarkeit. Durch inverse Modellierung wurde ein erdbebenbedingter Anstieg der Pflanzenaktivität von 30-60% quantifiziert. Beide Hypothesen sind jedoch auf Basis der verfügbaren Daten nicht eindeutig verifizierbar. Vergleicht man den Effekt des Erdbebens auf den Wasserhaushalt mit dem Effekt der exotischen Plantagenwälder zeigt sich, dass die Gesamtwirkung des Erdbebens auf den Wasserhaushalt vergleichsweise klein war und sich zudem auf kurze Zeiträume beschränkte. KW - Hydrologie KW - Erosion KW - Chile KW - Waldbewirtschaftung KW - Erdbeben KW - hydrology KW - erosion KW - Chile KW - forest management KW - earthquake Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70146 ER - TY - THES A1 - Meyer, Sven T1 - Wie ist liberale Eugenik möglich? T1 - How is liberal eugenics possible? BT - Menschenformung aus liberaler Perspektive und ihre Abgrenzung zur autoritären Eugenik BT - the shaping of human beings from a liberal perspective and differentiated from authoritarian eugenics N2 - Folgt tatsächlich aus einem liberalen Wertekanon eine generative Selbstbestimmung, eine weitgehende elterliche Handlungsfreiheit bei eugenischen Maßnahmen, wie es Vertreter einer „liberalen Eugenik“ versichern? Diese Arbeit diskutiert die Rolle Staates und die Handlungsspielräume der Eltern bei der genetischen Gestaltung von Nachkommen im Rahmen eines liberalen Wertverständnisses. Den Schwerpunkt/Fokus der Betrachtungen liegt hier Maßnahmen des genetic enhancement. Darüber hinaus wird auch das Verhältnis der „liberalen Eugenik“ zur „autoritären Eugenik“ neu beleuchtet. Die Untersuchung beginnt bei der Analyse zentraler liberaler Werte und Normen, wie Freiheit, Autonomie und Gerechtigkeit und deren Funktionen in der „liberalen Eugenik“. Wobei nur sehr eingeschränkt von der „liberalen Eugenik“ gesprochen werden kann, sondern viel mehr von Varianten einer „liberalen Eugenik“. Darüber hinaus wird in dieser Arbeit die historische Entwicklung der „liberalen“ und der „autoritären Eugenik“, speziell des Sozialdarwinismus, untersucht und verglichen, insbesondere im Hinblick auf liberale Werte und Normen und der generativen Selbstbestimmung. Den Kern der Arbeit bildet der Vergleich der „liberalen Eugenik“ mit der „liberalen Erziehung“. Da hier die grundlegenden Aufgaben der Eltern, aber auch des Staates, analysiert und deren Verhältnis diskutiert wird. Es zeigt sich, dass sich aus einem liberalen Wertverständnisses heraus keine umfangreiche generative Selbstbestimmung ableiten lässt, sondern sich viel mehr staatlich kontrollierte enge Grenzen bei eugenischen Maßnahmen zum Wohle der zukünftigen Person, begründen. Zudem wurde der Weg zur autoritären Eugenik nicht durch die Abkehr von der generativen Selbstbestimmung geebnet, sondern viel mehr durch die Übertragung des Fortschrittsgedankens auf den Menschen selbst. Damit verliert die generative Selbstbestimmung auch ihre Funktion als Brandmauer gegen eine autoritäre Eugenik. Nicht der Verlust der generativen Selbstbestimmung, sondern viel mehr die Idee der Perfektionierung des Menschen muss kritisch betrachtet und letztlich abgelehnt werden. Ohne generative Selbstbestimmung und einer Perfektionierung des Menschen, bleibt nur eine Basis-Eugenik, bei der die Entwicklungsfähigkeit des Menschen sichergestellt wird, nicht jedoch seine Verbesserung. Darüber hinaus muss auch über eine Entwicklungsmöglichkeit des zukünftigen Menschen gesprochen werden, d. h. ein minimales Potential zu gesellschaftlicher Integration muss gegeben sein. Nur wenn tatsächlich keine Möglichkeiten seitens der Gesellschaft bestehen eine Person zu integrieren und dieser eine Entwicklungsmöglichkeit zu bieten, wären eugenische Maßnahmen als letztes Mittel akzeptabel. N2 - Could reproductive autonomy, i.e. extensive parental freedom in making eugenic decisions, actually be deduced from liberal core values, as it is affirmed by advocates of "liberal eugenics"? My thesis discusses the role of the state as well as the scope of action that parents have with the genetic configuration of their descendant - within the framework of liberal values. Furthermore the relations between "liberal eugenics" and "authoritarian eugenics" are novelly examined. The first part of this research is concerned with an analysis of liberal core values and norms, like freedom, autonomy and justice and their functioning within "liberal eugenics". Yet, there is not just one limited version of "liberal eugenics", but rather there are variations of it. Additionally this thesis examines and compares the historical development of "liberal" and "authoritarian eugenics", specifically social darwinism, with particular regard to liberal values and norms as well as to reproductive autonomy. The essence of my thesis is a thorough comparison of "liberal eugenics" with "liberal education". As in this section the fundamental tasks of parenting as well as tasks of the state are being analysed and their relations to one another are being discussed. Thus, it can be concluded that no extensive reproductive autonomy can be deduced from a liberal set of values. But rather reasons for a more state-controlled and tightly restricted procedure of eugenic actions, for the good of the potential person, can be found. Furthermore, the way to authoritarian eugenics was not paved by a rejection of reproductive autonomy, but rather by applying the idea of progress onto the human being himself. Thereby reproductive autonomy also loses its function as a firewall against authoritarian eugenics. It is not the loss of reproductive autonomy that needs to be examined critically and eventually has to be rejected, but rather the idea of perfectioning man. Without reproductive autonomy and the intention to perfectioning man, only a basic eugenics remains, which merely ensures a development of man but not his improvement. Beyond that, opportunities for development of the potential person need to be ensured, i.e. at least a minimum potential for social integration needs to apply. If and only if society is incapable of integrating a person and and when it is not being able to provide him with opportunities for his development, only in such cases would eugenic actions be aceptable as an ultimate means. KW - liberale Eugenik KW - liberal eugenics KW - reproduktive Selbstbestimmung KW - genetic enhancement KW - Sozialdarwinismus Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77166 ER - TY - THES A1 - May, Felix T1 - Spatial models of plant diversity and plant functional traits : towards a better understanding of plant community dynamics in fragmented landscapes T1 - Räumliche Modelle der Diversität und der funktionellen Eigenschaften von Pflanzen : für ein besseres Verständnis der Dynamik von Pflanzengemeinschaften in fragmentierten Landschaften N2 - The fragmentation of natural habitat caused by anthropogenic land use changes is one of the main drivers of the current rapid loss of biodiversity. In face of this threat, ecological research needs to provide predictions of communities' responses to fragmentation as a prerequisite for the effective mitigation of further biodiversity loss. However, predictions of communities' responses to fragmentation require a thorough understanding of ecological processes, such as species dispersal and persistence. Therefore, this thesis seeks an improved understanding of community dynamics in fragmented landscapes. In order to approach this overall aim, I identified key questions on the response of plant diversity and plant functional traits to variations in species' dispersal capability, habitat fragmentation and local environmental conditions. All questions were addressed using spatially explicit simulations or statistical models. In chapter 2, I addressed scale-dependent relationships between dispersal capability and species diversity using a grid-based neutral model. I found that the ratio of survey area to landscape size is an important determinant of scale-dependent dispersal-diversity relationships. With small ratios, the model predicted increasing dispersal-diversity relationships, while decreasing dispersal-diversity relationships emerged, when the ratio approached one, i.e. when the survey area approached the landscape size. For intermediate ratios, I found a U-shaped pattern that has not been reported before. With this study, I unified and extended previous work on dispersal-diversity relationships. In chapter 3, I assessed the type of regional plant community dynamics for the study area in the Southern Judean Lowlands (SJL). For this purpose, I parameterised a multi-species incidence-function model (IFM) with vegetation data using approximate Bayesian computation (ABC). I found that the type of regional plant community dynamics in the SJL is best characterized as a set of isolated “island communities” with very low connectivity between local communities. Model predictions indicated a significant extinction debt with 33% - 60% of all species going extinct within 1000 years. In general, this study introduces a novel approach for combining a spatially explicit simulation model with field data from species-rich communities. In chapter 4, I first analysed, if plant functional traits in the SJL indicate trait convergence by habitat filtering and trait divergence by interspecific competition, as predicted by community assembly theory. Second, I assessed the interactive effects of fragmentation and the south-north precipitation gradient in the SJL on community-mean plant traits. I found clear evidence for trait convergence, but the evidence for trait divergence fundamentally depended on the chosen null-model. All community-mean traits were significantly associated with the precipitation gradient in the SJL. The trait associations with fragmentation indices (patch size and connectivity) were generally weaker, but statistically significant for all traits. Specific leaf area (SLA) and plant height were consistently associated with fragmentation indices along the precipitation gradient. In contrast, seed mass and seed number were interactively influenced by fragmentation and precipitation. In general, this study provides the first analysis of the interactive effects of climate and fragmentation on plant functional traits. Overall, I conclude that the spatially explicit perspective adopted in this thesis is crucial for a thorough understanding of plant community dynamics in fragmented landscapes. The finding of contrasting responses of local diversity to variations in dispersal capability stresses the importance of considering the diversity and composition of the metacommunity, prior to implementing conservation measures that aim at increased habitat connectivity. The model predictions derived with the IFM highlight the importance of additional natural habitat for the mitigation of future species extinctions. In general, the approach of combining a spatially explicit IFM with extensive species occupancy data provides a novel and promising tool to assess the consequences of different management scenarios. The analysis of plant functional traits in the SJL points to important knowledge gaps in community assembly theory with respect to the simultaneous consequences of habitat filtering and competition. In particular, it demonstrates the importance of investigating the synergistic consequences of fragmentation, climate change and land use change on plant communities. I suggest that the integration of plant functional traits and of species interactions into spatially explicit, dynamic simulation models offers a promising approach, which will further improve our understanding of plant communities and our ability to predict their dynamics in fragmented and changing landscapes. N2 - Die Fragmentierung von Landschaften umfasst die Zerschneidung und den Verlust von Flächen mit natürlicher Vegetationsentwicklung und ist eine der Hauptursachen für den gegenwärtigen drastischen Verlust an Biodiversität. Diese Dissertation soll zu einem besseren Verständnis der Vegetationsdynamik in fragmentierten Landschaften beitragen. Damit verbunden ist das Ziel, Vorhersagen über die Reaktion von Pflanzengemeinschaften auf Fragmentierung zu verbessern. Diese Vorhersagen sind notwendig, um gezielte Naturschutzmaßnahmen zur Verminderung eines weiteren Verlustes an Biodiversität umsetzen zu können. In Kapitel 2 der Dissertation wird mit einem Simulationsmodell untersucht, wie sich die Ausbreitungsdistanz von Samen auf die lokale Artenzahl von Pflanzengemeinschaften auswirkt. Dabei zeigte sich, dass längere Ausbreitungsdistanzen die lokale Artenvielfalt sowohl erhöhen, als auch verringern können. Der wichtigste Einflussfaktor war dabei die Artenvielfalt der über-geordneten Pflanzengemeinschaft, in der die betrachtete lokale Gemeinschaft eingebettet war. Im dritten Kapitel wird die Konnektivität zwischen Pflanzengemeinschaften in Habitat-fragmenten, d.h. der Austausch von Arten und Individuen durch Samenausbreitung, im Unter-suchungsgebiet in Israel analysiert. Dafür wurde ein zweites räumliches Simulationsmodell mit statistischen Verfahren an Felddaten angepasst. Der Vergleich des Modells mit den Daten wies auf eine sehr geringe Konnektivität zwischen den Habitatfragmenten hin. Das Modell sagte vorher, dass innerhalb von 1000 Jahren 33% - 60% der Arten aussterben könnten. In Kapitel 4 wird zuerst analysiert, welche Prozesse die Verteilung von funktionellen Eigenschaften in Pflanzengemeinschaften bestimmen. In einem zweiten Schritt wird dann unter-sucht, wie sich funktionelle Eigenschaften von Pflanzengemeinschaften mit dem Niederschlag und der Fragmentierung im Untersuchungsgebiet in Israel verändern. Der Zusammenhang zwischen den Eigenschaften Pflanzenhöhe, sowie spezifischer Blattfläche und der Fragmentierung änderte sich nicht entlang des Niederschlagsgradienten. Im Gegensatz dazu, änderte sich der Zusammenhang zwischen der Samenmasse bzw. der Samenzahl und der Fragmentierung mit dem Niederschlag. Aus den Ergebnissen der ersten Teilstudie wird deutlich, dass Naturschutzmaßnahmen, die natürliche Habitate stärker vernetzen sollen, die Diversität, sowie die Zusammensetzung der übergeordneten Artengemeinschaft berücksichtigen müssen, um Verluste an Biodiversität zu vermeiden. Die Verknüpfung eines räumlichen Simulationsmodells mit Felddaten in der zweiten Teilstudie stellt einen neuen und vielversprechenden Ansatz für die Untersuchung der Auswirkungen verschiedener Management-Szenarien dar. Die dritte Teilstudie ist die erste Analyse der gemeinsamen Auswirkungen von Klima und Fragmentierung auf funktionelle Pflanzen-eigenschaften und zeigt die hohe Bedeutung der Untersuchung von Synergie-Effekten verschiedener Umweltfaktoren. Für zukünftige Forschung legt diese Dissertation nahe, funktionelle Eigenschaften und Konkurrenz zwischen Arten in räumlichen Simulationsmodellen zu berücksichtigen, um das Verständnis von Artengemeinschaften in fragmentierten Landschaften noch weiter zu verbessern. KW - Diversität KW - Ausbreitung KW - Pflanzengemeinschaften KW - Fragmentierung KW - ökologische Modellierung KW - diversity KW - dispersal KW - plant communities KW - fragmentation KW - ecological modelling Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68444 ER - TY - THES A1 - Matthes, Annika T1 - Die Dehydro-Diels-Alder-Reaktion (DDA-Reaktion) als neue Methode zur Darstellung von Naphthalenophanen T1 - The Dehydro-Diels-Alder reaction (DDA reaction) as new strategy for the development of Naphthalenophanes BT - ein neuer Zugang zu gespannten Ringsystemen und zur asymmetrischen Synthese von Biarylen BT - a new approach for strained ring systems and for the asymmetric synthesis of biaryls N2 - Die Dissertation beschreibt die Herstellung von ringförmigen Verbindungen (Naphthalenophanen) mit Hilfe der Dehydro-Diels-Alder-Reaktion, wobei immer Enantiomerenpaare auftreten. Es wird der diastereoselektive Aufbau von Naphthalenophanen und der enantiomeren reine Aufbau von Biarylen untersucht. Desweiteren werden die physikalischen Eigenschaften der erhaltenen Verbindungen, wie die Phosphoreszenz, Trennbarkeit der entstehenden Enantiomere und die Ringspannung beschrieben. N2 - The dissertation describes the synthesis of cyclic compounds (Naphthalenophanes) using the Dehydro-Diels-Alder reaction. The diastereoselective assembling of Naphthalenophanes and the development of pure enantiomeres were researched. All synthesised products are pairs of enantiomeres. Furthermore the physical properties like the phosphorescence, separability of the enantiomeres and the ring strain energy were specified. KW - Naphthalenophane KW - Biaryle KW - Ringspannung KW - asymmetrische Synthese KW - Rotationsbarriere KW - Naphthalenophanes KW - Biaryles KW - strain energy KW - asymmetric synthesis KW - barrier of rotation energy Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65264 ER - TY - THES A1 - Matienzo León, Ena Mercedes T1 - Ficcionalizar el referente : violencia, saber, ficcion y utopía en El Primer Nueva Corónica y Buen Gobierno de Felipe Guamán Poma de Ayala T1 - Ficcionalizar el referente : violence, knowledge, fiction and utopia in El Primer Nueva Corónica y Buen Gobierno of Felipe Guaman Poma de Ayala T1 - Ficcionalizar el referente : Gewalt, Wissen, Fiktion und Utopie in El Primer Nueva Corónica y Buen Gobierno von Felipe Guaman Poma de Ayala N2 - La tesis doctoral „Ficcionalizar el referente. Violencia, Saber, Ficcion y Utopía en El Primer Nueva Corónica y Buen Gobierno de Felipe Guamán Poma de Ayala“ tiene como objetivo explicar la violencia, el saber, la ficción y la utopía en El Primer Nueva Corónica y Buen Gobierno. Este estudio se inicia con la Historia de la Recepción de El Primer Nueva Corónica y Buen Gobierno en el siglo XX. El criterio principal en la elaboración de este registro ha sido analizar estudios destacados sobre la crónica peruana y que han abierto nuevos significados desde diferentes disciplinas. De esta manera la Historia de la Recepción de El Primer Nueva Corónica y Buen Gobierno se inicia a partir de un "Ensayo de Interpretación" desde la arqueología hasta arribar a la ciencia filológica que amparada por el fortalecimiento de los estudios culturales y el cuestionamiento de los "metarrelatos" en las tres últimas décadas del siglo XX desarrolló un "acto de descolonización" desde la crítica histórica y literaria. Los conceptos de violencia, saber, ficción y utopía han sido constantes a lo largo del proceso de lectura y reflexión de la crónica peruana. De esta manera este estudio responde a interrogantes sobre las dimensiones y los espacios de la violencia en la crónica peruana. Este estudio reconoce además que los relatos del fin del mundo andino y su recomposición corresponden a la confluencia de saberes y a su ubicidad. En El Primer Nueva Coronica y Buen Gobierno se hallan escenas de "experiencia límite" que puede tener un desenlace trágico con la desaparición y la muerte del autor o el abandono y perdida de esperanza de sus ideales. Sin embargo la crónica de Felipe Guamán Poma de Ayala concluye por una apuesta por la vida y por tanto participa de un "saber de vida" o un "saber vivir" debido a que se halla el registro sobre la vida y de un saber que tiene la vida como objetivo central en el relato histórico. De esta manera la crónica peruana contiene una lógica narrativa que "socava la estática de un destino irrevocable" y elabora una denuncia del mundo desolador con el anhelo de transformarlo. Esta escena produce fricción entre lo que afirma el cronista y la representación ficcional del dibujo, de esta manera se halla un espacio entre lo vivido e inventado que abarcaran todo un campo de experimentación que oscilan entre una dicción plena y la fórmula ficcional. La tesis doctoral „Ficcionalizar el referente. Violencia, Saber, Ficcion y Utopía en El Primer Nueva Corónica y Buen Gobierno de Felipe Guamán Poma de Ayala“ identificó una eclosiva fuga de la referencialidad textual de la crónica peruana para crear sus propias referencialidades bajo un sentido utópico. El testimonio dramático, la denuncia en voz e imagen no estarán distanciados del elemento fantástico y legendario propio de los primeros escritos latinoamericanos. Los artificios narrativos de El Primer Nueva Corónica y Buen Gobierno crea territorialidades textuales aptas para la imaginación y la leyenda, cercano a lo real maravilloso. La crónica indígena fue concebida cuando se organizaba el "Buen gobierno y justicia", en un ambiente confrontacional, pero también en un mundo que era nuevo, naciente en un momento que América aparecía como idealización del ansiado proyecto platónico de nación feliz, de un buen gobierno, una mejor nación, una utopía. N2 - The dissertation "Ficcionalizar el referente. Violencia, Saber, Ficcion y Utopía en El Primer Nueva Coronica y Buen Gobierno de Felipe Guaman Poma de Ayala" aims to explain violence, knowledge, fiction and utopia in El Primer Nueva Coronica y Buen Gobierno. This study begins with the history of the reception of the El Primer Nueva Coronica y Buen Gobierno in the twentieth century. The main criterion in making this record was to analyze outstanding studies on Peruvian chronic and have opened new meanings from different disciplines. The history of the reception of the El Primer Nueva Coronica y Buen Gobierno starts from a "ensayo de intrepretación" from archeology to arrive at the philological science covered by the strengthening of cultural studies and questioning the "metarrelatos" in the last three decades of the twentieth century developed an "acto de descolonización" from the historical and literary criticism. The concepts of violence, knowledge, fiction and utopia have been constant throughout the process of reading and reflection of Peruvian chronic. Thus, this study answers questions about the dimensions and spaces of violence in Peruvian chronic. This study also recognizes that the stories of the end of the Andean world and its reorganization correspond to the confluence of knowledge and its "ubicidad". El Primer Nueva Coronica y Buen Gobierno hat scenes of the "experiencia límite" that can have a tragic "desenlace" with the disappearance and death of the author or the abandonment and loss of hope for his ideals. However chronicle Felipe Guaman Poma de Ayala concludes with a commitment to life and therefore part of "saber de vida" or "saber vivir" because the record is about life and knowledge that has life as a central objective in the historical narrative. Therefore the chronic Peruvian contains a narrative logic that "undermines the static of an irrevocable destiny" and prepares a report of the bleak world with the desire to change it. This scene produces friction between the claims of the writer and the fictional representation of the design, thus is a space between experience and invented that would cover a whole field of experimentation ranging from full diction and fictional formula. The dissertation "Ficcionalizar el referente. Violencia, Saber, Ficcion y Utopía en El Primer Nueva Coronica y Buen Gobierno de Felipe Guaman Poma de Ayala" identified an "eclosiva fuga de la referencialidad textual" of Peruvian chronic to create their own "referencialidades" under a utopia. The dramatic testimony, the complaint in voice and image will not be alienated from himself and legendary fantasy element of the early Latin American writings. The narrative artifices of the El Primer Nueva Coronica y Buen Gobierno creates "territorialidades textuales aptas para la imaginación y la leyenda, cercano a lo real maravilloso". The Indian chronicle was conceived when organizing the "Buen Gobierno y Justicia" in a confrontational environment, but also in a world that was new, rising at a time when America appeared as idealization of the Republic of Plato, a good government, a utopia. KW - Latin American literature KW - indigenous chronic KW - violence of latin letter KW - ubiquity of new knowledge KW - political utopia Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70758 ER - TY - THES A1 - Martin, Benjamin T1 - Linking individual-based models and dynamic energy budget theory : lessons for ecology and ecotoxicology T1 - Individuenbasierte Modelle mit dynamischen Energiehaushalten bereichern die Ökologie und Ökotoxikologie N2 - In the context of ecological risk assessment of chemicals, individual-based population models hold great potential to increase the ecological realism of current regulatory risk assessment procedures. However, developing and parameterizing such models is time-consuming and often ad hoc. Using standardized, tested submodels of individual organisms would make individual-based modelling more efficient and coherent. In this thesis, I explored whether Dynamic Energy Budget (DEB) theory is suitable for being used as a standard submodel in individual-based models, both for ecological risk assessment and theoretical population ecology. First, I developed a generic implementation of DEB theory in an individual-based modeling (IBM) context: DEB-IBM. Using the DEB-IBM framework I tested the ability of the DEB theory to predict population-level dynamics from the properties of individuals. We used Daphnia magna as a model species, where data at the individual level was available to parameterize the model, and population-level predictions were compared against independent data from controlled population experiments. We found that DEB theory successfully predicted population growth rates and peak densities of experimental Daphnia populations in multiple experimental settings, but failed to capture the decline phase, when the available food per Daphnia was low. Further assumptions on food-dependent mortality of juveniles were needed to capture the population dynamics after the initial population peak. The resulting model then predicted, without further calibration, characteristic switches between small- and large-amplitude cycles, which have been observed for Daphnia. We conclude that cross-level tests help detecting gaps in current individual-level theories and ultimately will lead to theory development and the establishment of a generic basis for individual-based models and ecology. In addition to theoretical explorations, we tested the potential of DEB theory combined with IBMs to extrapolate effects of chemical stress from the individual to population level. For this we used information at the individual level on the effect of 3,4-dichloroanailine on Daphnia. The individual data suggested direct effects on reproduction but no significant effects on growth. Assuming such direct effects on reproduction, the model was able to accurately predict the population response to increasing concentrations of 3,4-dichloroaniline. We conclude that DEB theory combined with IBMs holds great potential for standardized ecological risk assessment based on ecological models. N2 - Für die ökologische Risikobewertung von Chemikalien sind individuenbasierte Populationsmodelle ein vielversprechendes Werkzeug um heutige Bewertungen ökologisch realistischer zu gestalten. Allerdings ist die Entwicklung und Parametrisierung derartiger Modelle zeitaufwendig und oft wenig systematisch. Standardisierte, geprüfte Untermodelle, die Einzelorganismen beschreiben, würden die individuenbasierte Modellierung effizienter und kohärenter machen. In meiner Dissertation habe ich daher untersucht, inwieweit sich die Dynamic Energy Budget-Theorie (DEB) als Standardmodell innerhalb individuenbasierter Populationsmodelle eignet, und zwar sowohl für die ökologische Risikobewertung als auch für die theoretische Populationsökologie. Zunächst habe ich eine generische Implementierung der DEB-Theorie im Rahmen individuenbasierter Modellen (IBM) erstellt: DEB-IBM. Dieses Werkzeug nutzend habe ich dann untersucht, ob es mit Hilfe der DEB-Theorie gelingt, ausgehend von den Eigenschaften und Aktivitäten einzelner Individuen, Populationsdynamik vorherzusagen. Wir nutzten dabei Daphnia magna als Modellart, für die Daten auf der Individuenebene verfügbar waren, um das Modell zu parametrisieren, sowie Populationsdaten, mit denen Modellvorhersagen verglichen werden konnten. DEB-Theorie war in der Lage, beobachtete Populationswachstumsraten sowie die maximalen Abundanzen korrekt vorherzusagen, und zwar für verschiedene Umweltbedingungen. Für Phasen des Rückgangs der Population allerdings, wenn die für die Daphnien verfügbare Nahrungsmenge gering war, kam es zu Abweichungen. Es waren deshalb zusätzliche Annahmen über nahrungsabhängige Sterblichkeit von juvenilen Daphnien erforderlich, um die gesamte Populationsdynamik korrekt vorherzusagen. Das resultierende Modell konnte dann, ohne weitere Kalibrierungen, den für Daphnien charakteristischen Wechsel zwischen Populationszyklen mit großen und kleinen Amplituden richtig vorhersagen. Wir folgern daraus, daß Ebenen übergreifende Tests dabei helfen, Lücken in aktuellen Theorien über Einzelorganismen aufzudecken Dies trägt zur Theorieentwicklung bei und liefert Grundlagen für individuenbasierte Modellierung und Ökologie. Über diese Grundlagenfragen hinaus haben wir überprüft, ob DEB-Theorie in Kombination mit IBMs es ermöglicht, den Effekt von chemischem Streß auf Individuen auf die Populationsebene zu extrapolieren. Wir nutzten Daten über die Auswirkungen von 3,4 Dichloroanalin auf einzelne Daphnien, die zeigten daß im Wesentlichen die Reproduktion, nicht aber das Wachstum beeinträchtigt ist. Mit entsprechenden Annahmen konnte unser Modell den Effekt auf Populationsebene, für den unabhängige Daten vorlagen, korrekt vorhersagen. DEB-Theorie in Kombination mit individuenbasierter Modellierung birgt somit großes Potential für einen standardisierten modellbasierten Ansatz in der ökologischen Risikobewertung von Chemikalien. KW - Ökologie KW - Ökotoxikologie KW - Populationsdynamik KW - Ecology KW - Ecotoxicology KW - population dynamics Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67001 ER - TY - THES A1 - Macaulay, Euan Angus T1 - The orogenic evolution of the Central Kyrgyz Tien Shan T1 - Haben die letzten kaenozoischen klimatischen Verӓnderungen zu erhӧhten Abtragungen im kirgisischen Tien Shan geführt? N2 - Intra-continental mountain belts typically form as a result of tectonic forces associated with distant plate collisions. In general, each mountain belt has a distinctive morphology and orogenic evolution that is highly dependent on the unique distribution and geometries of inherited structures and other crustal weaknesses. In this thesis, I have investigated the complex and irregular Cenozoic orogenic evolution of the Central Kyrgyz Tien Shan in Central Asia, which is presently one of the most active intra-continental mountain belts in the world. This work involved combining a broad array of datasets, including thermochronologic, magnetostratigraphic, sediment provenance and stable isotope data, to identify and date various changes in tectonic deformation, climate and surface processes. Many of these changes are linked and can ultimately be related to regional-scale processes that altered the orogenic evolution of the Central Kyrgyz Tien Shan. The Central Kyrgyz Tien Shan contains a sub-parallel series of structures that were reactivated in the late Cenozoic in response to the tectonic forces associated with the distant India-Eurasia collision. Over time, slip on the various reactivated structures created the succession of mountain ranges and intermontane basins which characterises the modern morphology of the region. In this thesis, new quantitative constraints on the exhumation histories of several mountain ranges have been obtained by using low temperature thermochronological data from 95 samples (zircon (U-Th)/He, apatite fission track and (U-Th)/He). Time-temperature histories derived by modelling the thermochronologic data of individual samples identify at least two stages of Cenozoic cooling in most of the region’s mountain ranges: (1) initially low cooling rates (<1°C/Myr) during the tectonic quiescent period and (2) increased cooling in the late Cenozoic, which occurred diachronously and with variable magnitude in different ranges. This second cooling stage is interpreted to represent increased erosion caused by active deformation, and in many of the sampled mountain ranges, provides the first available constraints on the timing of late Cenozoic deformation. New constraints on the timing of deformation have also been derived from the sedimentary record of intermontane basins. In the intermontane Issyk Kul basin, new magnetostratigraphic data from two sedimentary sections suggests that deposition of the first Cenozoic syn-tectonic sediments commenced at ~26 Ma. Zircon U-Pb provenance data, paleocurrent and conglomerate clast analysis reveals that these sediments were sourced from the Terskey Range to the south of the basin, suggesting that the onset of the late Cenozoic deformation occurred >26 Ma in that particular range. Elsewhere, growth strata relationships are used to identify syn-tecotnic deposition and constrain the timing of nearby deformation. Collectively, these new constraints obtained from thermochronologic and sedimentary data have allowed me to infer the spatiotemporal distribution of deformation in a transect through the Central Kyrgyz Tien Shan, and determine the order in which mountain ranges started deforming. These data suggest that deformation began in a few widely-spaced mountain ranges in the late Oligocene and early Miocene. Typically, these earlier mountain ranges are bounded on at least one side by a reactivated structure, which probably corresponds to the frictionally weakest and most suitably orientated inherited structures for accommodating the roughly north-south directed horizontal crustal shortening of the late Cenozoic. Moreover, tectonically-induced rock uplift in the Terskey Range, following the reactivation of the bounding structure before 26 Ma, likely caused significant surface uplift across the range, which in turn lead to enhanced orographic precipitation. These wetter conditions have been inferred from stable isotope data collected in the two magnetostratigraphically-dated sections in the Issyk Kul basin. Subsequently, in the late Miocene (~12‒5 Ma), more mountain ranges and inherited structures appear to have started actively deforming. Importantly, the onset of deformation at these locations in the late Miocene coincides with an increase in exhumation of ranges that had started deforming earlier in the late Oligocene‒early Miocene. Based on this observation, I have suggested that there must have been an overall increase in the rate of horizontal crustal shortening across the Central Kyrgyz Tien Shan, which likely relates to regional tectonic changes that affected much of Central Asia. Many of the mountain ranges that started deforming in the late Miocene were associated with out-of-sequence tectonic reactivation and initiation, which lead to the partitioning of larger intermontane basins. Moreover, within most of the intermontane basins in the Central Kyrgyz Tien Shan, this inferred late Miocene increase in horizontal crustal shortening occurs roughly at the same time as an increase in sedimentation rates and a significant change sediment composition. Therefore, I have suggested that the overall magnitude of deformational processes increased in the late Miocene, promoting more flexural subsidence in the intermontane basins of the Central Kyrgyz Tien Shan. N2 - Intrakontinentale Gebirge sind typischerweise das Ergebnis tektonischer Kräfte, die auf entfernte Plattenkollisionen beruhen. Im Allgemeinen hat jedes Gebirge sein charakteristisches morphologisches Erscheinungsbild und seine eigene und einzigartige Entstehungsgeschichte, die zum Großteil von der Verteilung und der Geometrie vorgeprägter Strukturen und anderer Schwächzonen innerhalb der Erdkruste abhängt. In der vorliegenden Arbeit habe ich die komplexe känozoische Gebirgsbildung des zentral-kirgisischen Tian Shan Gebirges, eines der weltweit aktivsten intrakontinentalen Gebirge, untersucht. Diese Arbeit kombiniert verschiedenste Datensätze, darunter thermochronologische und magnetostratigraphische Daten, Sedimentprovenienzen und stabile Isotopenzusammensetzungen, um Änderungen der tektonischen Deformationsprozesse sowie Klima- und Oberflächenveränderungen zu erkennen und gegebenenfalls zu datieren. Viele dieser Veränderungen sind eng miteinander verknüpft und können letztendlich auf regionale Prozesse zurückgeführt werden, die die Entwicklung des zentral-kirgisischen Tian Shan beeinflussen. Das Tian Shan Gebirge besteht aus einer subparallelen Folge einzelner Gebirgsrücken und deren Strukturen, welche im späten Känozoikum als Reaktion auf die entfernt stattfindende Indo-Eurasische Kollision reaktiviert wurden. Im Laufe der Zeit haben Deformation und Versatz entlang dieser reaktivierten Strukturen eine Abfolge von individuellen Gebirgszügen und dazwischen liegenden Sedimentbecken geschaffen deren Morphologie prägend für die heutige Region ist. In dieser Arbeit wurden neue quantitative Altersbestimmungen zur Exhumationsgeschichte mehrerer Gebirgszüge durch thermochronologische Auswertungen an 95 Gesteinsproben durchgeführt (ZHe, AFT und AHe). Die aus Modellierungen einzelner thermochronologischer Datensätze gewonnenen Temperaturgeschichten lassen für die meisten untersuchten Gebirgszüge mindestens zwei Abschnitte känozoischer Abkühlung erkennen: (1) anfänglich niedrige Abkühlungsraten (<1°C/Myr) während einer tektonische Ruhephase und (2) stärkere Abkühlung im späten Känozoikum, die in den verschiedenen Gebirgsketten diachron und mit unterschiedlicher Intensität einsetzt. Diese zweite Abkühlungsphase kann durch einen Anstieg der Erosionsraten durch aktive Deformation interpretiert werden und stellt für viele der untersuchten Gebirgszüge die erste verfügbare Alterabschätzung spätkänozoischer Deformation dar. Neue Deformationsalter wurden weiterhin aus den Sedimenten intermontaner Becken gewonnen. Im intermontanen Issyk Kul Becken lassen neue magnetostratigraphische Daten zweier Sedimentabschnitte vermuten, dass die Ablagerung der ersten syntektonischen Sedimente im Känozoikum um ca. 26 Ma begann. Weiterhin zeigen Zirkon-Provenienzen, Paläoströmungsrichtungen sowie Klastenanalysen konglomeratischer Sedimente, dass diese Sedimente aus der Terskey Range südlich des Beckens stammen, was vermuten lässt, dass der Beginn der spätkänozoischen Deformation in diesem Teil des Gebirgszuges älter als 26 Ma ist. In anderen Bereichen wurden sedimentäre Wachstumsstrukturen zur Identifikation syntektonischer Ablagerung herangezogen, um somit den Zeitpunkt nahe gelegener Deformation zu bestimmen. Zusammengenommen haben meine Beobachtungen und Auswertungen ermöglicht, die räumlichen und zeitlichen Deformationsmuster quer durch das zentral-kirgisischen Tian Shan Gebirge zu erschließen um eine zeitliche Abfolge in der Entstehung und Entwicklung einzelner Gebirgszüge zu entwickeln. Meine Daten lassen vermuten, dass die Deformation in einigen wenigen, weit auseinander liegenden Bergketten im Spätoligozän bis Frühmiozän begann. Typischerweise sind diese frühen Gebirgsketten auf mindestens einer Seite an eine reaktivierte Struktur gebunden. Diese sind die wahrscheinlich schwächsten oder am besten orientierten Strukturen, um die annähernd Nord-Süd gerichtete Einengung im späten Känozoikum aufzunehmen. Darüber hinaus ist es sehr wahrscheinlich, dass die tektonische Gesteinshebung innerhalb der Terskey Range, entlang reaktivierter Störungen vor 26 Ma, eine signifikante Topographiezunahme zur Folge hatte. Dies führte höchstwahrscheinlich zur Ausbildung einer orographischen Barriere und der damit verbundenen Verstärkung der Regenfälle im Becken nördlich des Rückens. Diese Bedingungen konnten mithilfe stabiler Isotopenzusammensetzungen entlang der zwei magnetostratigraphisch datierten Sedimentprofile im Issyk Kul Becken nachgewiesen werden. Während des späten Miozäns (~12‒5 Ma) begann zeitnah die aktive Deformation und Heraushebung mehrerer neuer Gebirgsrücken. Wichtig dabei erscheint, dass der Zeitpunkt dieser spätmiozänen Deformation mit einem Exhumationsschub derer Gebirgszüge zusammenfällt, die schon viel früher (Spätoligozän bis Frühmiozän) mit der Deformation begannen. Aufgrund dieser Beobachtungen habe ich vorgeschlagen, dass es einen generellen Anstieg der Einengungsraten im Tian Shan gegeben haben muss, welcher auf regionale tektonische Veränderungen zurückzuführen ist die große Teile Zentralasiens betrafen. Viele der Gebirgsrücken, die initial im späten Miozän herausgehoben wurden, sind durch unsystematische, tektonische Prozesse der Reaktivierung und Initialisierung von Strukturen (out-of-sequence) entstanden, die zur Teilung vormals großer, zusammenhängender Sedimentbecken führte. Darüber hinaus weisen die meisten intermontanen Becken im zentral-kirgisischen Tian Shan, in etwa zur Zeit der beobachteten, verstärkten Einengung im Spätmiozän, ebenfalls erhöhte Sedimentationsraten und eine signifikante Änderung der Sedimentzusammensetzung. Daher vermute ich, dass die allgemeine Intensität der Deformation im Spätmiozän zunahm, was eine tektonische Absenkung (flexural subsidence) in den intermontane Becken des zentral-kirgisischen Tian Shan Gebirges zur Folge hatte. KW - orogenic evolution KW - thermochronology KW - Tien Shan KW - tectonics KW - climate Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68985 ER - TY - THES A1 - Mabrok, Hoda Hussein Bakr T1 - Protective role of lignan-converting bacteria on chemically-induced breast cancer in gnotobiotic rats T1 - Der protektive Einfluss von Lignan-aktivierenden Bakterien auf chemisch induzierten Brustkrebs im gnotobiotischen Rattenmodell N2 - Enterolignans (enterodiol and enterolactone) exhibit structural similarity to estradiol and have therefore been hypothesized to modulate hormone related cancers such as breast cancer. The bioactivation of the plant lignan secoisolariciresinol diglucoside (SDG) requires the transformation by intestinal bacteria including the deglycosylation of SDG to secoisolariciresinol (SECO) followed by demethylation and dehydroxylation of SECO to enterodiol (ED). Finally, ED is dehydrogenated to enterolactone (EL). It is unclear whether the bacterial activation of SDG to ED and EL is crucial for the cancer preventing effects of dietary lignans. The possible protective effect of bacterial lignan transformation on a 7,12 dimethylbenz(a)anthracene (DMBA)-induced breast cancer in gnotobiotic rats was investigated. Germ-free rats were associated with a defined lignan-converting consortium (Clostridium saccharogumia, Blautia producta, Eggerthella lenta, and Lactonifactor longoviformis). The rats colonized with lignan-converting bacteria consortium (LCC) were fed a lignan-rich flaxseed diet and breast cancer was chemical induced. Identically treated germ-free rats served as control. All bacteria of the consortium successfully colonized the intestine of the LCC rats. The plant lignan SDG was converted into the enterolignans ED and EL in the LCC rats but not in the germ-free rats. This transformation did not influence cancer incidence but significantly decreased tumor numbers per tumor-bearing rat, and tumor size. Cell proliferation was significantly inhibited and apoptosis was significantly induced in LCC rats. No differences between LCC and control rats were observed in the expression of the genes encoding the estrogen receptors (ERα and ERβ) and G-coupled protein receptor 30 (GPR30). Similar findings were observed for both insulin-like growth factor 1 (IGF-1) and epidermal growth factor receptor (EGFR) genes involved in tumor growth. Proteome analysis revealed that 24 proteins were differentially expressed in tumor tissue from LCC and germ-free. RanBP-type and C3HC4-type zinc finger-containing protein 1 (RBCK1) and poly(rC)-binding protein 1 (PBCP1) were down-regulated by 3.2- and 2.0-fold, respectively. These proteins are associated with cell proliferation. The activity of selected enzymes involved in the degradation of oxidants in plasma and liver was significantly increased in the LCC rats. However, plasma and liver concentrations of reduced glutathione (non-enzymatic antioxidant) and malondialdehyde (oxidative stress marker) did not differ between the groups. In conclusion, the bacterial conversion of plant lignan to enterolignans beneficially influences their anti-cancer effect. However, the mechanisms involved in these effects remain elusive. N2 - Enterolignanen (Enterodiol ED und Enterolacton EL) wird aufgrund ihrer strukturellen Ähnlichkeit zu Estradiol ein modulierender Einfluss auf hormonell bedingte Krebserkrankungen wie Brustkrebs nachgesagt. Das pflanzliche Lignan Secoisolariciresinoldiglucosid (SDG) wird durch Darmbakterien zum Enterolignan aktiviert. Dies erfolgt über dessen Deglykosylierung zu Secoisolariciresinol (SECO) gefolgt durch die Demethylierung und die Dehydroxylierung zu Enterodiol (ED). Schließlich wird ED zu Enterolacton (EL) dehydrogeniert. Es ist allerdings noch nicht bewiesen, dass die bakterielle Aktivierung von SDG zu ED und EL für die antikanzerogenen Wirkungen verantwortlich ist, die für dieses in der menschlichen Ernährung vorkommende Lignan beschrieben wurden. Um dies zu klären, wurde der Einfluss der bakteriellen Lignan-Transformation auf die Protektion gegenüber einem durch 7,12-Dimethylbenz(a)anthracen (DMBA)-induzierten Brustkrebs im gnotobiotischen Rattenmodell untersucht. Keimfreie Ratten wurden hierfür mit einem Konsortium aus vier Bakterienstämmen (Clostridium saccharogumia, Blautia producta, Eggerthella lenta, und Lactonifactor longoviformis) besiedelt, das die Umsetzung von SDG zu ED und EL katalysiert (LCC-Ratten). Ratten, die über den gesamten Versuchszeitraum keimfrei blieben, dienten als Kontrolle. Die Tiere wurden über 16 Wochen mit einer Leinsamen-Diät gefüttert, die reich an pflanzlichen Lignanen war. Während der Fütterung wurde bei allen Tieren Brustkrebs chemisch induziert. Das pflanzliche Lignan SDG wurde nur in den LCC Ratten zu den Enterolignanen ED und EL umgewandelt. Keimfreie Ratten zeigten keine Transformation von SDG. Die bakterielle Transformation von SDG hatte zwar keinen Einfluss auf die Inzidenz von Brustkrebs, jedoch verringerten sich durch die Besiedlung der Ratten mit SDG-transformierenden Bakterien die Anzahl von Tumoren pro tumortragender Ratte und die Tumorgröße deutlich. Zudem wurde die Zellproliferation in den LCC-Ratten deutlich gehemmt und die Apoptose induziert. Unterschiede in der Genexpression der Östrogenrezeptoren (ERα und ERß) und G-Protein-gekoppelte Rezeptoren (GPR30) wurden zwischen den LCC-Ratten und den Kontrolltieren nicht beobachtet. Ebenso verhielt es sich für die Gene des Insulinähnliche Wachstumsfaktoren 1 (IGF-1) und Epidermale Wachstumsfaktor rezeptoren (EGFR), welche in das Tumorwachstum involviert sind. Die Analyse des Proteoms des Tumorgewebes ergab 24 differentiell exprimierte Proteine zwischen keimfreien und LCC-Ratten. So wurden zum Beispiel die Proteine RanBP-type and C3HC4-type zinc finger-containing protein 1 (RBCK1) und poly(rC)-binding protein 1 (PBCP1), die mit der Zellproliferation assoziiert sind, in LCC-Ratten um das 3,2 bzw. 2,0-fache herunterreguliert. Die Aktivität ausgewählter antioxidativer Enzyme in Plasma und Leber war in den LCC-Ratten im Vergleich zu den keimfreien Tieren deutlich erhöht. Allerdings unterschieden sich die Konzentrationen von reduziertem Glutathion (nichtenzymatisches Antioxidans) und Malondialdehyd (oxidativer Stress-Marker) in Plasma und Leber nicht zwischen den beiden Besiedlungs-Gruppen. Zusammenfassend zeigen die Ergebnisse, dass die bakterielle Umwandlung von pflanzlichen Lignanen zu Enterolignanen deren antikanzerogene Wirkung entscheidend beeinflusst. Allerdings bleiben die zugrunde liegenden Mechanismen weiterhin ungeklärt. KW - Pflanzliches Lignan KW - Enterolignanen KW - Lignan-umwandelnde Bakterien KW - Brustkrebs KW - Zellproliferation KW - Plant lignan KW - Enterolignans KW - Lignan-converting bacteria KW - Breast cancer KW - Cell proliferation Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64933 ER - TY - THES A1 - Maaß, Yvonne T1 - Leuchtkäfer & Orgelkoralle T1 - Leuchtkäfer & Orgelkoralle BT - Chamissos "Reise um die Welt mit der Romanzoffischen Entdeckungs-Expedition" (1815–1818) im Wechselspiel von Naturkunde und Literatur BT - Chamisso's "Reise um die Welt mit der Romanzoffischen Entdeckungs-Expedition" (1815–1818) in the interplay between natural history and literature T2 - Epistemata : Würzburger wissenschaftliche Schriften ; Reihe Literaturwissenschaft (852) N2 - Leuchtende Käfer und Medusen, phosphoreszierende Meereswellen oder zu Stein erstarrende Korallen faszinierten den bisher vornehmlich als Dichter portraitierten Naturforscher Adelbert von Chamisso (1781–1838). Intensiver noch als den zoologischen und geologischen Phänomenen, widmete er sich der Scientia amabilis – der liebenswerten Wissenschaft von den Pflanzen. Der vielseitig Talentierte verfasste seine Reise um die Welt (1836), die bis heute als eine der stilistisch anspruchvollsten und lesenswertesten Reisebeschreibungen gilt. Diese Studie widmet sich dezidiert den naturkundlichen Studien Chamissos im Kontext der dreijährigen Rurik-Expedition sowie den zugehörigen Textproduktionen. Mit einem umfassenden Text- und Materialkorpus werden literatur- und kulturwissenschaftliche sowie wissenschaftshistorische Fragestellungen an das Werk gelegt und ertragreich beantwortet. Für die Reiseliteraturforschung wird bisher unbeachtetes Quellenmaterial ans Licht gebracht, gängige Thesen werden widerlegt, Quellen anderer Besatzungsmitglieder vergleichend betrachtet. Die Studie stellt den Naturforscher Chamisso in den Fokus, ohne den Dichter auszublenden, und widmet sich Fragen der Generierung, Vernetzung und Darstellung naturkundlichen Wissens in Texten, Illustrationen und Materialien zur Expedition – sie ist insgesamt für die Literatur- und Geschichtswissenschaft ebenso innovativ wie für die interdisziplinäre Geschichte des Wissens. N2 - Adelbert von Chamisso (1781–1838), primarily portrayed and well known as a poet, had also a reputation as a naturalist. Fluorescent beetles and gleaming medusae became subjects of his interest. In particular he devoted himself to the Scientia amabilis – the charming science of the plants. The versatile gifted author wrote Reise um die Welt (1836), which is still regarded as brilliant travelogue most worth reading and stylistically demanding until today. Leuchtkäfer & Orgelkoralle examines the naturalistic researches of Chamisso in the context of the Rurik expedition as well as the associated text productions. A comprehensive corpus of sources is analysed. Current issues in the area of literature, cultural studies and history of science are focused and discussed. This study puts the scientist Chamisso into focus without fading out the writer. It deals with issues of generating, interlinking and presenting biological and geological knowledge in texts, illustrations and preparations of the expedition. Leuchtkäfer & Orgelkoralle is as innovative for literature studies as for interdisciplinary history of knowledge. KW - Adelbert von Chamisso KW - Weltreisen KW - Reisebeschreibung KW - Naturkunde KW - Naturgeschichte KW - Wissenschaftsgeschichte KW - Rurik KW - Romanzoff Expedition KW - Johann Friedrich Eschscholtz KW - Louis Choris KW - Chamisso KW - Otto von Kotzebue KW - Expansion Europas KW - Transdisziplinarität KW - Weltumsegelung KW - Reisen um 1800 KW - Adelbert von Chamisso KW - voyage around the world KW - journey around the world KW - travelogue KW - natural sciences KW - naturalistic research KW - natural history KW - history of science KW - Rurik KW - Romanzoff KW - Romanzow KW - expedition KW - Johann Friedrich Eschscholtz KW - Louis Choris KW - Chamisso KW - Otto von Kotzebue KW - European expansion KW - transdisciplinarity KW - circumnavigation KW - travelling around 1800 KW - Globalisierung KW - Morton Wormskiold KW - globalization KW - Morton Wormskiold Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-399894 SN - 978-3-8260-5833-2 IS - 852 PB - Königshausen & Neumann CY - Würzburg ER - TY - THES A1 - Lindberg, Tilmann Sören T1 - Design-Thinking-Diskurse : Bestimmung, Themen, Entwicklungen T1 - Design thinking discourses N2 - Der Untersuchungsgegenstand der vorliegenden Arbeit ist, die mit dem Begriff „Design Thinking“ verbundenen Diskurse zu bestimmen und deren Themen, Konzepte und Bezüge herauszuarbeiten. Diese Zielstellung ergibt sich aus den mehrfachen Widersprüchen und Vieldeutigkeiten, die die gegenwärtigen Verwendungen des Design-Thinking-Begriffs charakterisieren und den kohärenten Gebrauch in Wissenschaft und Wirtschaft erschweren. Diese Arbeit soll einen Beitrag dazu leisten, „Design Thinking“ in den unterschiedlichen Diskurszusammenhängen grundlegend zu verstehen und für zukünftige Verwendungen des Design-Thinking-Begriffs eine solide Argumentationsbasis zu schaffen. N2 - This thesis’ research objective is to distinguish the discourses to which the term “design thinking” refers, to carve out their central themes and concepts, as well as to debate the conceptual relations between them. The background of this objective lies in the ambiguity and the inherent contradictions of how “design thinking” is generally applied and referred to, hindering coherent and consistent usage both in academia and the business world. This thesis shall therefore contribute to elucidate the diversity of meanings of design thinking as well as to point out conceptual interrelations and coherences in order to establish a more solid foundation for future design thinking discourse. KW - Design Thinking KW - Design Thinking Diskurse KW - Design Management KW - Design KW - design thinking KW - design thinking discourse KW - design management KW - design Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69704 ER - TY - THES A1 - Lemke, Karina T1 - Abtrennung und Charakterisierung von Polyelektrolyt-modifizierten Nanopartikeln T1 - Separation and characterization of polyelectrolyte-modified nanoparticles N2 - Gegenstand der Dissertation ist die größen- und eigenschaftsoptimierte Synthese und Charakterisierung von anorganischen Nanopartikeln in einer geeigneten Polyelektrolytmodifizierten Mikroemulsion. Das Hauptziel bildet dabei die Auswahl einer geeigneten Mikroemulsion, zur Synthese von kleinen, stabilen, reproduzierbaren Nanopartikeln mit besonderen Eigenschaften. Die vorliegende Arbeit wurde in zwei Haupteile gegliedert. Der erste Teil befasst sich mit der Einmischung von unterschiedlichen Polykationen (lineares Poly (diallyldimethylammoniumchlorid) (PDADMAC) und verzweigtes Poly (ethylenimin) (PEI)) in verschiedene, auf unterschiedlichen Tensiden (CTAB - kationisch, SDS - anionisch, SB - zwitterionisch) basierenden, Mikroemulsionssysteme. Dabei zeigt sich, dass das Einmischen der Polykationen in die Wassertröpfchen der Wasser-in-Öl (W/O) Mikroemulsion prinzipiell möglich ist. Der Einfluss der verschiedenen Polykationen auf das Phasenverhalten der W/O Mikroemulsion ist jedoch sehr unterschiedlich. In Gegenwart des kationischen Tensids führen die repulsiven Wechselwirkungen mit den Polykationen zu einer Destabilisierung des Systems, während die ausgeprägten Wechselwirkungen mit dem anionischen Tensid in einer deutlichen Stabilisierung des Systems resultieren. Für das zwitterionische Tensid führen die moderaten Wechselwirkungen mit den Polykationen zu einer partiellen Stabilisierung. Der zweite Teil der Arbeit beschäftigt sich mit dem Einsatz der unterschiedlichen, Polyelektrolyt- modifizierten Mikroemulsionen als Templatphase für die Herstellung verschiedener, anorganischer Nanopartikel. Die CTAB-basierte Mikroemulsion erweist sich dabei als ungeeignet für die Herstellung von CdS Nanopartikeln, da zum einen nur eine geringe Toleranz gegenüber den Reaktanden vorhanden ist (Destabilisierungseffekt) und zum anderen das Partikelwachstum durch den Polyelektrolyt-Tensid-Film nicht ausreichend begrenzt wird. Zudem zeigt sich, dass eine Abtrennung der Partikel aus der Mikroemulsion nicht möglich ist. Die SDS-basierten Mikroemulsionen, erweisen sich als geeignete Templatphase zur Synthese kleiner anorganischer Nanopartikel (3 – 20 nm). Sowohl CdS Quantum Dots, als auch Gold Nanopartikel konnten erfolgreich in der Mikroemulsion synthetisiert werden, wobei das verzweigte PEI einen interessanten Templat-Effekt in der Mikroemulsion hervorruft. Als deutlicher Nachteil der SDS-basierten Mikroemulsionen offenbaren sich die starken Wechselwirkungen zwischen dem Tensid und den Polyelektrolyten während der Aufarbeitung der Nanopartikel aus der Mikroemulsion. Dabei erweist sich die Polyelektrolyt-Tensid-Komplexbildung als hinderlich für die Redispergierung der CdS Quantum Dots in Wasser, so dass Partikelaggregation einsetzt. Die SB-basierten Mikroemulsionen erweisen sich als günstige Templatphase für die Bildung von größen- und eigenschaftenoptimierten Nanopartikeln (< 4 nm), wobei insbesondere eine Modifizierung mit PEI als ideal betrachtet werden kann. In Gegenwart des verzweigten PEI gelang es erstmals ultrakleine, fluoreszierende Gold Cluster (< 2 nm) in einer SB-basierten Mikroemulsion als Templatphase herzustellen. Als besonderer Vorteil der SB-basierten Mikroemulsion zeigen sich die moderaten Wechselwirkungen zwischen dem zwitterionischen Tensid und den Polyelektrolyten, welche eine anschließende Abtrennung der Partikel aus der Mikroemulsion unter Erhalt der Größe und ihrer optischen Eigenschaften ermöglichen. In der redispergierten wässrigen Lösung gelang somit eine Auftrennung der PEI-modifizierten Partikel mit Hilfe der asymmetrischer Fluss Feldflussfraktionierung (aF FFF). Die gebildeten Nanopartikel zeigen interessante optische Eigenschaften und können zum Beispiel erfolgreich zur Modifizierung von Biosensoren eingesetzt werden. N2 - This work is focused on the formation, recovery and characterisation of inorganic nanoparticles in a tailor-made polycation-modified reverse microemulsion. The main aim is the choice of an adequate microemulsion for the synthesis of small, uniform, reproducible nanoparticles with specialn characteristics. The first part is focused on the incorporation of two different polycations, low molecular weight linear poly(diallyldimethylammonium chloride) (PDADMAC) and low molecular weight branched poly(ethyleneimine) (PEI) in different surfactant-based (CTAB – cationic, SDS – anionic, SB - zwitterionic) w/o microemulsions. In principle the incorporation of the polycations in the small water droplets is possible, but the influence of the polycations on the phase behaviour is different. Repulsive interactions induce a destabilisation of the w/o microemulsion for cationic surfactant CTAB, while the distinctive interactions between the anionic surfactant SDS and the polycations induce an extension of the phase range and a considerable stabilisation. In case of zwitterionic surfactant SB a partial destabilisation can be observed, according to the lower interactions with the polycations. The second part is focused on the formation of different, inorganic nanoparticles in these polyelectrolyte-modified reverse microemulsions as a template phase. The CTAB-based microemulsion is not adequate for the formation of CdS nanoparticles, according to the low tolerance towards the reactants (destabilisation effect). Furthermore the particle growth cannot be limited by the surfactant-polycation-film and a recovery of the nanoparticles from the microemulsion is not possible. The results show that the SDS-based quaternary template phase consisting of water, toluene-pentanol (1:1), and the anionic surfactant SDS in presence of PEI or PDADMAC can be successfully used for the synthesis of polymer capped inorganic nanoparticles (3 – 20 nm). CdS quantum dots, as well as gold nanoparticles are successfully synthesised in the microemulsion droplets. Especially PEI acts as a reducing and stabilizing agent and shows an additional, interesting template effect in the microemulsion. Unfortunately a recovery of the nanoparticles without a particle aggregation is not possible due to the strong surfactant polycation interactions, which lead to polycation-surfactant complexes. The SB-based microemulsion can be successfully used as a tailor-made polycation-modifiedreverse microemulsion for the formation of small, uniform nanoparticles (< 4 nm) with special characteristics. Especially a modification with PEI is optimal and for the first time small, fluorescent gold cluster (< 2 nm) can be synthesised in a SB-based microemulsion as template phase. The results show that the electrostatic interactions between the polycation and the surfactant are of high relevance especially in the solvent evaporation and redispersion process. That means only in the case of moderate polycation-surfactant interactions a redispersion of the polymer capped particles without problems of aggregation is possible and the size and characteristics are unchanged in the redispersed solution. By means of asymmetric flow field flow fractionation (af-fff) it becomes possible to separate the two cluster fractions from each other as well as from the nanoparticle fraction with diameter > 5 nm. This opens a way to use the nanoparticles with their interesting, optical characteristics in different new fields of application for example for modification of biosensors. KW - Mikroemulsion KW - Gold Cluster KW - Quantum Dots KW - Feldflussfraktionierung KW - Nanopartikel KW - Microemulsion KW - Gold Cluster KW - Quantum Dots KW - Field Flow Fractionation KW - Nanoparticles Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68133 ER - TY - THES A1 - Lange, Dustin T1 - Effective and efficient similarity search in databases T1 - Effektive und effiziente Ähnlichkeitssuche in Datenbanken N2 - Given a large set of records in a database and a query record, similarity search aims to find all records sufficiently similar to the query record. To solve this problem, two main aspects need to be considered: First, to perform effective search, the set of relevant records is defined using a similarity measure. Second, an efficient access method is to be found that performs only few database accesses and comparisons using the similarity measure. This thesis solves both aspects with an emphasis on the latter. In the first part of this thesis, a frequency-aware similarity measure is introduced. Compared record pairs are partitioned according to frequencies of attribute values. For each partition, a different similarity measure is created: machine learning techniques combine a set of base similarity measures into an overall similarity measure. After that, a similarity index for string attributes is proposed, the State Set Index (SSI), which is based on a trie (prefix tree) that is interpreted as a nondeterministic finite automaton. For processing range queries, the notion of query plans is introduced in this thesis to describe which similarity indexes to access and which thresholds to apply. The query result should be as complete as possible under some cost threshold. Two query planning variants are introduced: (1) Static planning selects a plan at compile time that is used for all queries. (2) Query-specific planning selects a different plan for each query. For answering top-k queries, the Bulk Sorted Access Algorithm (BSA) is introduced, which retrieves large chunks of records from the similarity indexes using fixed thresholds, and which focuses its efforts on records that are ranked high in more than one attribute and thus promising candidates. The described components form a complete similarity search system. Based on prototypical implementations, this thesis shows comparative evaluation results for all proposed approaches on different real-world data sets, one of which is a large person data set from a German credit rating agency. N2 - Ziel von Ähnlichkeitssuche ist es, in einer Menge von Tupeln in einer Datenbank zu einem gegebenen Anfragetupel all diejenigen Tupel zu finden, die ausreichend ähnlich zum Anfragetupel sind. Um dieses Problem zu lösen, müssen zwei zentrale Aspekte betrachtet werden: Erstens, um eine effektive Suche durchzuführen, muss die Menge der relevanten Tupel mithilfe eines Ähnlichkeitsmaßes definiert werden. Zweitens muss eine effiziente Zugriffsmethode gefunden werden, die nur wenige Datenbankzugriffe und Vergleiche mithilfe des Ähnlichkeitsmaßes durchführt. Diese Arbeit beschäftigt sich mit beiden Aspekten und legt den Fokus auf Effizienz. Im ersten Teil dieser Arbeit wird ein häufigkeitsbasiertes Ähnlichkeitsmaß eingeführt. Verglichene Tupelpaare werden entsprechend der Häufigkeiten ihrer Attributwerte partitioniert. Für jede Partition wird ein unterschiedliches Ähnlichkeitsmaß erstellt: Mithilfe von Verfahren des Maschinellen Lernens werden Basisähnlichkeitsmaßes zu einem Gesamtähnlichkeitsmaß verbunden. Danach wird ein Ähnlichkeitsindex für String-Attribute vorgeschlagen, der State Set Index (SSI), welcher auf einem Trie (Präfixbaum) basiert, der als nichtdeterministischer endlicher Automat interpretiert wird. Zur Verarbeitung von Bereichsanfragen wird in dieser Arbeit die Notation der Anfragepläne eingeführt, um zu beschreiben welche Ähnlichkeitsindexe angefragt und welche Schwellwerte dabei verwendet werden sollen. Das Anfrageergebnis sollte dabei so vollständig wie möglich sein und die Kosten sollten einen gegebenen Schwellwert nicht überschreiten. Es werden zwei Verfahren zur Anfrageplanung vorgeschlagen: (1) Beim statischen Planen wird zur Übersetzungszeit ein Plan ausgewählt, der dann für alle Anfragen verwendet wird. (2) Beim anfragespezifischen Planen wird für jede Anfrage ein unterschiedlicher Plan ausgewählt. Zur Beantwortung von Top-k-Anfragen stellt diese Arbeit den Bulk Sorted Access-Algorithmus (BSA) vor, der große Mengen von Tupeln mithilfe fixer Schwellwerte von den Ähnlichkeitsindexen abfragt und der Tupel bevorzugt, die hohe Ähnlichkeitswerte in mehr als einem Attribut haben und damit vielversprechende Kandidaten sind. Die vorgestellten Komponenten bilden ein vollständiges Ähnlichkeitssuchsystem. Basierend auf einer prototypischen Implementierung zeigt diese Arbeit vergleichende Evaluierungsergebnisse für alle vorgestellten Ansätze auf verschiedenen Realwelt-Datensätzen; einer davon ist ein großer Personendatensatz einer deutschen Wirtschaftsauskunftei. KW - Datenbanken KW - Ähnlichkeitssuche KW - Suchverfahren KW - Ähnlichkeitsmaße KW - Indexstrukturen KW - Databases KW - Similarity Search KW - Search Algorithms KW - Similarity Measures KW - Index Structures Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65712 ER - TY - THES A1 - Kyprianidis, Jan Eric T1 - Structure adaptive stylization of images and video T1 - Strukturadaptive Stilisierung von Bildern und Videos N2 - In the early days of computer graphics, research was mainly driven by the goal to create realistic synthetic imagery. By contrast, non-photorealistic computer graphics, established as its own branch of computer graphics in the early 1990s, is mainly motivated by concepts and principles found in traditional art forms, such as painting, illustration, and graphic design, and it investigates concepts and techniques that abstract from reality using expressive, stylized, or illustrative rendering techniques. This thesis focuses on the artistic stylization of two-dimensional content and presents several novel automatic techniques for the creation of simplified stylistic illustrations from color images, video, and 3D renderings. Primary innovation of these novel techniques is that they utilize the smooth structure tensor as a simple and efficient way to obtain information about the local structure of an image. More specifically, this thesis contributes to knowledge in this field in the following ways. First, a comprehensive review of the structure tensor is provided. In particular, different methods for integrating the minor eigenvector field of the smoothed structure tensor are developed, and the superiority of the smoothed structure tensor over the popular edge tangent flow is demonstrated. Second, separable implementations of the popular bilateral and difference of Gaussians filters that adapt to the local structure are presented. These filters avoid artifacts while being computationally highly efficient. Taken together, both provide an effective way to create a cartoon-style effect. Third, a generalization of the Kuwahara filter is presented that avoids artifacts by adapting the shape, scale, and orientation of the filter to the local structure. This causes directional image features to be better preserved and emphasized, resulting in overall sharper edges and a more feature-abiding painterly effect. In addition to the single-scale variant, a multi-scale variant is presented, which is capable of performing a highly aggressive abstraction. Fourth, a technique that builds upon the idea of combining flow-guided smoothing with shock filtering is presented, allowing for an aggressive exaggeration and an emphasis of directional image features. All presented techniques are suitable for temporally coherent per-frame filtering of video or dynamic 3D renderings, without requiring expensive extra processing, such as optical flow. Moreover, they can be efficiently implemented to process content in real-time on a GPU. N2 - In den Anfängen der Computergrafik war die Forschung hauptsächlich von dem Anspruch getragen, realistisch aussehende synthetische Bilder zu erstellen. Im Gegensatz dazu ist die nicht-photorealistische Computergraphik, ein Untergebiet der Computergrafik, welches in den frühen 1990er Jahren gegründet wurde, vor allem motiviert durch Konzepte und Prinzipien der traditionellen Kunst wie Malerei, Illustration und Grafikdesign. Diese Arbeit beschäftigt sich mit der künstlerischen Verarbeitung von zweidimensionalen Bildinhalten und präsentiert mehrere neue automatische Verfahren für die Erstellung von vereinfachten künstlerischen Darstellungen von Farbbildern, Videos und 3D- Renderings. Wichtigste Neuerung dieser Techniken ist die Verwendung des Strukturtensors als eine einfache und effiziente Möglichkeit, Informationen über die lokale Struktur eines Bildes zu erhalten. Konkret werden die folgenden Beiträge gemacht. Erstens wird eine umfassende übersicht über den Strukturtensor gegeben. Insbesondere werden verschiedene Methoden für die Integration des kleineren Eigenvektorfeldes des geglätteten Strukturtensors entwickelt, und die Überlegenheit des geglätteten Strukturtensors gegenüber dem populären Edge-Tangent-Flow demonstriert. Zweitens werden separable Implementierungen des bilateralen Filters und des Difference of Gaussians Filters vorgestellt. Durch die Anpassung der Filter an die lokale Struktur des Bildes werden Bildfehler vermieden, wobei der Vorgang rechnerisch effizient bleibt. Zusammengenommen bieten beide Techniken eine effektive Möglichkeit, um einen Cartoon-ähnlichen Effekt zu erzielen. Drittens wird eine Verallgemeinerung des Kuwahara-Filters vorgestellt. Durch die Anpassung von Form, Umfang und Orientierung der Filter an die lokale Struktur werden Bildfehler verhindert. Außerdem werden direktionale Bildmerkmale besser berücksichtigt und betont, was zu schärferen Kanten und einem malerischen Effekt führt. Neben der single-scale Variante wird auch eine multi-scale Variante vorgestellt, welche im Stande ist, eine höhere Abstraktion zu erzielen. Viertens wird eine Technik vorgestellt, die auf der Kombination von flussgesteuerter Glättung und Schock-Filterung beruht, was zu einer intensiven Verstärkung und Betonung der direktionalen Bildmerkmale führt. Alle vorgestellten Techniken erlauben die zeitlich kohärente Verarbeitung von Einzelbildern eines Videos oder einer dynamischen 3D-Szene, ohne dass andere aufwendige Verfahren wie zum Beispiel die Berechnung des optischen Flusses, benötigt werden. Darüberhinaus können die Techniken effizient implementiert werden und ermöglichen die Verarbeitung in Echtzeit auf einem Grafikprozessor (GPU). KW - Nicht-photorealistisches Rendering KW - Flussgesteuerter Bilateraler Filter KW - Differenz von Gauss Filtern KW - Anisotroper Kuwahara Filter KW - non-photorealistic rendering KW - flow-based bilateral filter KW - difference of Gaussians KW - anisotropic Kuwahara filter KW - coherence-enhancing filtering Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64104 ER - TY - THES A1 - Kussmaul, Björn T1 - Modifizierung von Silikonelastomeren mit organischen Dipolen für Dielektrische Elastomer Aktuatoren T1 - Modification of silicone elastomers with organic dipoles for dielectric elastomer actuators N2 - Ein Dielektrischer Elastomer Aktuator (DEA) ist ein dehnbarer Kondensator, der aus einem Elastomerfilm besteht, der sich zwischen zwei flexiblen Elektroden befindet. Bei Anlegen einer elektrischen Spannung, ziehen sich die Elektroden aufgrund elektrostatischer Wechselwirkungen an, wodurch das Elastomer in z-Richtung zusammengepresst wird und sich dementsprechend in der x-,y-Ebene ausdehnt. Hierdurch werden Aktuationsbewegungen erreicht, welche sehr präzise über die Spannung gesteuert werden können. Zusätzlich sind DEAs kostengünstig, leicht und aktuieren geräuschlos. DEAs können beispielsweise für Produkte im medizinischen Bereich oder für optischer Komponenten genutzt werden. Ebenso kann aus diesen Bauteilen Strom erzeugt werden. Das größte Hindernis für eine weite Implementierung dieser Materialien liegt in den erforderlichen hohen Spannungen zum Erzeugen der Aktuationsbewegung, welche sich tendenziell im Kilovolt-Bereich befinden. Dies macht die Elektronik teuer und die Bauteile unsicher für Anwender. Um geringere Betriebsspannungen für die DEAs zu erreichen, sind signifikante Materialverbesserungen - insbesondere des verwendeten Elastomers - erforderlich. Um dies zu erreichen, können die dielektrischen Eigenschaften (Permittivität) der Elastomere gesteigert und/oder deren Steifigkeit (Young-Modul) gesenkt werden. In der vorliegenden Arbeit konnte die Aktuationsleistung von Silikonfilmen durch die Addition organischer Dipole erheblich verbessert werden. Hierfür wurde ein Verfahren etabliert, um funktionalisierte Dipole kovalent an das Polymernetzwerk zu binden. Dieser als "One-Step-Verfahren" bezeichnete Ansatz ist einfach durchzuführen und es werden homogene Filme erhalten. Die Dipoladdition wurde anhand verschiedener Silikone erprobt, die sich hinsichtlich ihrer mechanischen Eigenschaften unterschieden. Bei maximalem Dipolgehalt verdoppelte sich die Permittivität aller untersuchten Silikone und die Filme wurden deutlich weicher. Hierbei war festzustellen, dass die Netzwerkstruktur der verwendeten Silikone einen erheblichen Einfluss auf die erreichte Aktuationsdehnung hat. Abhängig vom Netzwerk erfolgte eine enorme Steigerung der Aktuationsleistung im Bereich von 100 % bis zu 4000 %. Dadurch können die Betriebsspannungen in DEAs deutlich abgesenkt werden, so dass sie tendenziell bei Spannungen unterhalb von einem Kilovolt betrieben werden können. N2 - Dielectric elastomer actuators (DEAs) are compliant capacitors consisting of an elastomer film between two flexible electrodes. When a voltage is applied the electrostatic attraction of the electrodes leads to a contraction of the polymer in the z-direction and to a corresponding expansion in the x,y-plane. DEAs show high actuation strains, which are very accurate and adjustable by the applied voltage. In addition these devices are low-cost, low-weight and the actuation is noise-free. DEAs can be used for medical applications, optical components or for energy harvesting. The main obstacle for a broad implementation of this technology is the high driving voltage, which tends to be several thousand volts. For this reason the devices are unsafe for users and the needed electronic components are expensive. A significant improvement of the materials - especially of the used elastomer - is necessary to lower the actuation voltages. This can be achieved by improving the dielectric properties (permittivity) of the elastomer and/or by lowering it's stiffness (Young's modulus). In this work the actuation performance of silicone lms was improved significantly by the addition of organic dipoles. A simple procedure was developed, in which functionalized dipoles were bound to the polymer matrix, leading to homogenous and transparent films. This so-called "one-step-film-formation" was tested on various silicones with different mechanical properties. For the highest dipole content the permittivity of all tested silicones was doubled and the modified films showed a substantially lower stiffness. It was proven that the structure of the macromolecular network has a clear impact on the achievable actuation properties. For the highest dipole contents the actuation performance increased remarkably by 100 % up to 4000 % in respect to the investigated network. The addition of organic dipoles to the elastomer enables a signicant reduction of the needed driving voltage for DEAs below one kilovolt. KW - Dielektrische Elastomer Aktuatoren KW - Elektroaktive Polymere KW - Silikonelastomere KW - organische Dipole KW - Dielectric elastomer actuators KW - electroactive polymers KW - silicone elastomers KW - organic dipoles Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65121 ER - TY - THES A1 - Kunze, Matthias T1 - Searching business process models by example T1 - Prozessmodellsuche mittels Beispielmodellen N2 - Business processes are fundamental to the operations of a company. Each product manufactured and every service provided is the result of a series of actions that constitute a business process. Business process management is an organizational principle that makes the processes of a company explicit and offers capabilities to implement procedures, control their execution, analyze their performance, and improve them. Therefore, business processes are documented as process models that capture these actions and their execution ordering, and make them accessible to stakeholders. As these models are an essential knowledge asset, they need to be managed effectively. In particular, the discovery and reuse of existing knowledge becomes challenging in the light of companies maintaining hundreds and thousands of process models. In practice, searching process models has been solved only superficially by means of free-text search of process names and their descriptions. Scientific contributions are limited in their scope, as they either present measures for process similarity or elaborate on query languages to search for particular aspects. However, they fall short in addressing efficient search, the presentation of search results, and the support to reuse discovered models. This thesis presents a novel search method, where a query is expressed by an exemplary business process model that describes the behavior of a possible answer. This method builds upon a formal framework that captures and compares the behavior of process models by the execution ordering of actions. The framework contributes a conceptual notion of behavioral distance that quantifies commonalities and differences of a pair of process models, and enables process model search. Based on behavioral distances, a set of measures is proposed that evaluate the quality of a particular search result to guide the user in assessing the returned matches. A projection of behavioral aspects to a process model enables highlighting relevant fragments that led to a match and facilitates its reuse. The thesis further elaborates on two search techniques that provide concrete behavioral distance functions as an instantiation of the formal framework. Querying enables search with a notion of behavioral inclusion with regard to the query. In contrast, similarity search obtains process models that are similar to a query, even if the query is not precisely matched. For both techniques, indexes are presented that enable efficient search. Methods to evaluate the quality and performance of process model search are introduced and applied to the techniques of this thesis. They show good results with regard to human assessment and scalability in a practical setting. N2 - Geschäftsprozesse bilden die Grundlage eines jeden Unternehmens, da jedes Produkt und jede Dienstleistung das Ergebnis einer Reihe von Arbeitsschritten sind, deren Ablauf einen Geschäftsprozess darstellen. Das Geschäftsprozessmanagement rückt diese Prozesse ins Zentrum der Betrachtung und stellt Methoden bereit, um Prozesse umzusetzen, abzuwickeln und, basierend auf einer Auswertung ihrer Ausführung, zu verbessern. Zu diesem Zweck werden Geschäftsprozesse in Form von Prozessmodellen dokumentiert, welche die auszuführenden Arbeitsschritte und ihre Ausführungsbeziehungen erfassen und damit eine wesentliche Grundlage des Geschäftsprozessmanagements bilden. Um dieses Wissen verwerten zu können, muss es gut organisiert und leicht auffindbar sein – eine schwierige Aufgabe angesichts hunderter bzw. tausender Prozessmodelle, welche moderne Unternehmen unterhalten. In der Praxis haben sich bisher lediglich einfache Suchmethoden etabliert, zum Beispiel Freitextsuche in Prozessbeschreibungen. Wissenschaftliche Ansätze hingegen betrachten Ähnlichkeitsmaße und Anfragesprachen für Prozessmodelle, vernachlässigen dabei aber Maßnahmen zur effizienten Suche, sowie die verständliche Wiedergabe eines Suchergebnisses und Hilfestellungen für dessen Verwendung. Diese Dissertation stellt einen neuen Ansatz für die Prozessmodellsuche vor, wobei statt einer Anfragesprache Prozessmodelle zur Formulierung einer Anfrage verwendet werden, welche exemplarisch das Verhalten der gesuchten Prozesse beschreiben. Dieser Ansatz fußt auf einem formalen Framework, welches ein konzeptionelles Distanzmaß zur Bewertung gemeinsamen Verhaltens zweier Geschäftsprozesse definiert und die Grundlage zur Suche bildet. Darauf aufbauend werden Qualitätsmaße vorgestellt, die einem Benutzer bei der Bewertung von Suchergebnissen behilflich sind. Verhaltensausschnitte, die zur Aufnahme in das Suchergebnis geführt haben, können im Prozessmodell hervorgehoben werden. Die Arbeit führt zwei Suchtechniken ein, die konkrete Distanzmaße einsetzen, um Prozesse zu suchen, die das Verhalten einer Anfrage exakt enthalten (Querying), oder diesem in Bezug auf das Verhalten ähnlich sind (Similarity Search). Für beide Techniken werden Indexstrukturen vorgestellt, die effizientes Suchen ermöglichen. Abschließend werden allgemeine Methoden zur Evaluierung von Prozessmodellsuchansätzen vorgestellt, mit welchen die genannten Suchtechniken überprüft werden. Im Ergebnis zeigen diese eine hohe Qualität der Suchergebnisse hinsichtlich einer Vergleichsstudie mit Prozessexperten, sowie gute Skalierbarkeit für große Prozessmodellsammlungen. KW - Prozessmodellsuche KW - Ähnlichkeit KW - Query KW - Index KW - Präsentation KW - process model search KW - similarity KW - querying KW - index KW - presentation Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68844 ER - TY - THES A1 - Kröncke, Klaus T1 - Stability of Einstein Manifolds T1 - Stabilität von Einstein-Mannigfaltigkeiten N2 - This thesis deals with Einstein metrics and the Ricci flow on compact mani- folds. We study the second variation of the Einstein-Hilbert functional on Ein- stein metrics. In the first part of the work, we find curvature conditions which ensure the stability of Einstein manifolds with respect to the Einstein-Hilbert functional, i.e. that the second variation of the Einstein-Hilbert functional at the metric is nonpositive in the direction of transverse-traceless tensors. The second part of the work is devoted to the study of the Ricci flow and how its behaviour close to Einstein metrics is influenced by the variational be- haviour of the Einstein-Hilbert functional. We find conditions which imply that Einstein metrics are dynamically stable or unstable with respect to the Ricci flow and we express these conditions in terms of stability properties of the metric with respect to the Einstein-Hilbert functional and properties of the Laplacian spectrum. N2 - Die vorliegende Arbeit beschäftigt sich mit Einsteinmetriken und Ricci-Fluss auf kompakten Mannigfaltigkeiten. Wir studieren die zweite Variation des Einstein- Hilbert Funktionals auf Einsteinmetriken. Im ersten Teil der Arbeit finden wir Krümmungsbedingungen, die die Stabilität von Einsteinmannigfaltigkeiten bezüglich des Einstein-Hilbert Funktionals sicherstellen, d.h. die zweite Varia- tion des Einstein-Hilbert Funktionals ist nichtpositiv in Richtung transversaler spurfreier Tensoren. Der zweite Teil der Arbeit widmet sich dem Studium des Ricci-Flusses und wie dessen Verhalten in der Nähe von Einsteinmetriken durch das Variationsver- halten des Einstein-Hilbert Funktionals beeinflusst wird. Wir finden Bedinun- gen, die dynamische Stabilität oder Instabilität von Einsteinmetriken bezüglich des Ricci-Flusses implizieren und wir drücken diese Bedingungen in Termen der Stabilität der Metrik bezüglich des Einstein-Hilbert Funktionals und Eigen- schaften des Spektrums des Laplaceoperators aus. KW - Einstein-Mannigfaltigkeiten KW - Ricci-Fluss KW - Variationsstabilität KW - Einstein-Hilbert-Wirkung KW - Einstein manifolds KW - Ricci flow KW - variational stability KW - Einstein-Hilbert action Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69639 ER - TY - THES A1 - Knorz, Marc Emanuel T1 - Qualitätsmanagement im organisatorischen Wandel : die Rolle von Information und Kommunikation in Qualitätsmanagement-Systemen T1 - Quality management in organizational change : the role of information and communication in quality management systems N2 - 1. Teil A – Theoretische Grundlegung der Arbeit Die wissenschaftliche Arbeit beginnt mit der Darstellung der Problemstellung und der Zielsetzung der wissenschaftlichen Arbeit. Es wird deutlich aufgezeigt werden, dass sich die Lehre des Qualitätsmanagements (QM) nur sehr unzureichend mit den sozialen Aspekten der Information & Kommunikation (I&K) und dem organisatorischen Wandel beschäftigt hat. Aus diesen beiden Unterkapiteln werden die Forschungsfragen abgeleitet und der weitere Aufbau der Arbeit konstruiert. (Kapitel 1). Aufgrund der Problemstellung startet das zweite Kapitel im Rahmen der theoretischen Grundlagen mit der sozialen Systemtheorie. Die Entscheidung für die soziale Systemtheorie wird begründet. Im Zusammenhang mit den sozialen Aspekten der I&K werden die relevanten Erkenntnisbeiträge der sozialen Systemtheorien als einzelne Komponenten vorgestellt. Diese Komponenten werden dann zu einem systemtheoretischen I&K-Modell (SEM) zusammengefügt. (Kapitel 2). Damit die beiden Disziplinen QM und soziale Systemtheorie miteinander verbunden werden können, bedarf es im dritten Kapitel der Dissertation einer Vorstellung der dafür notwendigen und relevanten Inhalte des QM. Im Zuge der Vorstellung der Inhalte des QM werden diese bereits mit der sozialen Systemtheorie verknüpft, um damit aufzuzeigen, wie QMS durch I&K existieren und operieren (Kapitel 3). Das vierte Kapitel verbindet dann die beiden Disziplinen QM und soziale Systemtheorie miteinander, wodurch ein systemtheoretisches QM-Modell (SQM) entsteht. Dieses Modell erklärt den Zusammenhang von QM, I&K und organisatorischem Wandel(Kapitel 4).   2. Teil B – Empirische Untersuchung Für die empirische Untersuchung wird in Kapitel fünf das allgemeine Forschungsdesign hergeleitet werden. Darauf folgt die Vorstellung des Aufbaus und der Abfolge von Interviews und eines Fragebogens (Kapitel 5). Das sechste Kapitel erklärt die Zielsetzung, Hintergrund und Methodik der Experteninterviews mit den Qualitätsmanagementbeauftragten (QMB) und unter-sucht die gängige Praxis des QM bzgl. der sozialen Aspekte der I&K. (Kapitel 6). Das Kapitel sieben erklärt die Zielsetzung, Hintergrund und Methodik der Interviews mit den Unternehmen der Best-Practise (BP). (Kapitel 7). Im Kapitel acht werden die Ursache und Wirkung der sozialen Aspekte der I&K über die Unternehmenskultur im Rahmen eines QMS dargestellt. (Kapitel 8). Im Kapitel neun erfolgt ein Resümee der empirischen Untersuchungen. Die Ergebnisse der empirischen Untersuchungen werden kritisch gewürdigt. Des Weiteren wird aufgezeigt, welcher weitere empirische Forschungsbedarf aufgedeckt wurde.(Kapitel 9). 3. Teil C - Abschluss Der Schlussteil der Arbeit beginnt mit dem zehnten Kapitel durch die Herleitung und Begründung von Verbesserungspotentialen und Handlungsempfehlungen für die Praxis im QM.(Kapitel 10). Im elften Kapitel erfolgt die Beantwortung der Forschungsfragen und der kritischen Würdigung der generierten Erkenntnisse.(Kapitel 11). Im zwölften Kapitel endet die Arbeit mit einem Ausblick auf weiteren Forschungsbedarf, welcher durch das Ergebnis dieser Arbeit entstanden ist (Kapitel 12). N2 - 1. Part A – Theoretical Basis The scientific work starts with the description of the problem and the objective of the scientific work. It will be clearly illustrated, that the science of quality management (QM) is still insufficient take care about the social aspects of information & communication (I&K)and the organizational change. The contents of this chapter are used for the research questions and the structure of the thesis. (Chapter 1) Due to the scientific problem the second chapter is starting with the social system theory as the theoretical basis. The decision and the reasons for the social system theory will be explained. The connection of the social aspects of I&K and the social system theory leads to a system-theoretical I&K model (SEM). (Chapter 2) The necessary contents of QM will be shown in this chapter to connect the disciplines QM and social system theory. The contents of the quality management will be analyzed with the social system theory. The result is an understanding how quality management systems (QMS) are existing and operating with I&K. (Chapter 3) The last chapter in part A is connecting the disciplines QM and social system theory. The result is a system-theoretical QM model (SQM). The SQM is explaining the connection of QM, I&K and the organizational change in QMS. (Chapter 4) 2. Part B – Empirical Investigation The general research design for the empirical investigation is explained in chapter five. Followed by the explanation for the structure and the sequence of the interviews and a questionnaire. (Chapter 5) Chapter six is explaining the objective, background and method of the expert interviews with the quality management representatives (QMB) and is analyzing the common practice of QM regarding the social aspects of I&K. (Chapter 6) Chapter seven is explaining the objective, background and method of the interviews with the best practice companies. (Chapter 7) Within the framework of the corporate culture the cause and effect of the social aspect of I&K in QMS will be explained. (Chapter 8) Chapter nine shows the result and a critical appraisal of all empirical investigations. The need for further empirical investigations will be discussed. (Chapter 9).   3. Part C - Ending The final part of the thesis starts with chapter ten. This chapter shows the potential for improvement and recommendations for actions in the practice of QM. (Chapter 10) The research questions are going to be answered in this chapter and the generated results will be critical discussed. (Chapter 11) The thesis is ending in chapter twelve with an outlook for future research requirements. (Chapter 12) KW - Qualitätsmanagement KW - Information KW - Kommunikation KW - qualitymanagement KW - information KW - communication Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71190 ER - TY - THES A1 - Keser, Abdulkerim T1 - Der Europäische Automobilsektor : Besteuerung, Marktliberalisierung und Beitrag zur CO₂-Reduktion T1 - The European automotive sector : taxation, market liberalization and CO₂ reduction N2 - Der Automobilsektor ist derzeit einer der wichtigsten Industriezweige in Europa. Ca. 2,2 Millionen Mitarbeiter sind direkt, weitere 9,8 Millionen indirekt darin beschäftigt (sechs Prozent aller Beschäftigten in Europa) und erwirtschaften mit einem Umsatz von ca. € 780 Milliarden im Jahr einen bedeutenden Teil des europäischen Bruttoinlandprodukts (BIP). Auch aus Sicht der Konsumenten ist das Auto für 80 % der Europäischen Haushalte, die ein Auto besitzen, aus dem täglichen Leben nicht mehr weg zu denken. Die europäischen Staaten beziehen ca. € 380 Milliarden ihrer Steuereinnahmen aus der Automobilindustrie. Damit haben sowohl Staaten, Konsumenten als auch die Automobilindustrie ein gewichtiges Interesse am Florieren der Branche. Die Schattenseite der Automobilindustrie sind die CO2-Emissionen, die mit 20 % (der Anteil lag 1970 bei 12 %) aller CO2-Emissionen in Europa einen wesentlichen Teil zum Klimawandel beitragen, Tendenz steigend. So haben im Lauf der vergangenen Jahre mehr und mehr Staaten ihre Besteuerung der Pkw explizit oder implizit nach Umweltstandards ausgerichtet. Damit soll das Autofahren verteuert oder eingeschränkt und / oder die Nutzung von schadstoffarmen Pkw gefördert werden. Neben den Klimaschutz verfolgt die Europäische Union (EU) das Ziel, einen einheitlichen europäischen Binnenmarkt zu schaffen. Durch den Mangel an verbindlichen EU-Richtlinien im Bezug auf Abgaben, haben die Gesetze, Steuern und Abgaben auf einzelstaatlicher und regionaler Ebene ein kaum mehr zu überschauendes Maß angenommen, da Im Rahmen des Subsidiaritätsprinzips die Mitgliedsländer weiterhin ihr Steuersystem überwiegend autonom gestalten, sofern dies im Einklang mit bestimmten europaweiten Vorgaben steht. Dies führt zu einem sehr heterogenen Steuersystem, das gerade im Bereich des Verkehrs bedeutende Markteffekte (z. B. höhere Zulassungszahlen für Diesel betriebene Pkw oder kürzere Haltedauern) nach sich zieht. Europaweit einheitlich sind lediglich Regelungen zu Wettbewerbsbeschränkungen. Es lassen sich nach wie vor viele Beispiele für Marktverzerrungen und die Heterogenität der Steuersysteme in Europa finden: Marktverzerrungen und Wettbewerbsbeschränkungen zeigen sich bei Fahrzeugpreisen, die in Europa stark variieren. Beispielsweise kosten in Dänemark Pkw bis zu 37 % weniger als in Deutschland. Diese Arbeit untersucht und vergleicht die Abgaben auf den Erwerb, den Besitz und die Nutzung von Pkw in den EU-Ländern sowie Norwegen und der Schweiz sowohl systematisch als auch quantitativ. Zur quantitativen Analyse wurde eine Datenbank mit den zur Steuerberechnung notwendigen Informationen erstellt. Darunter sind beispielswiese: Steuersätze und –tarife, Fahrzeugdaten, Kraftstoffpreise, Instandhaltungskosten, Versicherungsbeitrage, Wechselkurse und der durchschnittliche Wertverlust der Fahrzeuge. Darauf und auf bestimmten Annahmen basierend wurden die absoluten Abgaben für repräsentative Fahrzeuge in den verschiedenen Ländern berechnet. Besonderes Augenmerk gilt der CO2-orientierten Besteuerung, die in 17 Ländern (zumindest teilweise) eingeführt wurde. Diese Arbeit betrachtet auch andere, d. h. nicht fiskalische Maßnahmen der Europäischen Union zur CO2-Reduzierung, vergleicht diese mit alternativen Instrumenten, und analysiert die Wirkung unterschiedlicher Besteuerung auf den Pkw-Binnenmarkt, z. B. den Einfluss von Abgaben auf die europäischen Automobilpreise und damit auf Arbitrageeffekte. Es zeigt sich, dass die Besteuerung in Europa sowohl in der Abgabenhöhe als auch konzeptionell in der Vielzahl der Bemessungsgrundlagen und Steuertarife sehr heterogen ist und maßgeblich zu den sehr unterschiedlichen Gesamtkosten der Pkw-Nutzung beiträgt. Die relative Abgabenlast ist in einkommensstarken Ländern Westeuropas nicht hoch genug, um den Kraftstoffverbrauch spürbar zu reduzieren. Aus dem gleichen Grund ist von der CO2-orientierten Novellierung der deutschen Kfz-Steuer kein ausreichender Kaufanreiz zugunsten effizienterer Fahrzeuge zu erwarten. Die in der Vergangenheit von der Europäischen Union eingeführten Instrumente zur Reduzierung von CO2-Emissionen aus dem Straßenverkehr führten nicht zu den erwünschten Emissionsverringerungen. Die jüngste Maßnahme der Europäischen Union, den Automobilherstellern Emissionsgrenzen vorzuschreiben, ist weder effektiv noch effizient. Im letzten Jahrzehnt haben sich die Automobilpreise in Europa zwar etwas angeglichen. Dies liegt weniger an einer Angleichung in der Besteuerung als an der schrittweisen Liberalisierung des europäischen Automobilmarktes und den Novellierungen der Gruppenfreistellungsverordnung. N2 - The automotive industry is currently one of the most important industries in Europe. Approximately 2.2 million people are directly employed in this industry, and an additional 9.8 million jobs indirectly depend on it. This represents 6 percent of all jobs in Europe. A significant amount of Europe’s gross domestic product is generated in this sector which produces a turnover of approximately € 780 billion per year. Governments, consumers and car manufacturers have a significant interest in a flourish automotive industry: 80 % of all European households own a car and rely on it in their day to day life and the European member states are collecting approximately € 380 billion in tax revenue from the automotive industry. One of the problems caused by the automotive sector are the carbon dioxide (CO2) emissions and their impact on the environment. 20 % of all CO2 emissions in Europe are currently caused by cars, being a major contributor to climate change. The contribution has increased from 12% in 1970 and is expected to grow even further in the future. Consequently, several countries recently introduced taxes that consider carbon emissions with the aim to reduce the use of cars, or to incentivise the use of more fuel efficient vehicles. The automotive sector is not only relevant for the European Union’s (EU) climate policy, but for its broader goal to ensure a functioning internal market with free movement of people, goods, services, and capital. However, the degree to which a free internal market can be achieved also depends on the homogeneity of the tax system throughout the EU. To date, taxes and other duties are still very heterogeneous across the EU, due to the lack of binding regulations and directives with respect to taxes – in accordance with the principle of subsidiarity embedded in the Maastricht treaty. These differences affect the automotive sector, for example in terms of demand for diesel cars, or the average number of years that a car is used. More importantly, market distortions can still be observed in the automotive sector: Heterogeneous tax systems lead to vastly different car prices within the EU, e.g. cars are up to 37% cheaper in Denmark than in Germany. This study compares and analyses - both quantitatively and qualitatively - taxes and duties on cars in connection with their purchase and registration, ownership and tenure as well as use. The analysis covers all 27 EU member countries, Switzerland and Norway. For the quantitative analysis, a software based database and simulation tool was developed. This tool contains all relevant data, such as tax rates, tax scales, car characteristics, fuel prices, car maintenance costs or depreciation rates. The simulation tool uses the data to calculate taxes and duties for a number of specific cars models (selected representatively covering all segments) for each of the 29 countries, relying on certain assumptions where necessary. The analysis focuses particularly on taxes introduced to reduce the CO2 emission of cars in the EU, namely CO2 based taxes of motor vehicles, which have been introduced in 17 of the 29 countries. This thesis also considers other, non fiscal measures of the EU that are designed to reduce CO2 emis¬sions of cars. These measures are subsequently analysed and compared to other instruments in order to understand the impact of different taxation models on the European internal car market, for example, with respect to car prices in the EU and hence potential for arbitrage. The thesis demonstrates that material differences in taxation of cars exist, both regarding the total amount of taxes levied in similar circumstances, but also regarding the underlying concepts and bases for assessment. This heterogeneity results in vastly different costs of purchasing, owning and driving a car. In the relatively wealthy countries in Western Europe, costs are not sufficiently high to have a notable impact on the consumption of fuel. This is also why the new German tax on car ownership, although based on the average fuel consumption, is not expected to create a significant incentive for consumers to buy more fuel efficient cars. Similarly, the EU measures to reduce CO2 emissions of car usage failed to deliver the desired outcomes. The most recent instrument of the EU, prescribing emission thresholds for car manufacturers, is neither effective nor efficient. The thesis also shows that during the last ten years car prices in the countries of Europe have converged. However, this is less due to the increasing similarities in taxation, but instead due to the gradual liberalisation of the European car market and the renewal of the block exemption for the motor vehicle sector. KW - Besteuerung KW - Kfz KW - Automobil KW - Gruppenfreistellungsverordnung KW - CO₂ KW - car KW - automotive KW - vehicle KW - taxation KW - carbon dioxide KW - block exemption Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60269 SN - 978-3-86956-197-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Kamann, Sebastian T1 - Crowded field spectroscopy and the search for intermediate-mass black holes in globular clusters T1 - Spektroskopie dichter Sternfelder und die Suche nach mittelschweren schwarzen Löchern in Kugelsternhaufen N2 - Globular clusters are dense and massive star clusters that are an integral part of any major galaxy. Careful studies of their stars, a single cluster may contain several millions of them, have revealed that the ages of many globular clusters are comparable to the age of the Universe. These remarkable ages make them valuable probes for the exploration of structure formation in the early universe or the assembly of our own galaxy, the Milky Way. A topic of current research relates to the question whether globular clusters harbour massive black holes in their centres. These black holes would bridge the gap from stellar mass black holes, that represent the final stage in the evolution of massive stars, to supermassive ones that reside in the centres of galaxies. For this reason, they are referred to as intermediate-mass black holes. The most reliable method to detect and to weigh a black hole is to study the motion of stars inside its sphere of influence. The measurement of Doppler shifts via spectroscopy allows one to carry out such dynamical studies. However, spectroscopic observations in dense stellar fields such as Galactic globular clusters are challenging. As a consequence of diffraction processes in the atmosphere and the finite resolution of a telescope, observed stars have a finite width characterized by the point spread function (PSF), hence they appear blended in crowded stellar fields. Classical spectroscopy does not preserve any spatial information, therefore it is impossible to separate the spectra of blended stars and to measure their velocities. Yet methods have been developed to perform imaging spectroscopy. One of those methods is integral field spectroscopy. In the course of this work, the first systematic study on the potential of integral field spectroscopy in the analysis of dense stellar fields is carried out. To this aim, a method is developed to reconstruct the PSF from the observed data and to use this information to extract the stellar spectra. Based on dedicated simulations, predictions are made on the number of stellar spectra that can be extracted from a given data set and the quality of those spectra. Furthermore, the influence of uncertainties in the recovered PSF on the extracted spectra are quantified. The results clearly show that compared to traditional approaches, this method makes a significantly larger number of stars accessible to a spectroscopic analysis. This systematic study goes hand in hand with the development of a software package to automatize the individual steps of the data analysis. It is applied to data of three Galactic globular clusters, M3, M13, and M92. The data have been observed with the PMAS integral field spectrograph at the Calar Alto observatory with the aim to constrain the presence of intermediate-mass black holes in the centres of the clusters. The application of the new analysis method yields samples of about 80 stars per cluster. These are by far the largest spectroscopic samples that have so far been obtained in the centre of any of the three clusters. In the course of the further analysis, Jeans models are calculated for each cluster that predict the velocity dispersion based on an assumed mass distribution inside the cluster. The comparison to the observed velocities of the stars shows that in none of the three clusters, a massive black hole is required to explain the observed kinematics. Instead, the observations rule out any black hole in M13 with a mass higher than 13000 solar masses at the 99.7% level. For the other two clusters, this limit is at significantly lower masses, namely 2500 solar masses in M3 and 2000 solar masses in M92. In M92, it is possible to lower this limit even further by a combined analysis of the extracted stars and the unresolved stellar component. This component consists of the numerous stars in the cluster that appear unresolved in the integral field data. The final limit of 1300 solar masses is the lowest limit obtained so far for a massive globular cluster. N2 - Kugelsternhaufen sind dichte, gravitativ gebundene Ansammlungen von teilweise mehreren Millionen Sternen, die ein fester Bestandteil jeder massiven Galaxie sind. Aus der Untersuchung der Kugelsternhaufen in der Milchstraße weiß man, dass das Alter von vielen dieser Objekte vergleichbar ist mit jenem des Universums. Dies macht sie zu wertvollen Forschungsobjekten, beispielsweise um die Entstehung der Milchstraße und die Strukturbildung im frühen Universum zu verstehen. Eine aktuelle wissenschaftliche Fragestellung befasst sich damit, ob Kugelsternhaufen massive schwarze Löcher beherbergen. Diese würden eine Brücke schlagen von den stellaren schwarzen Löchern, die durch den Kollaps massereicher Sterne entstehen, zu den supermassiven schwarzen Löchern, welche man in den Zentren massiver Galaxien beobachtet. Man bezeichnet sie daher auch als mittelschwere schwarze Löcher. Die sicherste Diagnostik, um schwarze Löcher zu detektieren und ihre Masse zu bestimmen ist, die Bewegung der Sterne innerhalb ihrer gravitativen Einflusssphäre zu vermessen. Spektroskopische Untersuchungen vermögen dies über die Dopplerverschiebung von Spektrallinien, sind jedoch in dichten stellaren Feldern wie Kugelsternhaufen schwierig. Aufgrund der Turbulenz in der Atmosphäre und dem endlichen Auflösungsvermögen des Teleskops erscheinen die Sterne in den Beobachtungen nicht punktförmig, sondern mit einer durch die Punktspreizfunktion (PSF) gegebenen Breite. In dichten stellaren Feldern führt dies dazu, dass die Sterne überlappen. Da klassische spektroskopische Verfahren nicht bildgebend sind, lassen sich die Beiträge der Einzelsterne zu einem beobachteten Spektrum nicht trennen und die Geschwindigkeiten der Sterne können nicht vermessen werden. Bildgebende spektroskopische Verfahren, wie etwa die Integralfeld-Spektroskopie, bieten jedoch die Möglichkeit, die PSF zu rekonstruieren und basierend darauf die Spektren überlappender Sterne zu trennen. Im Rahmen der vorgelegten Arbeit wird das Potential der Integralfeld-Spektroskopie in der Beobachtung dichter stellarer Felder zum ersten Mal systematisch analysiert. Hierzu wird eine Methodik entwickelt, die das Extrahieren von Einzelsternspektren über eine Rekonstruktion der PSF aus den vorhandenen Daten erlaubt. Anhand von Simulationen werden Voraussagen darüber gemacht, wie viele Sternspektren aus einem gegebenen Datensatz extrahiert werden können, welche Qualität diese Spektren haben und wie sich Ungenauigkeiten in der rekonstruierten PSF auf die Analyse auswirken. Es zeigt sich hierbei, dass die entwickelte Methodik die spektroskopische Analyse von deutlich mehr Sternen erlaubt als klassische Verfahren. Parallel zu dieser systematischen Studie erfolgt die Entwicklung einer dezidierten Analysesoftware, welche im zweiten Teil der Arbeit auf Daten von drei Kugelsternhaufen angewendet wird, die mit dem PMAS Integralfeld-Spektrographen am Calar Alto Observatorium aufgenommen wurden: M3, M13 und M92. Die Auswertung dieser Daten liefert Spektren für eine Stichprobe von ungefähr 80 Sternen pro Kugelsternhaufen, weit mehr als bisher im Zentrum eines der drei Haufen verfügbar waren. In der weiteren Analyse werden Jeans Modelle für jedes der drei Objekte gerechnet. Diese erlauben basierend auf einer angenommenen Massenverteilung innerhalb des Kugelsternhaufens eine Vorhersage der Geschwindigkeitsdispersion der Sterne. Der Vergleich mit den gemessenen Geschwindigkeiten zeigt, dass in keinem der drei Haufen ein schwarzes Loch benötigt wird, um die Dynamik der zentrumsnahen Sterne zu erklären. Im Gegenteil, die Beobachtungen können zu 99,7-prozentiger Sicherheit ausschließen, dass sich in M13 ein schwarzes Loch mit einer Masse größer 13000 Sonnenmassen befindet. In den anderen beiden Haufen liegt diese Grenze noch bei deutlich geringeren Massen, nämlich bei 2500 Sonnenmassen in M3 und 2000 Sonnenmassen in M92. In M92 ist es außerdem möglich, das Limit noch weiter herabzusetzen durch eine zusätzliche Analyse der unaufgelösten stellaren Komponente. Diese Komponente besteht aus dem integrierten Licht all jener Sterne, die zu schwach und zahlreich sind als dass sie aus den verfügbaren Daten einzeln extrahiert werden könnten. Das endgültige Limit von 1300 Sonnenmassen ist das geringste, welches bisher in einem massiven Kugelsternhaufen gemessen wurde. KW - Kugelsternhaufen KW - Sterndynamik KW - Physik schwarzer Löcher KW - Integralfeld-Spektroskopie KW - PSF Analyse KW - globular clusters KW - stellar dynamics KW - black hole physics KW - integral field spectroscopy KW - PSF fitting Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67763 ER - TY - THES A1 - Junick, Jana T1 - Einfluss von Synbiotika auf die intestinale Mikrobiota gesunder Neugeborener T1 - Effect of starter formula with synbiotics on the intestinal microbiota of healthy newborn infants N2 - Hintergrund: Gestillte Kinder haben im Vergleich zu nicht gestillten Kindern eine geringere Inzidenz von gastrointestinalen Infektionen und atopischen Erkrankungen. Man geht davon aus, dass der gesundheitsfördernde Effekt der Muttermilch teilweise über die intestinale Mikrobiota vermittelt wird. Diese ist in Stillkindern durch eine geringe Diversität und einen hohen Anteil an Bifidobakterien charakterisiert. Neueste Ansätze in der Weiterentwicklung industriell hergestellter Säuglingsnahrung zielen darauf ab, eine intestinale Mikrobiota zu fördern, die der von gestillten Kindern ähnelt. Die Supplementation von Säuglingsnahrung mit Probiotika (lebende Mikroorganismen) oder Präbiotika (unverdauliche Kohlenhydrate, die als Energiesubstrat für probiotische Bakterien dienen) könnte die bifidogene und antipathogene, aber auch immunmodulierende Wirkung der Muttermilch nachahmen. Aufgrund unterschiedlicher Interaktionen mit der Darmmikrobiota und dem Immunsystem fokussiert man mit der gleichzeitigen Gabe von Pro- und Präbiotika (Synbiotika) eine synergistische Wirkung an. Zielstellung und Studiendesign: In einer randomisiert-kontrollierten, klinischen Studie wurde untersucht, ob sich in den ersten drei Lebensmonaten von gesunden und termingerecht geborenen Kindern mit einer Synbiotikum-haltigen Säuglingsnahrung eine intestinale Mikrobiota etabliert, die der von gestillten Kindern gleicht. Das Synbiotikum setzte sich aus Bifidobacterium animalis ssp. lactis CNCM I 3446 (ältere Bezeichnung B. lactis BB-12) und Kuhmilcholigosacchariden zusammen. Die Studie umfasste zwei Gruppen von Kindern, die eine Säuglingsnahrung mit (SYN-Gruppe, n=21) oder ohne Supplement (KON-Gruppe, n=18) erhielten. Gestillte Kinder dienten als Referenz (REF-Gruppe, n=23). Um die Diversität der Bifidobakterien auf Speziesebene umfassend zu charakterisieren, wurden quantitative Real-Time PCR (qPCR)-Verfahren, basierend auf dem single-copy groEL als phylogenetisches Zielgen, zur spezifischen Quantifizierung von zwölf Bifidobakterienspezies in humanen Fäzes entwickelt und validiert. Ergebnisse: Die supplementierte Säuglingsnahrung war gut verträglich und unterstützte eine gesunde Entwicklung; vergleichbare anthropometrische Daten von SYN- und REF-Gruppe. Das Synbiotikum stimulierte selektiv das Wachstum von Laktobazillen und Bifidobakterien. Die Zellzahl für Laktobazillen der SYN-Gruppe war zur REF-Gruppe äquivalent (9,07±0,32 versus 9,90±0,27 log10 Zellen/g Fäzes TM [MW±SEM]; p<0,0019; Äquivalenzdifferenz von 1 log10 Zellen/g Fäzes TM) und höher als in der KON-Gruppe (8,27±0,31 log10 Zellen/g Fäzes TM [MW±SEM]). Die Zellzahl für Bifidobakterien war in der SYN-Gruppe am höchsten (11,54±0,05 versus 11,00±0,17 [REF-Gruppe] und 10,54±0,24 [KON-Gruppe] log10 Zellen/g Fäzes TM [MW±SEM]). In der SYN-Gruppe wurde die höchste Anzahl an Bifidobakterienspezies erfasst (167 mit [128 ohne] B. animalis in 56 Fäzesproben versus 98 und 93 in jeweils 51 Fäzesproben der REF- und KON-Gruppe). Neben Kinder-typischen Spezies wie B. bifidum und B. breve wurden auch Spezies, die für Erwachsene charakteristisch sind (B. adolescentis), häufiger in der SYN-Gruppe als in den Vergleichsgruppen nachgewiesen. Der pH-Wert in Fäzes von Kindern aus der SYN-Gruppe war niedriger als der aus der KON-Gruppe (6,07±0,20 versus 6,45±0,17 [MW±SEM]) und näher an dem von gestillten Kindern mit 5,29±0,12 (MW±SEM). Schlussfolgerung: Die Supplementation einer Säuglingsnahrung mit dem Synbiotikum aus CNCM I-3446 und Kuhmilcholigosacchariden führte zu einer Angleichung in der Zusammensetzung der intestinalen Mikrobiota und des fäkalen pH-Wertes an gestillte Kinder. Die in dieser Arbeit entwickelten groEL-basierten qPCR-Verfahren erlaubten eine spezifische und genaue Analyse der Bifidobakterienpopulation unter dem Einfluss eines Synbiotikums. N2 - Background: Compared to formula-fed infants, breast-fed infants have a reduced incidence of gastrointestinal infections and atopic diseases. The health-promoting effect of breast milk is assumed to be partly mediated by the intestinal microbiota, which is characterized by a low diversity and a high proportion of bifidobacteria. Recent approaches in further development of infant formulae aim at promoting an intestinal microbiota similar to that of breast-fed infants. The supplementation of infant formula with probiotics (live microorganisms) or prebiotics (non-digestible carbohydrates, which serves as energy substrates for probiotic bacteria) could mimic the bifidogenic and antipathogenic, but also immunomodulating effect of breast milk. Due to various interactions with the gut microbiota and the immune system, the simultaneous administration of pro- and prebiotics (synbiotics) is focussed to have a synergistic effect. Objective and study design: In a randomized-controlled, clinical trial healthy full-term infants receiving an infant formula with synbiotic for the first three months of life were studied, whether an intestinal microbiota is induced, which is equivalent to that of breast-fed infants. The synbiotic consisted of Bifidobacterium animalis ssp. lactis CNCM I 3446 (previously known as B. lactis BB-12) and cow milk oligosaccharides. The study comprised two groups of infants receiving a starter formula with (SYN-group, n=21) or without supplement (KON-group, n=18). Breast-fed infants served as a reference (REF-group, n=23). In order to comprehensively characterize the bifidobacteria diversity at species level, quantitative real-time PCR (qPCR) assays based on the single-copy groEL as phylogenetic marker for the specific quantification of twelve bifidobacteria species in human feces were established and validated. Results: The supplemented formula was well tolerated and supported a healthy development; comparable anthropometric data of SYN- and REF-group. The synbiotic selectively stimulated the growth of lactobacilli and bifidobacteria. Lactobacilli levels were equivalent in SYN- and REF-group (9.07±0.32 versus 9.90±0.27 log10 cells/g feces DM [Mean±SEM]; p<0.0019; equivalence margin of 1 log10 cells/g feces DM) and higher than the KON-group (8.27±0.31 log10 cells/g feces DM [Mean±SEM]). The highest levels of bifidobacteria were observed in the SYN-group (11.54±0.05 versus 11.00±0.17 [REF-group] and 10.54±0.24 [KON-group] log10 cells/g feces DM [Mean±SEM]). The highest number of bifidobacteria species were obtained in the SYN-group (167 with [128 without] B. animalis in 56 fecal samples versus 98 and 93 in each of 51 fecal samples of the REF- and KON-group). Beside species, typically found in infants such as B. bifidum und B. breve, also species, which are characteristic for adults (B. adolescentis), were detected more often in the SYN-group than in the other study groups. Fecal pH was lower in the SYN- than in the KON-group 6.07±0.20 versus 6.45±0.17 [Mean±SEM]) and closer to that of breast-fed infants (5.29±0.12 [Mean±SEM]). Conclusion: In infants fed a starter formula supplemented with a synbiotic (CNCM I-3446 and cow milk oligosaccharides), composition of intestinal microbiota and fecal pH were closer to that of breast-fed infants. The groEL-based qPCR-assays, developed in this study, allowed a specific and accurate analysis of the bifidobacterial population in response to the synbiotic intake. KW - Synbiotika KW - Säuglingsnahrung KW - intestinale Mikrobiota KW - Bifidobacterium KW - groEL KW - synbiotics KW - starter formula KW - intestinal microbiota KW - bifidobacterium KW - groEL Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69525 ER - TY - THES A1 - Jung, Heike T1 - Führungsauffassungen von Unternehmen in ländlichen Kleinbetrieben der westlichen Mongolei : eine Analyse der Führungspraxis im Kontext neocharismatischer Theorieansätze T1 - SMEs and entrepreneurs in West Mongolia : an examination of leadershipstyles against the background of neocharismatic theory approaches N2 - Der Transformationsprozess in der Mongolei stellt besonders für den wirtschaftlichen Bereich eine große Herausforderung dar. Bei der Umgestaltung von der Plan-zur Marktwirtschaft nehmen dabei Führungskräfte eine Schlüsselfunktion ein, da sie wesentlichen Einfluss auf den Gestaltungsprozess der sich neu orientierenden Unternehmen haben. Die Arbeit untersucht das Verhältnis der Führungskräfte zu ihren Mitarbeitern vor dem Hintergrund neocharismatischer Theorieansätze und kommt zum dem Schluss, dass es Hinweise auf transformationale Führung gibt. Dabei nehmen Gruppenprozesse, die Person der Führungskraft sowie traditionelle und sozialistisch sozialisierte Elemente zentrale Rollen ein. Des Weiteren gibt es Verweise auf Konzepte der Authentizität und der Geteilten Führung. N2 - The postsocialist transformation process in Mongolia represents - particularly for the ecnomic sector - a major challenge.With the transformation of the planned economy to a free enterprise economy top executive personnel, especially entrepreneurs, have a key function, since they have substantial influence on the reorganization process of the newly orienting enterprises. The dissertation examines the relationship of entrepreneurs and top executives to their employees against the background of neocharismatic theory approaches and comes to the conclusion that there are thoroughly indications referring to a transformational leadership. Group processes, the personalities of top executives as well as traditional and socialistically socialized elements play a central role. Moreover there are references to concepts of authenticity and shared leadership. KW - Mongolei KW - Führungspraxis KW - Kleintriebe KW - Land KW - transformational KW - Mongolia KW - leadership KW - SME KW - countryside KW - transformational Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72459 ER - TY - THES A1 - Jaiser, Ralf T1 - Dreidimensionale Diagnostik der großskaligen Zirkulation der Tropo- und Stratosphäre T1 - Three-dimensional diagnostics of the large-scale circulation in the troposphere and stratosphere N2 - In dieser Arbeit werden Konzepte für die Diagnostik der großskaligen Zirkulation in der Troposphäre und Stratosphäre entwickelt. Der Fokus liegt dabei auf dem Energiehaushalt, auf der Wellenausbreitung und auf der Interaktion der atmosphärischen Wellen mit dem Grundstrom. Die Konzepte werden hergeleitet, wobei eine neue Form des lokalen Eliassen-Palm-Flusses unter Einbeziehung der Feuchte eingeführt wird. Angewendet wird die Diagnostik dann auf den Reanalysedatensatz ERA-Interim und einen durch beobachtete Meerestemperatur- und Eisdaten angetriebenen Lauf des ECHAM6 Atmosphärenmodells. Die diagnostischen Werkzeuge zur Analyse der großskaligen Zirkulation sind einerseits nützlich, um das Verständnis der Dynamik des Klimasystems weiter zu fördern. Andererseits kann das gewonnene Verständnis des Zusammenhangs von Energiequellen und -senken sowie deren Verknüpfung mit synoptischen und planetaren Wellensystemen und dem resultierenden Antrieb des Grundstroms auch verwendet werden, um Klimamodelle auf die korrekte Wiedergabe dieser Beobachtungen zu prüfen. Hier zeigt sich, dass die Abweichungen im untersuchten ECHAM6-Modelllauf bezüglich des Energiehaushalts klein sind, jedoch teils starke Abweichungen bezüglich der Ausbreitung von atmosphärischen Wellen existieren. Planetare Wellen zeigen allgemein zu große Intensitäten in den Eliassen-Palm-Flüssen, während innerhalb der Strahlströme der oberen Troposphäre der Antrieb des Grundstroms durch synoptische Wellen verfälscht ist, da deren vertikale Ausbreitung gegenüber den Beobachtungen verschoben ist. Untersucht wird auch der Einfluss von arktischen Meereisänderungen ausgehend vom Bedeckungsminimum im August/September bis in den Winter. Es werden starke positive Temperaturanomalien festgestellt, welche an der Oberfläche am größten sind. Diese führen vor allem im Herbst zur Intensivierung von synoptischen Systemen in den arktischen Breiten, da die Stabilität der troposphärischen Schichtung verringert ist. Im darauffolgenden Winter stellen sich barotrope bis in die Stratosphäre reichende Änderungen der großskaligen Zirkulation ein, welche auf Meereisänderungen zurückzuführen sind. Der meridionale Druckgradient sinkt und führt so zu einem Muster ähnlich einer negativen Phase der arktischen Oszillation in der Troposphäre und einem geschwächten Polarwirbel in der Stratosphäre. Diese Zusammenhänge werden ebenfalls in einem ECHAM6-Modelllauf untersucht, wobei vor allem der Erwärmungstrend in der Arktis zu gering ist. Die großskaligen Veränderungen im Winter können zum Teil auch im Modelllauf festgestellt werden, jedoch zeigen sich insbesondere in der Stratosphäre Abweichungen für die Periode mit der geringsten Eisausdehnung. Die vertikale Ausbreitung planetarer Wellen von der Troposphäre in die Stratosphäre ist in ECHAM6 mit sehr großen Abweichungen wiedergegeben. Somit stellt die Wellenausbreitung insgesamt den größten in dieser Arbeit festgestellten Mangel in ECHAM6 dar. N2 - In this study concepts for the diagnostics of the large-scale circulation in the troposphere and the stratosphere are developed. Therefore the energy budget, wave propagation and the interaction between waves and the mean flow are analyzed. A corresponding set of diagnostic methods is derived. Furthermore a new type of localized Eliassen Palm Fluxes including moisture fluxes is introduced. These diagnostic methods are then applied to the ERA-Interim reanalysis and to a run of the ECHAM6 atmospheric model forced with observed sea surface temperatures and sea ice data. The diagnostics of the large scale circulation are useful to enhance the understanding of the climate system dynamics. Furthermore the knowledge of the relation between energy sources and sinks, atmospheric waves on planetary and synoptic scales and their forcing of the mean flow is applicable to validate global climate models. The results presented here show small deviations in terms of the energy balance in ECHAM6 but large discrepancies in terms of wave propagation. On the one hand Eliassen Palm fluxes connected to planetary waves are generally too strong. On the other hand the mean flow forcing within upper tropospheric jet streams by synoptic scale waves does not agree with observations, since the vertical propagation is shifted. A second part of this study analyses the influence of Arctic sea ice anomalies at the sea ice minimum in August/September on atmospheric conditions. Strong positive temperature anomalies with their maximum at the surface are observed. In autumn they lead to intensified synoptic scale systems, because of a reduced atmospheric vertical stability. A large-scale barotropic circulation pattern up to the stratosphere appears in winter related to previous late summer sea ice changes. A reduced meridional pressure gradient leads to a pattern related to a negative phase of the Arctic Oscillation in the troposp here as well as related to a weaker stratospheric polar vortex. The same analysis performed with an ECHAM6 model run shows a too small warming of Arctic latitudes. While tropospheric changes in the Arctic are covered by the model to some degree, the stratosphere shows large discrepancies in reproducing the observed changes in the low ice period. The vertical propagation of planetary waves from the troposphere into the stratosphere is reproduced with large differences. Accordingly this study shows the largest errors in ECHAM6 related to atmospheric wave propagation. KW - Energiehaushalt KW - Wellenausbreitung KW - Meereis KW - Eliassen-Palm-Fluss KW - Klimawandel KW - energy budget KW - wave propagation KW - sea ice KW - Eliassen Palm Flux KW - climate change Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69064 ER - TY - THES A1 - Jahnke, Dörte T1 - Gestörtes Essverhalten im familialen Kontext : Welche Rolle spielen mütterliche gewichts- und essstörungsrelevante Merkmale bei der Ausprägung gestörten Essverhaltens im Kindesalter? T1 - Disturbed eating behaviors in the familial context : What is the role of maternal weight and disordered eating characteristics in the occurrence of disturbed eating behaviors in childhood? N2 - Gewichts- und essstörungsrelevante Auffälligkeiten sind bereits im Kindesalter verbreitet. Neben genetischen Faktoren kommt auch die familiale Vermittlung gestörten Essverhaltens als Genesefaktor in Betracht. Ab dem Alter von zehn Jahren gibt es eine breite empirische Basis für die Verknüpfung gestörten Essverhaltens zwischen Müttern und ihren Kindern. Für das Alter unter zehn Jahren existiert bislang wenig gesichertes Wissen. Die Erforschung der spezifischen Wirkung des mütterlichen auf kindliches gestörtes Essverhalten ist jedoch im Hinblick auf Ansätze zur Prävention kindlicher Gewichts- und Essstörungen für dieses Alter von Bedeutung. Im Rahmen der vorliegenden Arbeit wurde gestörtes Essverhalten von Müttern und Kindern im Alter zwischen einem und zehn Jahren sowie die Beziehung gestörten Essverhaltens von Müttern und ihren Kindern in zwei Studien analysiert. Die erste Studie verfolgte das Ziel, gestörtes Essverhalten von Müttern und Kindern sowie deren Beziehung im Kontext mütterlichen Übergewichts zu analysieren. Es wurden 219 Mütter von Kindern im Alter von drei bis sechs Jahren befragt. In der zweiten Studie wurde neben mütterlichem Übergewicht die Rolle mütterlicher Essstörungssymptomatik fokussiert und in den Analysen des gestörten Essverhaltens von Kindern im Alter von einem bis zehn Jahren berücksichtigt. In die Untersuchung ging eine Stichprobe von 506 Müttern und deren Kindern ein. In beiden Studien beantworteten Mütter ein Fragebogenpaket, welches Instrumente zum gestörten Essverhalten der Mütter (emotionales, externales und gezügeltes Essverhalten) und gestörten Essverhalten des Kindes (emotionales und externales Essverhalten sowie Verlangen nach Essen) umfasste. In der zweiten Studie wurden darüber hinaus Primärsymptomatik einer Essstörung der Mutter (Schlankheitsstreben, Körperunzufriedenheit und bulimisches Essverhalten) und pathologisches Essverhalten der Kinder erfragt. Übergewichtige Mütter berichteten nicht nur höhere Ausprägungen emotionalen und externalen Essverhaltens, sondern auch mehr Schlankheitsstreben, Körperunzufriedenheit und bulimisches Essverhalten als normal- und untergewichtige Mütter. Insgesamt 26% der befragten Mütter der zweiten Studie berichteten eine relevante Essstörungssymptomatik, davon waren 62% übergewichtig. Für die Kinder konnten keine Geschlechtsunterschiede hinsichtlich des Essverhaltens nachgewiesen werden. Im Grundschulalter waren emotionales und pathologisches Essverhalten höher ausgeprägt als bei jüngeren Kindern. Kindliches Übergewicht war mit mehr emotionalem und externalem Essverhalten, Verlangen nach Essen sowie pathologischem Essverhalten verbunden. Das Vorliegen mütterlichen Übergewichts sowie einer mütterlichen Essstörungssymptomatik war mit höheren Ausprägungen v.a. emotionalen Essverhaltens des Kindes assoziiert. Die höchsten Ausprägungen emotionalen Essverhaltens zeigten Kinder, deren Mütter Übergewicht und eine komorbide Essstörungssymptomatik berichtet hatten. Darüber hinaus leisteten gestörte Essverhaltensweisen der Mutter über allgemeine und gewichtsspezifische Aspekte hinaus einen relevanten Beitrag zur Varianzaufklärung emotionalen und externalen Essverhaltens des Kindes. Dabei war emotionales und externales Essverhalten von Mutter und Kind spezifisch miteinander verknüpft. In der ersten Studie ließ sich im Rahmen eines Mediatormodells zeigen, dass die Beziehung zwischen mütterlichem BMI und emotionalem Essverhalten des Kindes vollständig durch das emotionale Essverhalten der Mutter vermittelt wurde. In der zweiten Studie moderierte das Alter des Kindes die Beziehung zwischen emotionalem Essverhalten von Müttern und ihren Kindern in Richtung einer signifikanten Assoziation ab dem Alter von 5,4 Jahren des Kindes. Die vorliegende Arbeit liefert deutliche Hinweise auf die Verknüpfung zwischen mütterlichen gewichts- und essstörungsrelevanten Merkmalen und kindlichem gestörtem Essverhalten. Die Befunde legen nahe, dass emotionales Essverhalten als spezifischer Übertragungsweg gewichts- und essbezogener Störungen zwischen Müttern und Kindern in Betracht kommt und in Präventionsansätzen berücksichtigt werden sollte. N2 - Overweight and eating-related disturbances are common problems already in childhood. In addition to genetic factors, the familial transmission of disturbed eating behaviors is discussed to contribute to these problems. Several studies found a significant relationship of disturbed eating behaviors between mothers and their children in preadolescence. Little is known about the age younger than ten years. With regard to activities to prevent overweight and eating disorders in this age group, examining the specific association of disturbed eating behaviors between mothers and children is of particular interest. The aim of the presented work was to analyze disturbed eating of mothers and children aged one to ten years, as well as the association of disturbed eating behaviors between mothers and their children, within two studies. The aim of the first study was to analyze disturbed eating behaviors in mothers and children and their relationship in the context of maternal overweight. 219 mothers of children aged three to six years participated. The focus of the second study was the role of maternal disordered eating beyond maternal overweight in disturbed eating behaviors of children aged one to ten years. 506 mothers and their children participated. In both studies, mothers were asked to fill in a set of questionnaires concerning their own disturbed eating (emotional, external and restraint eating) and disturbed eating of their children (emotional and external eating as well as food responsiveness). Furthermore, the second study included measures to evaluate disordered eating in mothers (drive for thinness, body dissatisfaction und bulimia) and disordered eating in children. Overweight mothers scored higher in emotional and external eating behavior, as well as in drive for thinness, body dissatisfaction and bulimia, than normal- and underweight mothers. In the second study, 26% of mothers reported relevant eating disorders, 62% of these mothers were also overweight. In children, no sex differences were found in disturbed eating behaviors. School-aged children scored higher in emotional and disordered eating than younger children. Overweight in children was associated with higher emotional and external eating, higher food responsiveness as well as higher disordered eating. Maternal overweight and maternal eating disorders were above all connected to higher emotional eating in children. The highest emotional eating showed children of mothers who reported overweight and eating disorders as well. In addition, after controlling for general and weight parameters, disturbed eating behaviors of mothers were able to account for an additional variance of emotional and external eating of their children. Emotional and external eating of mother and child were specifically associated. In the first study, maternal emotional eating completely mediated the relation between maternal BMI and emotional eating of children. In the second study, child’s age moderated the relation between maternal emotional eating and child’s emotional eating towards a significant association at the age of 5.4. The presented work highlights the relationship between characteristics of maternal weight and disordered eating and child’s disturbed eating. The findings suggest emotional eating as a specific transmission path of weight- and eating-related disturbances between mothers and their children, and therefore emotional eating should be integrated in prevention programs. KW - gestörtes Essverhalten KW - Übergewicht KW - Mütter KW - Kinder KW - Eltern-Kind-Assoziation KW - disturbed eating KW - overweight KW - mothers KW - children KW - parent-child-association Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65145 ER - TY - THES A1 - Inal, Sahika T1 - Responsive polymers for optical sensing applications T1 - Responsive Polymere für optische Sensoren N2 - LCST-type synthetic thermoresponsive polymers can reversibly respond to certain stimuli in aqueous media with a massive change of their physical state. When fluorophores, that are sensitive to such changes, are incorporated into the polymeric structure, the response can be translated into a fluorescence signal. Based on this idea, this thesis presents sensing schemes which transduce the stimuli-induced variations in the solubility of polymer chains with covalently-bound fluorophores into a well-detectable fluorescence output. Benefiting from the principles of different photophysical phenomena, i.e. of fluorescence resonance energy transfer and solvatochromism, such fluorescent copolymers enabled monitoring of stimuli such as the solution temperature and ionic strength, but also of association/disassociation mechanisms with other macromolecules or of biochemical binding events through remarkable changes in their fluorescence properties. For instance, an aqueous ratiometric dual sensor for temperature and salts was developed, relying on the delicate supramolecular assembly of a thermoresponsive copolymer with a thiophene-based conjugated polyelectrolyte. Alternatively, by taking advantage of the sensitivity of solvatochromic fluorophores, an increase in solution temperature or the presence of analytes was signaled as an enhancement of the fluorescence intensity. A simultaneous use of the sensitivity of chains towards the temperature and a specific antibody allowed monitoring of more complex phenomena such as competitive binding of analytes. The use of different thermoresponsive polymers, namely poly(N-isopropylacrylamide) and poly(meth)acrylates bearing oligo(ethylene glycol) side chains, revealed that the responsive polymers differed widely in their ability to perform a particular sensing function. In order to address questions regarding the impact of the chemical structure of the host polymer on the sensing performance, the macromolecular assembly behavior below and above the phase transition temperature was evaluated by a combination of fluorescence and light scattering methods. It was found that although the temperature-triggered changes in the macroscopic absorption characteristics were similar for these polymers, properties such as the degree of hydration or the extent of interchain aggregations differed substantially. Therefore, in addition to the demonstration of strategies for fluorescence-based sensing with thermoresponsive polymers, this work highlights the role of the chemical structure of the two popular thermoresponsive polymers on the fluorescence response. The results are fundamentally important for the rational choice of polymeric materials for a specific sensing strategy. N2 - Als Reaktion auf bestimmte äußere Stimuli ändern bestimmte wasserlösliche Polymere reversibel ihren physikalischen Zustand. Dieser Vorgang kann mithilfe von Fluorophoren, die in die Polymerstrukturen eingebaut werden und deren Fluoreszenzeigenschaften vom Polymer¬zustand abhängen, detektiert werden. Diese Idee ist der Ausgangspunkt der vorliegenden Arbeit, die sich damit beschäftigt, wie äußerlich induzierte Änderungen der Löslichkeit solcher Polymere mit kovalent gebundenen Fluorophoren in Wasser in ein deutlich messbares Fluoreszenzsignal übersetzt werden können. Dazu werden photophysikalische Phänomene wie Fluoreszenz-Resonanz¬energie¬transfer und Solvatochromie ausgenutzt. In Kombination mit einem responsiven Polymergerüst wird es möglich, verschiedene Stimuli wie Lösungs¬temperatur oder Ionenstärke, oder auch Assoziation-Dissoziation Reaktionen mit anderen Makromolekülen oder biochemische Bindungs¬reaktionen über die Änderung von Fluorezenz¬farbe bzw. –Intensität autonom mit bloßem Auge zu detektieren. Unter anderem wurde ein wässriger ratiometrischer Temperatur- und Salzsensor entwickelt, der auf der komplexen supramolekularen Struktur eines thermoresponsiven Copolymers und eines thiophenbasierten konjugierten Polyelektrolyts beruht. Die Anbindung solvato¬chromer Fluorophore erlaubte den empfindlichen Nachweis einer Temperatur¬änderung oder des Vorhandenseins von Analyten. Komplexere Phänomene wie das kompetitive Anbinden von Analyten ließen sich hochempfindlich steuern und auslesen, indem gleichzeitig die Sensitivität dieser Polymeren gegenüber der Temperatur und spezifischen Antikörpern ausgenutzt wurde. Überraschenderweise wiesen die hier untersuchten thermoresponsiven Polymere wie poly-N-isopropylacrylamid (pNIPAm) oder poly-Oligoethylenglykolmethacrylate (pOEGMA) große Unterschiede bzgl. ihrer responsiven optischen Eigenschaften auf. Dies erforderte eine ausführliche Charakterisierung des Fluoreszenz- und Aggregationsverhaltens, unter- und oberhalb des Phasenübergangs, im Bezug auf die chemische Struktur. Ein Ergebnis war, dass alle drei Polymertypen sehr ähnliche temperaturabhängige makroskopische Absorptionseigenschaften aufweisen, während sich die Eigenschaften auf molekularer Ebene, wie der Hydratisierungsgrad oder die intermolekulare Polymerkettenaggregation, bei diesen Polymeren sehr unterschiedlich. Diese Arbeit zeigt damit anhand zweier sehr etablierter thermoresponsiver Polymere, nämlich pNIPAm und pOEGMA, das die chemische Struktur entscheidend für den Einsatz dieser Polymere in fluoreszenzbasierten Sensoren ist. Diese Ergebnisse haben große Bedeutung für die gezielte Entwicklung von Polymermaterialien für fluoreszenzbasierte Assays. KW - Responsive Polymere KW - Fluoreszenz KW - Sensor KW - Konjugierten polyelektrolyt KW - responsive polymer KW - fluorescence KW - sensor KW - conjugated polyelectrolyte Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70806 ER - TY - THES A1 - Hölterhoff, Dieter T1 - Berufsbildende Schulen in den ostdeutschen Ländern am Neuanfang : eine Untersuchung zum Transformationsprozess am Beispiel der Oberstufenzentren im Land Brandenburg in den 1990er Jahren T1 - Vocational education schools in the East German federal states as a new beginning : an impact analysis of the transformation process on the example of the"Oberstufenzentren" in the federal state of Brandenburg in the 1990s N2 - Die Arbeit leistet einen Beitrag zum Transformationsprozess von der schulischen beruflichen Bildung der DDR hin zu den Oberstufenzentren im Land Brandenburg in den 1990er Jahren. Es wird die Triade der Faktoren Institutionentransfer, Personen- und Knowhow-Transfer und Finanztransfer analysiert. Die vollständige Umstrukturierung ist das berufsschulpädagogisch herausragende Ergebnis der Transformation. Es wird herausgearbeitet welche Folgerungen aus dem Transformationsprozess für berufsschulpolitische Reformprozesse zu ziehen sind. Dabei wird der Frage nachgegangen, ob die Übernahme des bundesrepublikanischen beruflichen Schulsystems zwangsläufig der Nutzung einer Blaupause gleichkam oder ob es auch abweichende Wege gegeben hat bzw. generell hätte geben können. Der Transformationsprozess wird nicht auf der Ebene der Einzelschulen, der curricularen und konkreten Ausgestaltung der verschiedenen Bildungsgänge und des Lehrkräfteeinsatzes untersucht, sondern auf der Ebene der Entwicklung der Rahmenbedingungen und der Strukturen der Oberstufenzentren, also auf der Metaebene der Policy als inhaltlicher Dimension von Politik. Damit liegt der Fokus auf dem System „Oberstufenzentrum“. Die Untersuchung dieses Systems klammert die Untersuchung der Handelnden aus: Die untere Schulaufsicht, die OSZ-Leitungen, die Lehrkräfte und nicht zuletzt die Schülerinnen und Schüler. Die Analyse dient dem Verständnis und der Interpretation dessen, was sich sowohl durch die bundesstaatlichen Vorgaben – Einigungsvertrag u.a. – als auch durch das berufsbildungs- und berufsschulpolitische Handeln beteiligter Akteure herausbilden konnte. Die inhaltliche Dimension des berufsbildungs- und berufsschulpolitischen Feldes innerhalb des politisch-administrativen Systems im engeren Sinn wird überwiegend bezogen auf die KMK untersucht; ebenso die externen Akteure und ihre Rolle. Es wird herausgearbeitet welche Folgerungen aus dem Transformationsprozess für berufsbildungs- und berufsschulpolitische Reformprozesse gezogen werden können. Gegenstand der Untersuchung sind ausgewählte Beiträge zu verschiedenen Aspekten der Entwicklung der Oberstufenzentren im Land Brandenburg. Gegenstand sind deshalb ausgewählte Rechtsgrundlagen, Fachaufsätze etc. sowie durch Arbeitspapiere dokumentierte Aspekte der berufsschul- und berufsbildungspolitischen Diskussion in der Wendezeit und nachfolgenden nach der Gründung des Landes Brandenburg. Anhand von Vergleichen der rechtlichen Ausgangslagen in den fünf ostdeutschen Ländern wird analysiert, ob es verfassungs- respektive schulrechtliche Besonderheiten gab, die zu unterschiedlichem ministeriellen Handeln führten bzw. führen mussten. Die wiedergegebenen Beiträge zur Entwicklung der Oberstufenzentren werden bezüglich der Relevanz von KMK-Beschlüssen bzw. -Rahmenvereinbarungen untersucht und kommentiert. Der Institutionentransfer besteht aus dem Beitritt der ostdeutschen Länder zur Geschäftsordnung der KMK, der daraus resultierenden Übernahme der Schulformen und Bildungsgänge einschließlich der rechtlichen Folgen durch Schaffung des Schulrechts in den Ländern. Der Personen- und Knowhow-Transfer fand auf der Ebene der entsandten Verwaltungsmitarbeiterinnen und -mitarbeiter der Kultusministerien und der Mittelbehörden statt. Für den Transformationsprozess während des hier interessierenden Untersuchungszeitraums werden Berufsschul- und berufsbildungspolitische Aspekte, bzw. im umfassenderen Sinne die der Berufsbildungswissenschaft erstmalig mit der vorliegenden Untersuchung reflektiert. Insofern kann diese als Beitrag zur historisch-berufsbildungswissenschaftlichen Forschung betrachtet werden. N2 - This study is a contribution to the transformation process of the vocational education system in the GDR toward the Oberstufenzentren in the state of Brandenburg in the 1990s. A triad of factors will be analysed: transfer of institutions, of personnel and knowhow and of finance. The complete restructuring is the characteristic result of this transformation process in the sector of vocational education. It will be worked out, which consequences should be drawn from the transformation process for reformation processes of the vocational education system. Thereby the question as to whether the adoption of the West German system of vocational training schools was comparable to the use of a blueprint or whether divergent paths would have been possible, is to be discussed. The transformation process will not be analysed on the level of the single vocational education schools, the curriculum, the different school levels and the use of teaching personnel but on the level of the development of general conditions and structures of "Oberstufenzentren”, on the meta level of policy as a dimension of politics as regards content. Therefore the focus is on the system of (the so-callled) ”Oberstufenzentren". The exploration of these systems excludes the exploration of the acting persons: supervision of schools, school management, teachers and students. This analysis serves for a deeper understanding and interpretation of national standards – for instance the Unification Treaty – and also for an understanding of the action frame of reference of vocational education politics and vocational training school politics by the involved participants. The dimension of contents in the vocational education and vocational training school field inside the political-administrative systems will be analysed by the KMK – The Standing Conference of the Ministers of Education and Cultural Affairs of the Länder in the Federal Republic of Germany; likewise the external actors and their role. The consequences of the transformation process for vocational education politics and vocational training school politics will be worked out. Selected works of different aspects of the development of ”Oberstufenzentren” in the land Brandenburg are the subject matter of the survey. This includes the analyses of selected legal basis, scientific papers etc., in combination with documents of vocational education discussion and vocational training school discussion in the political turning point following the formation of the federal state of Brandenburg. On the basis of the different legal initial positions in the five East German Länder it will be analyzed, whether there were constitutional or rather school law characteristics which led to /had to lead to different ministerial actions The reproduced articles on the development of ”Oberstufenzentren" will be analysed and commented with respect to the relevanz of KMK-decisions /. KMK-master agreements. The transfer of institutions is the accession of the East German federal states to the internal regulations of the KMK, the resulti is the takeover of school forms including the legal consequences by creating the school law in these states. The transfer of personnel and knowhow took place on the level of delegated members of school ministries of the Western federal states. For the transformation process in the surveyed time aspects of vocational education and vocational training or rather – on a more comprehensive level, the science of vocational training are going to be reflected for the first time, Therefore, this can be seen as a contribution to the historical-vocational training research. KW - Transformationsprozess KW - Oberstufenzentren KW - Deutsche Einheit KW - Berufsbildungswissenschaften KW - transformation process KW - Oberstufenzentren KW - Unification Treaty KW - science of vocational training KW - vocational training and education research Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69574 ER - TY - THES A1 - Hudjetz, Annekatrin T1 - Modelllernen im Ernährungskontext : mütterlicher und väterlicher Einfluss auf die Ernährung adipöser Kinder T1 - Observational learning and diet : maternal and paternal influence on the diet of obese children N2 - Adipositas ist eine chronische Erkrankung mit erheblichen Komorbiditäten und Folgeschäden, die bereits im Kindes- und Jugendalter weit verbreitet ist. Unterschiedliche Faktoren sind an der Ätiologie dieser Störung beteiligt. Die Ernährung stellt dabei eine der Hauptsäulen dar, auf welche immer wieder Bezug genommen wird. Der Einfluss der Eltern auf die kindliche Ernährung spielt unbestritten eine zentrale Rolle – hinsichtlich genetischer Dispositionen, aber auch als Gestalter der Lebensumwelten und Vorbilder im Ernährungsbereich. Die vorliegende Arbeit hat zum Ziel, Übereinstimmungen elterlicher und kindlicher Ernährung zu untersuchen und dabei zu prüfen, inwiefern Prozesse des Modelllernens für die Zusammenhänge verantwortlich zeichnen. Grundlage ist die sozial-kognitive Theorie Albert Banduras mit dem Fokus auf seinen Ausführungen zum Beobachtungs- oder Modelllernen. Die Zusammenhänge elterlicher und kindlicher Ernährung wurden anhand einer Stichprobe 7 – 13-jähriger adipöser Kinder und ihrer Eltern in Beziehung gesetzt zu den Bedingungen des Modelllernens, die zuvor auch in anderen Studien gefunden worden waren. Eine hohe Ähnlichkeit oder gute Beziehung zwischen Modell (Mutter bzw. Vater) und Lernendem (Kind) sollte demnach moderierend auf die Stärke des Zusammenhangs wirken. Aus Banduras Ausführungen zu den Phasen des Modelllernens ergibt sich zudem ein dritter Aspekt, der in das Untersuchungsmodell einbezogen wurde. Die von Bandura postulierte Aneignungsphase setzt voraus, dass das zu lernende Verhalten auch beobachtet werden kann. Aus diesem Grund sollte die Analyse von Zusammenhängen im Verhalten nicht losgelöst von der Zeit betrachtet werden, die Modell und Beobachter miteinander verbringen bzw. verbracht haben. Zudem wurde die Wahrnehmung eines Elternteils als Vorbild beim Kind erfragt und als Moderator aufgenommen. In die Analysen eingeschlossen wurden vollständige Mutter-Vater-Kind-Triaden. Im Querschnitt der Fragebogenerhebung waren die Daten von 171 Mädchen und 176 Jungen, in einem 7 Monate darauf folgenden Längsschnitt insgesamt 75 Triaden (davon 38 Mädchen) enthalten. Es zeigte sich ein positiver Zusammenhang zwischen der kindlichen und mütterlichen Ernährung ebenso wie zwischen der kindlichen und väterlichen Ernährung. Die Übereinstimmungen zwischen Mutter und Kind waren größer als zwischen Vater und Kind. Überwiegend bestätigt werden konnten der moderierende Einfluss der Beziehungsqualität und der Vorbildwahrnehmung auf die Zusammenhänge elterlicher und kindlicher gesunder Ernährung und der Einfluss gemeinsam verbrachter Zeit vor allem in Bezug auf Vater-Kind-Zusammenhänge problematischer Ernährung. Der väterliche Einfluss, der sowohl in Studien als auch in präventiven oder therapeutischen Angeboten oft noch vernachlässigt wird und in vorliegender Arbeit besondere bzw. gleichberechtigte Beachtung fand, zeigte sich durch den Einbezug moderierender Variablen verstärkt. Eine Ansprache von Müttern und Vätern gleichermaßen ist somit unbedingtes Ziel bei der Prävention und Therapie kindlicher Adipositas. Auch jenseits des Adipositaskontextes sollten Eltern für die Bedeutung elterlicher Vorbildwirkung sensibilisiert werden, um eine gesunde Ernährungsweise ihrer Kinder zu fördern. N2 - Obesity is a chronic illness common even in childhood and adolescence. It increases the risk of severe mental and physical conditions. The aetiology of the illness is diverse. Diet is one of the main factors linked to obesity. Parental influence on children’s diet has been frequently demonstrated. Parents play a crucial role, not only with regard to genetic disposition, but also by influencing the availability and accessibility of food and by serving as role models. This thesis focuses on the parent-child-correlations for diet. In a sample of obese children between the ages of 7 and 13 years, these correlations were applied to modelling processes based on the social-cognitive theory of Albert Bandura. Former studies have found the similarity or quality of the relationship between a model (mother or father) and an observer (child) to be among the factors influencing modelling. These factors are said to moderate the correlation between parents’ and children’s diet. Moreover, since behaviour has to be observed in what Bandura calls the ‘attention stage’, time spent together between model and observer is likewise considered important. The children’s perception of the parent acting as a role model was used as another potential moderator. Only complete sets of mother-father-child-triads were used for the analyses. Cross-sectional questionnaire data was gathered from 171 girl triads and 176 boy triads. A follow-up study, conducted 7 months after the first interview, resulted in 75 triads (of which 38 girl triads). Positive correlations were found between both child and mother and child and father. The mother-child-correlations were stronger than those between father and child. Moderator analyses predominantly revealed that the parent-child relationship and the perceived role model had a moderating effect on these correlations. In father-child-correlations where diet was problematic, the influence of the time parent and child spent together was found to be particularly strong. The father’s role, frequently neglected in obesity prevention and therapy, was clearly demonstrated when moderating factors were taken into account. Hence, addressing mothers and fathers and sensitising them to their function as models is essential – not only in the context of obesity, but also when targeting healthy nutrition in all children. KW - Adipositas KW - Ernährung KW - Eltern KW - Kinder KW - Modelllernen KW - obesity KW - diet KW - parents KW - children KW - modelling Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72336 ER - TY - THES A1 - Holz, Christian T1 - 3D from 2D touch T1 - 3D von 2D-Berührungen N2 - While interaction with computers used to be dominated by mice and keyboards, new types of sensors now allow users to interact through touch, speech, or using their whole body in 3D space. These new interaction modalities are often referred to as "natural user interfaces" or "NUIs." While 2D NUIs have experienced major success on billions of mobile touch devices sold, 3D NUI systems have so far been unable to deliver a mobile form factor, mainly due to their use of cameras. The fact that cameras require a certain distance from the capture volume has prevented 3D NUI systems from reaching the flat form factor mobile users expect. In this dissertation, we address this issue by sensing 3D input using flat 2D sensors. The systems we present observe the input from 3D objects as 2D imprints upon physical contact. By sampling these imprints at very high resolutions, we obtain the objects' textures. In some cases, a texture uniquely identifies a biometric feature, such as the user's fingerprint. In other cases, an imprint stems from the user's clothing, such as when walking on multitouch floors. By analyzing from which part of the 3D object the 2D imprint results, we reconstruct the object's pose in 3D space. While our main contribution is a general approach to sensing 3D input on 2D sensors upon physical contact, we also demonstrate three applications of our approach. (1) We present high-accuracy touch devices that allow users to reliably touch targets that are a third of the size of those on current touch devices. We show that different users and 3D finger poses systematically affect touch sensing, which current devices perceive as random input noise. We introduce a model for touch that compensates for this systematic effect by deriving the 3D finger pose and the user's identity from each touch imprint. We then investigate this systematic effect in detail and explore how users conceptually touch targets. Our findings indicate that users aim by aligning visual features of their fingers with the target. We present a visual model for touch input that eliminates virtually all systematic effects on touch accuracy. (2) From each touch, we identify users biometrically by analyzing their fingerprints. Our prototype Fiberio integrates fingerprint scanning and a display into the same flat surface, solving a long-standing problem in human-computer interaction: secure authentication on touchscreens. Sensing 3D input and authenticating users upon touch allows Fiberio to implement a variety of applications that traditionally require the bulky setups of current 3D NUI systems. (3) To demonstrate the versatility of 3D reconstruction on larger touch surfaces, we present a high-resolution pressure-sensitive floor that resolves the texture of objects upon touch. Using the same principles as before, our system GravitySpace analyzes all imprints and identifies users based on their shoe soles, detects furniture, and enables accurate touch input using feet. By classifying all imprints, GravitySpace detects the users' body parts that are in contact with the floor and then reconstructs their 3D body poses using inverse kinematics. GravitySpace thus enables a range of applications for future 3D NUI systems based on a flat sensor, such as smart rooms in future homes. We conclude this dissertation by projecting into the future of mobile devices. Focusing on the mobility aspect of our work, we explore how NUI devices may one day augment users directly in the form of implanted devices. N2 - Die Interaktion mit Computern war in den letzten vierzig Jahren stark von Tastatur und Maus geprägt. Neue Arten von Sensoren ermöglichen Computern nun, Eingaben durch Berührungs-, Sprach- oder 3D-Gestensensoren zu erkennen. Solch neuartige Formen der Interaktion werden häufig unter dem Begriff "natürliche Benutzungsschnittstellen" bzw. "NUIs" (englisch natural user interfaces) zusammengefasst. 2D-NUIs ist vor allem auf Mobilgeräten ein Durchbruch gelungen; über eine Milliarde solcher Geräte lassen sich durch Berührungseingaben bedienen. 3D-NUIs haben sich jedoch bisher nicht auf mobilen Plattformen durchsetzen können, da sie Nutzereingaben vorrangig mit Kameras aufzeichnen. Da Kameras Bilder jedoch erst ab einem gewissen Abstand auflösen können, eignen sie sich nicht als Sensor in einer mobilen Plattform. In dieser Arbeit lösen wir dieses Problem mit Hilfe von 2D-Sensoren, von deren Eingaben wir 3D-Informationen rekonstruieren. Unsere Prototypen zeichnen dabei die 2D-Abdrücke der Objekte, die den Sensor berühren, mit hoher Auflösung auf. Aus diesen Abdrücken leiten sie dann die Textur der Objekte ab. Anhand der Stelle der Objektoberfläche, die den Sensor berührt, rekonstruieren unsere Prototypen schließlich die 3D-Ausrichtung des jeweiligen Objektes. Neben unserem Hauptbeitrag der 3D-Rekonstruktion stellen wir drei Anwendungen unserer Methode vor. (1) Wir präsentieren Geräte, die Berührungseingaben dreimal genauer als existierende Geräte messen und damit Nutzern ermöglichen, dreimal kleinere Ziele zuverlässig mit dem Finger auszuwählen. Wir zeigen dabei, dass sowohl die Haltung des Fingers als auch der Benutzer selbst einen systematischen Einfluss auf die vom Sensor gemessene Position ausübt. Da existierende Geräte weder die Haltung des Fingers noch den Benutzer erkennen, nehmen sie solche Variationen als Eingabeungenauigkeit wahr. Wir stellen ein Modell für Berührungseingabe vor, das diese beiden Faktoren integriert, um damit die gemessenen Eingabepositionen zu präzisieren. Anschließend untersuchen wir, welches mentale Modell Nutzer beim Berühren kleiner Ziele mit dem Finger anwenden. Unsere Ergebnisse deuten auf ein visuelles Modell hin, demzufolge Benutzer Merkmale auf der Oberfläche ihres Fingers an einem Ziel ausrichten. Bei der Analyse von Berührungseingaben mit diesem Modell verschwinden nahezu alle zuvor von uns beobachteten systematischen Effekte. (2) Unsere Prototypen identifizieren Nutzer anhand der biometrischen Merkmale von Fingerabdrücken. Unser Prototyp Fiberio integriert dabei einen Fingerabdruckscanner und einen Bildschirm in die selbe Oberfläche und löst somit das seit Langem bestehende Problem der sicheren Authentifizierung auf Berührungsbildschirmen. Gemeinsam mit der 3D-Rekonstruktion von Eingaben ermöglicht diese Fähigkeit Fiberio, eine Reihe von Anwendungen zu implementieren, die bisher den sperrigen Aufbau aktueller 3D-NUI-Systeme voraussetzten. (3) Um die Flexibilität unserer Methode zu zeigen, implementieren wir sie auf einem großen, berührungsempfindlichen Fußboden, der Objekttexturen bei der Eingabe ebenfalls mit hoher Auflösung aufzeichnet. Ähnlich wie zuvor analysiert unser System GravitySpace diese Abdrücke, um Nutzer anhand ihrer Schuhsolen zu identifizieren, Möbelstücke auf dem Boden zu erkennen und Nutzern präzise Eingaben mittels ihrer Schuhe zu ermöglichen. Indem GravitySpace alle Abdrücke klassifiziert, erkennt das System die Körperteile der Benutzer, die sich in Kontakt mit dem Boden befinden. Aus der Anordnung dieser Kontakte schließt GravitySpace dann auf die Körperhaltungen aller Benutzer in 3D. GravitySpace hat daher das Potenzial, Anwendungen für zukünftige 3D-NUI-Systeme auf einer flachen Oberfläche zu implementieren, wie zum Beispiel in zukünftigen intelligenten Wohnungen. Wie schließen diese Arbeit mit einem Ausblick auf zukünftige interaktive Geräte. Dabei konzentrieren wir uns auf den Mobilitätsaspekt aktueller Entwicklungen und beleuchten, wie zukünftige mobile NUI-Geräte Nutzer in Form implantierter Geräte direkt unterstützen können. KW - HCI KW - Berührungseingaben KW - Eingabegenauigkeit KW - Modell KW - Mobilgeräte KW - HCI KW - touch input KW - input accuracy KW - model KW - mobile devices Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67796 ER - TY - THES A1 - Holsten, Anne T1 - Climate change vulnerability assessments in the regional context T1 - Studien zur Vulnerabilität gegenüber Klimawandel im regionalen Kontext N2 - Adapting sectors to new conditions under climate change requires an understanding of regional vulnerabilities. Conceptually, vulnerability is defined as a function of sensitivity and exposure, which determine climate impacts, and adaptive capacity of a system. Vulnerability assessments for quantifying these components have become a key tool within the climate change field. However, there is a disagreement on how to make the concept operational in studies from a scientific perspective. This conflict leads to many still unsolved challenges, especially regarding the quantification and aggregation of the components and their suitable level of complexity. This thesis therefore aims at advancing the scientific foundation of such studies by translating the concept of vulnerability into a systematic assessment structure. This includes all components and implies that for each considered impact (e.g. flash floods) a clear sensitive entity is defined (e.g. settlements) and related to a direction of change for a specific climatic stimulus (e.g. increasing impact due to increasing days with heavy precipitation). Regarding the challenging aggregation procedure, two alternative methods allowing a cross-sectoral overview are introduced and their advantages and disadvantages discussed. This assessment structure is subsequently exemplified for municipalities of the German state North Rhine-Westphalia via an indicator-based deductive approach using information from literature. It can be transferred also to other regions. As for many relevant sectors, suitable indicators to express the vulnerability components are lacking, new quantification methods are developed and applied in this thesis, for example for the forestry and health sector. A lack of empirical data on relevant thresholds is evident, for example which climatic changes would cause significant impacts. Consequently, the multi-sectoral study could only provide relative measures for each municipality, in relation to the region. To fill this gap, an exemplary sectoral study was carried out on windthrow impacts in forests to provide an absolute quantification of the present and future impact. This is achieved by formulating an empirical relation between the forest characteristics and damage based on data from a past storm event. The resulting measure indicating the sensitivity is then combined with wind conditions. Multi-sectoral vulnerability assessments require considerable resources, which often hinders the implementation. Thus, in a next step, the potential for reducing the complexity is explored. To predict forest fire occurrence, numerous meteorological indices are available, spanning over a range of complexity. Comparing their performance, the single variable relative humidity outperforms complex indicators for most German states in explaining the monthly fire pattern. This is the case albeit it is itself an input factor in most indices. Thus, this meteorological factor alone is well suited to evaluate forest fire danger in many Germany regions and allows a resource-efficient assessment. Similarly, the complexity of methods is assessed regarding the application of the ecohydrological model SWIM to the German region of Brandenburg. The inter-annual soil moisture levels simulated by this model can only poorly be represented by simpler statistical approach using the same input data. However, on a decadal time horizon, the statistical approach shows a good performance and a strong dominance of the soil characteristic field capacity. This points to a possibility to reduce the input factors for predicting long-term averages, but the results are restricted by a lack of empirical data on soil water for validation. The presented assessments of vulnerability and its components have shown that they are still a challenging scientific undertaking. Following the applied terminology, many problems arise when implementing it for regional studies. Advances in addressing shortcomings of previous studies have been made by constructing a new systematic structure for characterizing and aggregating vulnerability components. For this, multiple approaches were presented, but they have specific advantages and disadvantages, which should also be carefully considered in future studies. There is a potential to simplify some methods, but more systematic assessments on this are needed. Overall, this thesis strengthened the use of vulnerability assessments as a tool to support adaptation by enhancing their scientific basis. N2 - Die Anpassung von Sektoren an veränderte klimatische Bedingungen erfordert ein Verständnis von regionalen Vulnerabilitäten. Vulnerabilität ist als Funktion von Sensitivität und Exposition, welche potentielle Auswirkungen des Klimawandels darstellen, und der Anpassungsfähigkeit von Systemen definiert. Vulnerabilitätsstudien, die diese Komponenten quantifizieren, sind zu einem wichtigen Werkzeug in der Klimawissenschaft geworden. Allerdings besteht von der wissenschaftlichen Perspektive aus gesehen Uneinigkeit darüber, wie diese Definition in Studien umgesetzt werden soll. Ausdiesem Konflikt ergeben sich viele Herausforderungen, vor allem bezüglich der Quantifizierung und Aggregierung der einzelnen Komponenten und deren angemessenen Komplexitätsniveaus. Die vorliegende Dissertation hat daher zum Ziel die Anwendbarkeit des Vulnerabilitätskonzepts voranzubringen, indem es in eine systematische Struktur übersetzt wird. Dies beinhaltet alle Komponenten und schlägt für jede Klimaauswirkung (z.B. Sturzfluten) eine Beschreibung des vulnerablen Systems vor (z.B. Siedlungen), welches direkt mit einer bestimmten Richtung eines relevanten klimatischen Stimulus in Verbindung gebracht wird (z.B. stärkere Auswirkungen bei Zunahme der Starkregentage). Bezüglich der herausfordernden Prozedur der Aggregierung werden zwei alternative Methoden, die einen sektorübergreifenden Überblick ermöglichen, vorgestellt und deren Vor- und Nachteile diskutiert. Anschließend wird die entwickelte Struktur einer Vulnerabilitätsstudie mittels eines indikatorbasierten und deduktiven Ansatzes beispielhaft für Gemeinden in Nordrhein-Westfalen in Deutschland angewandt. Eine Übertragbarkeit auf andere Regionen ist dennoch möglich. Die Quantifizierung für die Gemeinden stützt sich dabei auf Informationen aus der Literatur. Da für viele Sektoren keine geeigneten Indikatoren vorhanden waren, werden in dieser Arbeit neue Indikatoren entwickelt und angewandt, beispielsweise für den Forst- oder Gesundheitssektor. Allerdings stellen fehlende empirische Daten bezüglich relevanter Schwellenwerte eine Lücke dar, beispielsweise welche Stärke von Klimaänderungen eine signifikante Auswirkung hervorruft. Dies führt dazu, dass die Studie nur relative Aussagen zum Grad der Vulnerabilität jeder Gemeinde im Vergleich zum Rest des Bundeslandes machen kann. Um diese Lücke zu füllen, wird für den Forstsektor beispielhaft die heutige und zukünftige Sturmwurfgefahr von Wäldern berechnet. Zu diesem Zweck werden die Eigenschaften der Wälder mit empirischen Schadensdaten eines vergangenen Sturmereignisses in Verbindung gebracht. Der sich daraus ergebende Sensitivitätswert wird anschließend mit den Windverhältnissen verknüpft. Sektorübergreifende Vulnerabilitätsstudien erfordern beträchtliche Ressourcen, was oft deren Anwendbarkeit erschwert. In einem nächsten Schritt wird daher das Potential einer Vereinfachung der Komplexität anhand zweier sektoraler Beispiele untersucht. Um das Auftreten von Waldbränden vorherzusagen, stehen zahlreiche meteorologische Indices zur Verfügung, welche eine Spannbreite unterschiedlicher Komplexitäten aufweisen. Bezüglich der Anzahl monatlicher Waldbrände weist die relative Luftfeuchtigkeit für die meisten deutschen Bundesländer eine bessere Vorhersagekraft als komplexere Indices auf. Dies ist er Fall, obgleich sie selbst als Eingangsvariable für die komplexeren Indices verwendet wird. Mit Hilfe dieses einzelnen meteorologischen Faktors kann also die Waldbrandgefahr in deutschen Region ausreichend genau ausgedrückt werden, was die Ressourceneffizienz von Studien erhöht. Die Methodenkomplexität wird auf ähnliche Weise hinsichtlich der Anwendung des ökohydrologischen Modells SWIM für die Region Brandenburg untersucht. Die interannuellen Bodenwasserwerte, welche durch dieses Modell simuliert werden, können nur unzureichend durch ein einfacheres statistisches Modell, welches auf denselben Eingangsdaten aufbaut, abgebildet werden. Innerhalb eines Zeithorizonts von Jahrzehnten, kann der statistische Ansatz jedoch das Bodenwasser zufriedenstellend abbilden und zeigt eine Dominanz der Bodeneigenschaft Feldkapazität. Dies deutet darauf hin, dass die Komplexität im Hinblick auf die Anzahl der Eingangsvariablen für langfristige Berechnungen reduziert werden kann. Allerdings sind die Aussagen durch fehlende beobachtete Bodenwasserwerte zur Validierung beschränkt. Die vorliegenden Studien zur Vulnerabilität und ihren Komponenten haben gezeigt, dass eine Anwendung noch immer wissenschaftlich herausfordernd ist. Folgt man der hier verwendeten Vulnerabilitätsdefinition, treten zahlreiche Probleme bei der Implementierung in regionalen Studien auf. Mit dieser Dissertation wurden Fortschritte bezüglich der aufgezeigten Lücken bisheriger Studien erzielt, indem eine systematische Struktur für die Beschreibung und Aggregierung von Vulnerabilitätskomponenten erarbeitet wurde. Hierfür wurden mehrere Ansätze diskutiert, die jedoch Vor- und Nachteile besitzen. Diese sollten vor der Anwendung von zukünftigen Studien daher ebenfalls sorgfältig abgewogen werden. Darüber hinaus hat sich gezeigt, dass ein Potential besteht einige Ansätze zu vereinfachen, jedoch sind hierfür weitere Untersuchungen nötig. Insgesamt konnte die Dissertation die Anwendung von Vulnerabilitätsstudien als Werkzeug zur Unterstützung von Anpassungsmaßnahmen stärken. KW - Klimawandel KW - Impakt KW - Vulnerabilität KW - Forstwirtschaft KW - Boden KW - climate change KW - impact KW - vulnerability KW - forestry KW - soil Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66836 ER - TY - THES A1 - Hohenstein, Sven T1 - Eye movements and processing of semantic information in the parafovea during reading T1 - Blickbewegungen und die Verarbeitung semantischer Informationen in der Parafovea beim Lesen N2 - When we read a text, we obtain information at different levels of representation from abstract symbols. A reader’s ultimate aim is the extraction of the meaning of the words and the text. The reserach of eye movements in reading covers a broad range of psychological systems, ranging from low-level perceptual and motor processes to high-level cognition. Reading of skilled readers proceeds highly automatic, but is a complex phenomenon of interacting subprocesses at the same time. The study of eye movements during reading offers the possibility to investigate cognition via behavioral measures during the excercise of an everyday task. The process of reading is not limited to the directly fixated (or foveal) word but also extends to surrounding (or parafoveal) words, particularly the word to the right of the gaze position. This process may be unconscious, but parafoveal information is necessary for efficient reading. There is an ongoing debate on whether processing of the upcoming word encompasses word meaning (or semantics) or only superficial features. To increase the knowledge about how the meaning of one word helps processing another word, seven experiments were conducted. In these studies, words were exachanged during reading. The degree of relatedness between the word to the right of the currently fixated one and the word subsequently fixated was experimentally manipulated. Furthermore, the time course of the parafoveal extraction of meaning was investigated with two different approaches, an experimental one and a statistical one. As a major finding, fixation times were consistently lower if a semantically related word was presented compared to the presence of an unrelated word. Introducing an experimental technique that allows controlling the duration for which words are available, the time course of processing and integrating meaning was evaluated. Results indicated both facilitation and inhibition due to relatedness between the meanings of words. In a more natural reading situation, the effectiveness of the processing of parafoveal words was sometimes time-dependent and substantially increased with shorter distances between the gaze position and the word. Findings are discussed with respect to theories of eye-movement control. In summary, the results are more compatible with models of distributed word processing. The discussions moreover extend to language differences and technical issues of reading research. N2 - Wenn wir einen Text lesen, erfassen wir Informationen auf verschiedenen Repräsentationsebenen anhand abstrakter Symbole. Das oberste Ziel des Lesers ist das Erfassen der Bedeutung der Worte und des Textes. Die Erforschung der Blickbewegungen beim Lesen umfasst verschiedene Verarbeitungsebenen, die von Warhnehmung über motorische Prozesse bis hin zu Kognition auf übergeordneter Ebene reichen. Das Lesen geübter Leser verläuft zum großen Teil automatisch, ist aber gleichzeitig ein komplexes Phänomen interagierender Teilprozesse. Die Untersuchung von Blickbewegungen beim Lesen eröffnet die Möglichkeit, kognitive Prozesse bei der Ausübung einer alltäglichen Aufgabe anhand von Verhaltensmaßen zu untersuchen. Der Leseprozess ist nicht beschränkt auf das direkt fixierte (oder foveale) Wort, sondern umfasst auch umgebende (oder parafoveale) Wörter, insbesondere das Wort rechts der Blickposition. Obgleich dies nicht notwendigerweise bewusst geschieht, ist die parafoveale Information dennoch wichtig für effizientes Lesen. Es wird darüber diskutiert, ob die Verarbeitung des nächsten Wortes die Wortbedeutung (Semantik) oder nur oberflächliche Eigenschaften umfasst. Um ein besseres Verständnis zu erhalten, ob die Bedeutung eines Wortes bei der Verarbeitung eines anderen Wortes hilft, wurden sieben Experimente durchgeführt. In diesen Studien wurde ein Wort im Satz während des Lesens ausgetauscht. Der inhaltliche Zusammenhang zwischen einer parafoveal präsentierten Vorschau und dem anschließend fixierten Zielwort wurde experimentell manipuliert. Außerdem wurde der zeitliche Verlauf der Bedeutungserfassung aus parafovealen Wörtern mit zwei Ansätzen untersucht, einem experimentellen und einem statistischen. Als primärer Befund zeigte sich, dass die Fixationszeiten durchweg kürzer waren, wenn ein semantisch verwandtes Wort als Vorschau präsentiert wurde, verglichen mit einem Wort ohne Verwandtschaft. Mit der in dieser Arbeit verwendeten experimentellen Vorgehensweise konnte zudem der zeitliche Verlauf des Verarbeitens und Integrierens von Bedeutung ermittelt wurde. Dabei ergaben sich kürzere Fixationszeiten auf dem Zielwort bei ähnlichen Wortbedeutungen und längere Fixationszeiten bei unterschiedlichen Wortbedeutungen. Die Ergebnisse zeigten sowohl leichtere als auch schwerere Verarbeitung in Folge der Ähnlichkeit von Wortbedeutungen. In einer natürlicheren Lesesituation war die Wirksamkeit der Verarbeitung nachfolgender Wörter teilweise abhängig von der Dauer der Vorschau, und sie war deutlich größer bei kürzerer räumlicher Distanz zwischen der Blickposition und der Vorschau. Die Befunde werden mit Blick auf Theorien der Blickbewegunskontrolle diskutiert. Die Ergebnisse sind stärker mit Modellen verteilter Wortverarbeitung vereinbar. Die Diskussion erstreckt sich außerdem auf Sprachunterschiede und technische Aspekte der Leseforschung. KW - Blickbewegungen KW - Lesen KW - parafoveale Verarbeitung KW - Semantik KW - eye movements KW - reading KW - parafoveal processing KW - semantics Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70363 ER - TY - THES A1 - Hintersberger, Esther T1 - The role of extension during the evolution of the NW Indian Himalaya T1 - Extension und deren Bedeutung während der Entstehung des Himalajas im NW Indiens N2 - The evolution of most orogens typically records cogenetic shortening and extension. Pervasive normal faulting in an orogen, however, has been related to late syn- and post-collisional stages of mountain building with shortening focused along the peripheral sectors of the orogen. While extensional processes constitute an integral part of orogenic evolution, the spatiotemporal characteristics and the kinematic linkage of structures related to shortening and extension in the core regions of the orogen are often not well known. Related to the India-Eurasia collision, the Himalaya forms the southern margin of the Tibetan Plateau and constitutes the most prominent Cenozoic type example of a collisional orogen. While thrusting is presently observed along the foothills of the orogen, several generations of extensional structures have been detected in the internal, high-elevation regions, both oriented either parallel or perpendicular to the strike of the orogen. In the NW Indian Himalaya, earthquake focal mechanisms, seismites and ubiquitous normal faulting in Quaternary deposits, and regional GPS measurements reveal ongoing E-W extension. In contrast to other extensional structures observed in the Himalaya, this extension direction is neither parallel nor perpendicular to the NE-SW regional shortening direction. In this study, I took advantage of this obliquity between the trend of the orogen and structures related to E-W oriented extension in order to address the question of the driving forces of different extension directions. Thus, extension might be triggered triggered by processes within the Tibetan Plateau or originates from the curvature of the Himalayan orogen. In order to elaborate on this topic, I present new fault-kinematic data based on systematic measurements of approximately 2000 outcrop-scale brittle fault planes with displacements of up to several centimeters that cover a large area of the NW Indian Himalaya. This new data set together with field observations relevant for relative chronology allows me to distinguish six different deformation styles. One of the main results are that the overall strain pattern derived from this data reflects the regionally important contractional deformation pattern very well, but also reveals significant extensional deformation. In total, I was able to identify six deformation styles, most of which are temporally and spatially linked and represent protracted shortening, but also significant extensional directions. For example, this is the first data set where a succession of both, arc-normal and E-W extension have been documented in the Himalaya. My observations also furnish the basis for a detailed overview of the younger extensional deformation history in the NW Indian Himalaya. Field and remote-sensing based geomorphic analyses, and geochronologic 40Ar/39Ar data on synkinematic muscovites along normal faults help elucidate widespread E-W extension in the NW Indian Himalaya which must have started at approximately 14-16 Ma, if not earlier. In addition, I documented and mapped fault scarps in Quaternary sedimentary deposits using satellite imagery and field inspection. Furthermore, I made field observations of regional normal faults, compiled structures from geological maps and put them in a regional context. Finally, I documented seismites in lake sediments close to the currently most active normal fault in the study area in order to extend the (paleo) seismic record of this particular fault. Taken together, this data sets document that E-W extension is the dominant active deformation style in the internal parts of the orogen. In addition, the combined field, geomorphic and remote-sensing data sets prove that E-W extension occurs in a much more larger region toward the south and west than the seismicity data have suggested. In conclusion, the data presented here reveal the importance of extension in a region, which is still dominated by ongoing collision and shortening. The regional fault distribution and cross-cutting relationships suggest that extension parallel and perpendicular to the strike of the orogen are an integral part of the southward propagation of the active thrust front and the associated lateral growth of the Himalayan arc. In the light of a wide range of models proposed for extension in the Himalaya and the Tibetan plateau, I propose that E-W extension in the NW Indian Himalaya is transferred from the Tibetan Plateau due the inability of the Karakorum fault (KF) to adequately accommodate ongoing E-W extension on the Tibetan Plateau. Furthermore, in line with other observations from Tibet, the onset of E-W normal faulting in the NW Himalaya may also reflect the attainment of high topography in this region, which generated crustal stresses conducive to spatially extensive extension. N2 - Die Hauptaufgabe von MHC-kodierten Proteinen ist die Erkennung von körperfremden Molekülen sowie das Einleiten einer adäquaten Immunantwort, womit sie eine Schlüsselrolle im Immunsystem der Wirbeltiere einnehmen. Man nimmt an, dass ihre außergewöhnliche Vielfalt eine Antwort auf die sich ständig anpassenden Parasiten und Krankheitserreger ist, durch adaptive Selektion erhalten wird und dass die individuelle Allelausstattung einen Großteil der Parasitenbelastung erklärt, wofür bereits zahlreiche MHC-Studien Hinweise gefunden haben. Trotzdem ist unser Verständnis über die wirkenden Mechanismen teilweise noch lückenhaft. Ein stark vernachlässigter Aspekt hierbei sind z.B. eventuelle Unterschiede in der Genexpression der MHC-Allele und eine geringere Expression wäre gleichbedeutend mit einer geringeren Aktivierung des Immunsystems. Ich habe hierzu zwei frei lebende Kleinsäugerarten (Delomys sublineatus, Apodemus flavicollis) unter natürlichen Selektionsbedingungen untersucht. Dabei habe ich neben der genotypischen Diversität von MHC-Genen auch deren Expression, sowie die Genexpression immunregulativer Zytokine mit in Betracht gezogen und in Relation zur individuellen Belastung mit gastrointestinalen Helminthen Das gleichzeitige Auftreten von Verkürzung und Dehnung (Extension) ist ein charakteristisches Kennzeichen bei der Bildung von Kollisionsgebirgen. Eine bis heute gängige These beinhaltet ein weit verbreitetes Auftreten von bschiebungen jedoch erst in späteren Stadien der Gebirgsbildung, bzw. nach deren Abschluÿ. Verkürzung ist hingegen während der gesamten Gebirgsbildung zu beobachten. Auch wenn Extensionsprozesse einen wesentlichen Bestandteil der Gebirgsbildung darstellen, ist deren räumlichen und zeitlichen Abfolge sowie ihre kinematische Kopplung zu Verkürzungstrukturen nur wenig gesichert. Der Himalaja, durch die Kollision von Indien und Eurasien entstanden, bildet den südlichen Rand des tibetischen Hochplateaus und stellt ein typisches aktives Kollisionsgebilde dar. Während heutzutage an der Gebirgsfront Überschiebungen beobachtet werden, können mehrere Generationen an Extensionsstrukturen in den hochgelegenen Regionen des Himalajas dokumentiert werden, die sowohl parallel als auch senkrecht zur Gebirgsfront verlaufen. Im NW Indiens zeugen Erdbebendaten sowie regionale GPS-Daten von andauernder E-W-Extension. Im Gegensatz zu anderen im Himalaja beschriebenen Extensionsstrukturen ist diese Extensionsrichtung jedoch weder parallel noch senkrecht zur NE-SW orientierten regionalen Verkürzungsrichtung. In der vorliegenden Arbeit nutze ich diesen schiefen Winkel zwischen der Ausrichtung des Gebirges einerseits und den mit E-W-Extension assoziierten Strukturen andererseits, um mögliche Ursachen für verschiedene Extensionsarten differenzieren zu können. So könnte Extension entweder durch Prozesse innerhalb des tibetischen Hochplateaus gesteuert werden, oder durch die Krümmung des Himalajas, der bogenförmig verläuft. Um dies zu untersuchen, verwende ich einen neuen störungskinematischen Datensatz aus systematischen Messungen von ca. 2000 spröden Störungsflächen im Aufschlussmaßstab über den gesamten Bereich des Himalajas in NW Indien. Zusammen mit Geländebeobachtungen, aus denen eine relative Altersabfolge abgeleitet werden konnte, ermöglicht mir dieser Datensatz zwischen sechs einzelnen Deformationsarten zu differenzieren. Die meisten dieser Deformationsarten sind zeitlich und räumlich verbunden und zeigen fortschreitende Verkürzung an, gleichzeitig werden auch signifikante Extensionsrichtungen dokumentiert. Unter anderem kann ich hier zum ersten Mal eine separierte Abfolge von Extension parallel zum Himalaja-Bogen bzw. E-W-Extension dokumentieren. Ein weiteres Ziel dieser Studie ist es, einen detaillierten Überblick über die E-W-Extension im NW indischen Himalaja zu erhalten. Basierend auf Kartierung von jungen Bruchstufen sowie geomorphologische Auswertungen, 40Ar/39Ar-daten von synkinematisch gewachsenen Muskoviten auf Abschiebungen, sowie einer Kompilierung von eigene Geländebeobachtungen gröÿerer Abschiebungen mit schon publizierten Strukturen, konnte ich die räumliche Ausdehnung der E-W-Extension sowie deren zeitliche Einordnung als jüngstes Deformationsereignis belegen. Schlussendlich konnte ich anhand von Deformation in Seeablagerungen in der Nähe der momentan aktivsten Abschiebung im Untersuchungsgebiet den Nachweis an paläoseismologischen Ereignissen entlang dieser Störung ausweiten. Mit diesem Datensatz kann ich nachweisen, dass E-W-Extension in einem wesentlich ausgedehnteren Gebiet nach Süden und Westen hin auftritt, als bisher vorhandene Daten dies vermuten lassen, und dass E-W-Extension vor 14-16 Ma begann, wenn nicht sogar noch früher. Zusammenfassend bezeugen die hier präsentierten Daten die Relevanz von Extension in einer von Verkürzung geprägten Region. Die räumliche Verteilung von Störungen sowie Überschneidungskriterien lassen vermuten, dass Extension sowohl parallel wie auch senkrecht zum Himalaja-Bogen ein essentieller Teil des südwärts gerichteten Wanderns der aktiven Überschiebungsfront und des damit assoziierten lateralen Wachstums des Gebirges ist. Nach Abwägung der groÿen Bandbreite an Modellen für Extension im Himalaja und im tibetischen Hochplateau, bin ich der Meinung, dass E-W-Extension im NW indischen Himalaja ihren Ursprung im tibetischen Hochplateau hat. Grund dafür ist, dass die Bewegung entlang der Karakorum-Störung nicht ausreichend ist, um die fortdauernde E-W-Extension im tibetischen Hochplateau zu kompensieren. In Übereinstimmung mit anderen Beobachtungen in Tibet ist es auÿerdem möglich, dass das Einsetzen von E-W-Extension im NW Himalaja ebenfalls Erreichen der hohen Topographie in dieser Gegend widerspiegelt, durch die krustale Prozesse in Gang gesetzt werden, die wiederum zu räumlich ausgedehnten Extensionsprozessen führen können.. Anhand von Leber und Milzproben beider Arten habe ich die Methode der ‚real-time PCR‘ zur relativen Quantifizierung von mRNA im Labor etabliert. Bereits für die Labormaus etablierte PCR-Primersysteme wurden an beiden Arten getestet und so konnten stabile Referenzgene gefunden werden, die Grundvoraussetzung für zuverlässige Genexpressionsmessungen. Für D. sublineatus konnte gezeigt werden, dass Helminthenbefall eine typische Th2 Immunantwort induziert, und dass der Zytokin Il4 Gehalt mit Befallsintensität strongyler Nematoden zunimmt. Es wurde für D. sublineatus kein signifikanter Zusammenhang zwischen MHC Expression oder anderen Zytokinen mit Helminthenbefall gefunden. In A. flavicollis wurde ein negativer Zusammenhang zwischen haptischer MHC-Expression und dem parasitären Nematoden Heligmosomoides polygyrus festgestellt, was auf eine Immunvermeidungsstrategie des Nematoden hindeutet. Ich fand typische positive und negative Assoziationen zwischen MHC-Allelen und anderen Helminthenarten, sowie Zeichen eines positiven Selektionsdruckes auf den MHC-Sequenzen, was sich durch eine erhöhte Rate aminosäureverändernder Mutationen zeigte. Diese nicht-synonymen Veränderungen waren auf Positionen innerhalb des zweiten Exons des DRB-Genes beschränkt, wohingegen die untersuchten Bereiche des ersten und dritten Exons stark konserviert vorlagen. Diese variablen Positionen kodieren Schlüsselstellen im Bereich der Antigenbindungsstelle im MHC Molekül. Zusammenfassend zeigt diese Arbeit, dass Genexpressionsstudien auch an Wildtieren durchgeführt und verlässliche Daten erzeugt werden können. Zusätzlich zur strukturellen Vielfalt sollten zukünftig auch mögliche Genexpressionsunterschiede bei MHC-Studien berücksichtigt werden, um ein kompletteres Bild der koevolutiven Wirt-Parasiten-Beziehungen zeichnen zu können. Dies ist vor allem dann von evolutiver Bedeutung, wenn die Parasiten in der Lage sind die MHC Expression aktiv zu beeinflussen. Die Studien konnten nicht die exakte Bedeutung von MHC-Genexpression in der antagonistischen Koevolution definieren, aber sie konnten zeigen dass diese Bedeutung stark von den jeweils beteiligten Partnern abzuhängen vermag. KW - NW Himalaja KW - Extension KW - Paläo-Strain-Berechnung KW - Neotektonik KW - NW Himalaya KW - extension KW - paleo-strain calculation KW - neotectonics Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66179 ER - TY - THES A1 - Herrmann, Heike T1 - Zum Erwerb syntaktischer Aspekte von positiven und negativen W-Fragen im unauffälligen und auffälligen Spracherwerb des Deutschen T1 - Syntactic acquisition of positive and negative wh-questions in German infants with typical and atypical language development N2 - Der W-Fragen-Erwerb stellt einen Teilbereich der kindlichen Syntaxentwicklung dar, die sich maßgeblich innerhalb der ersten drei Lebensjahre eines Kindes vollzieht. Eine wesentliche Rolle spielen dabei zwei Bewegungsoperationen, die sich auf die Position des Interrogativpronomens an die erste Stelle der W-Frage sowie die Position des Verbs an die zweite Stelle beziehen. In drei Studien wurde einerseits untersucht, ob deutschsprachige Kinder, die noch keine W-Fragen produzieren können, in der Lage sind, grammatische von ungrammatischen W-Fragen zu unterscheiden und andererseits, welche Leistungen sprachunauffällige und sprachauffällige deutschsprachige Kinder beim Verstehen und Korrigieren unterschiedlich komplexer W-Fragen (positive und negative W-Fragen) zeigen. Die Ergebnisse deuten auf ein frühes syntaktisches Wissen über W-Fragen im Spracherwerb hin und stützen damit die Annahme einer Kontinuität der kindlichen Grammatik zur Standardsprache. Auch scheinen sprachauffällige Kinder sich beim Erwerb von W-Fragen nicht qualitativ von sprachgesunden Kindern zu unterscheiden, sondern W-Fragen lediglich später korrekt umzusetzen. In beiden Populationen konnte ein syntaktischer Ökonomieeffekt beobachtet werden, der für eine spätere Umsetzung der Verbbewegung im Vergleich zur Bewegung des W-Elementes spricht. N2 - Wh-questions represent one important step in the acquisition of children's syntax which generally takes place within the first three years. Two syntactic operations which are related to the position of the pronoun and the position of the verb play an essential role in this process. In three studies it was examined if children acquiring German could distinguish grammatical and non-grammatical wh-questions before being able to produce wh-questions themselves. Furthermore children with typical and atypical language acquisition were compared in their ability to comprehend and correct wh-questions of different complexity (positive and negative wh-questions). The results indicate an early syntactic knowledge about wh-questions in language acquisition and support the hypothesis of continuity between children's and adults speech. Children with typical and atypical language acquisition do not show any qualitative differences in their way to acquire wh-questions. Much rather the time point of acquisition is delayed. An effect of syntactic economy was found in both populations. Children seem to realize syntactic violations against the movement of the wh-element earlier than those against the movement of the verb. T3 - Spektrum Patholinguistik - Schriften - 8 KW - Spracherwerb KW - Syntax KW - W-Fragen KW - Negation KW - Ökonomieprinzipien (MP) KW - language acquisition KW - syntax KW - wh-questions KW - negation KW - syntactic economy (MP) Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70606 SN - 978-3-86956-293-3 SN - 1869-3830 SN - 1869-3822 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Helfert, Susanne T1 - Die Rolle aussehensbezogenen sozialen Drucks in der Entstehung von Körperunzufriedenheit im Jugendalter T1 - The Role of Appearance-related Social Pressure in the Development of Body Dissatisfaction during Adolescence N2 - Körperliche Attraktivität und gutes Aussehen spielen in der heutigen Gesellschaft eine entscheidende Rolle, was bereits frühzeitig auch Kinder und Jugendliche in ihren Einstellungen und der Wahrnehmung ihres Körpers prägt. Sorgen um den eigenen Körper gelten als normatives Problem unter Jugendlichen und bergen nicht selten das Risiko für gesundheitsgefährdendes Verhalten und psychische Erkrankungen. In der Suche nach den Ursachen gerieten in den letzten Jahren insbesondere soziokulturelle Faktoren, insbesondere der Einfluss von medial vermittelten Schönheitsidealen, in den Fokus der Forschung. Es ist jedoch fraglich, warum nicht alle Jugendlichen in gleicher Weise auf den allgegenwärtigen Mediendruck reagieren. Naheliegend ist, dass die Jugendlichen besonders gefährdet sind, deren unmittelbares soziales Umfeld das geltende Schönheitsideal direkt oder indirekt vermittelt und verstärkt. Das Verständnis der Rolle sozialen Drucks ist jedoch bislang noch durch zahlreiche inhaltliche und methodische Aspekte beschränkt (z.B. Einschränkungen in der Operationalisierung, ungenügende Berücksichtigung geschlechtsspezifischer Mechanismen, fehlende längsschnittliche Belege). Daher widmet sich die vorliegende Arbeit der Bedeutung aussehensbezogenen sozialen Drucks in der Entstehung von Körperunzufriedenheit im Jugendalter in drei aufeinander aufbauenden Untersuchungsschritten. Ausgehend von der Entwicklung eines umfassenden und zuverlässigen Erhebungsinstruments zielt die Arbeit darauf ab, unterschiedliche Aspekte sozialen Drucks gegenüberzustellen und hinsichtlich ihrer Verbreitung und Risikowirkung zu vergleichen. Die Umsetzung des Forschungsvorhabens erfolgte in unterschiedlichen Schülerstichproben der Klassen 7 bis 9 unterschiedlicher Gymnasien und Gesamtschulen (Hauptstichprobe N = 1112, im Mittel = 13.4 ± 0.8 Jahre). Dabei wurden sowohl quer- als auch längsschnittliche Analysen durchgeführt. Zusätzlich wurden zur Erprobung des Fragebogenverfahrens klinische Stichproben mit Ess- und Gewichtsstörungen herangezogen. Zur detaillierten Erfassung unterschiedlicher Formen aussehensbezogenen sozialen Drucks erfolgte im ersten Schritt die Entwicklung des Fragebogen zum aussehensbezogen sozialen Druck (FASD), welcher acht unterschiedliche Formen aussehensbezogene sozialen Drucks ausgehend von Eltern und Gleichaltrigen reliabel und valide erfasst. Dabei erwies sich das Verfahren gleichermaßen für Jungen und Mädchen, wie für Jugendliche mit unterschiedlichem Gewichtsstatus geeignet. Die psychometrische Güte des Verfahrens konnte sowohl für populationsbasierte als auch für klinische Stichproben mit Ess- und Gewichtsstörung belegt werden, wodurch eine breite Einsatzmöglichkeit in Forschung und Praxis denkbar ist. Im zweiten Schritt erfolgte die Untersuchung der Verbreitung aussehensbezogenen sozialen Drucks unter besonderer Berücksichtigung von Geschlechts-, Alters- und Gewichtsgruppenunterschieden. Dabei erwiesen sich Mädchen als stärker von aussehensbezogenem Druck durch Gleichaltrige betroffen als Jungen. Darüberhinaus legen die Ergebnisse nahe, dass Übergewicht ungeachtet des Geschlechts mit verstärkten aussehensbezogenen Abwertungen und Ausgrenzungserfahrungen verbunden ist. Zudem deuten die Alterseffekte der Studie darauf hin, dass der Übergang von früher zu mittlerer Adoleszenz aber auch Schulwechsel besonderes kritische Zeitpunkte für die Etablierung aussehensbezogener Einflüsse darstellen. Abschließend widmete sich die Arbeit der längsschnittlichen Risikowirkung unterschiedlicher Aspekte aussehensbezogenen sozialen Drucks in der Entstehung von Körperunzufriedenheit. Aussehensbezogene Einflüsse von Freunden verstärkten längsschnittlich Körpersorgen sowohl bei Mädchen als auch bei Jungen. Zudem ergab sich das Erleben von Ausgrenzung durch Gleichaltrige als entscheidender Risikofaktor für gewichtsbezogene Körpersorgen unter Jungen. Als bedeutsamster elterlicher Einfluss erwiesen sich Aufforderungen auf die Figur zu achten. Diese Aufforderungen verstärkten gleichermaßen für Mädchen und Jungen gewichtsbezogene Körpersorgen. Die vorliegende Arbeit widmete sich dem Ziel, die Rolle aussehensbezogener sozialer Einflüsse weiter aufzuklären. Das dazu vorgelegte umfassende Instrument ermöglichte eine differenzierte Betrachtung der Verbreitung und Wirkung unterschiedlicher Formen sozialen Drucks. Hierdurch weisen die Ergebnisse nicht nur auf wichtige geschlechtsspezifische Mechanismen hin, sondern leisten ebenso einen Beitrag zum vertieften Verständnis der Risikowirkung sozialen Drucks. Diese Erkenntnisse liefern somit einerseits konkrete Ansatzpunkte für Prävention und Intervention und ermöglichen andererseits auch eine weitere Konkretisierung bereits etablierter soziokultureller Wirkmodelle. N2 - Physical appearance and attractiveness play a major role in today’s society, which affects also children and adolescents in their attitudes and the perception of their bodys. Body concerns, which have become normative among adolescents, however, bear the risk of health-endangering behavior as well as severe mental diseases. While investigating the reasons for this development, sociocultural pressures especially media promoted beauty ideals got into the focus of research. But the findings provoke the question why the media ideal does not affect all adolescents to the same extent. However, it seems likely that those adolescents who grow up in an appearance-focused social environment are particularly at risk of developing body concerns. The knowledge on the mechanisms of social pressure is still limited by several constraints, e.g. limitations in the assessment, insufficient consideration of gender-specific mechanisms as well as a lack of longitudinal findings. Hence, the dissertation examines the role of appearance-related pressure in the development of body dissatisfaction during adolescence by conducting three consecutive steps of investigation. By the development of a comprehensive and reliable instrument (1) this work aims at comparing the occurrence while considering interpersonal variations in the perception of different kinds of social pressure (2) as well as investigating the potential risk of these factors in the development of body dissatisfaction (3). The investigation was conducted in different samples of high school students from grade 7 to 9 (main sample: N = 1112, mean: 13.4 ± 0.8 years of age) using cross-sectional as well as longitudinal design. Additionally the psychometric quality of the questionnaire has been determined in clinical samples with eating and weight disorders. First, the Appearance-Related Social Pressure Questionnaire (FASD, Fragebogen zum aussehensbezogenen sozialen Druck) was developed which measures social pressure from peers and parents simultaneously while distinguishing eight types of pressure. The instrument has proved to be suitable for both, girls and boys, as well as for adolescents with different weight statuses. Evidence for its psychometric quality has been determined among population-based and clinical samples, which opens different fields of application. In a second step, the occurrence of the different aspects of pressure as well as variations according to individual characteristics (gender, age and weight status) have been investigated, revealing that girls as well as overweight students are particularly faced with social pressure. Moreover, the transition from early to middle adolescence as well as school transitions appear to be a crucial periods for the establishment of appearance related social pressure. Finally, the study delivers longitudinal evidence of the crucial impact of three types of social pressure on changes in body dissatisfaction over a one-year period. First of all, the results point to the crucial impact of friends in the development of body concerns among girls and boys alike. Second, the feeling of exclusion emerged as an important predictor of weight concerns in boys. Third, parental encouragement to control weight and shape play a crucial part in the development of body concerns. Summing up, the dissertation aimed at clarifying the role of appearance-related social pressure as a risk factor of body concerns during adolescence. The provided instrument allowed a reliable and differentiated analysis of different aspects of pressure. By this means, the results do not only point to interesting gender-specific mechanisms but also contribute to a better understanding of the impact of social pressure. These findings provide concrete targets for prevention and intervention and can also contribute to concretize already established sociocultural models. KW - Sozialer Druck KW - Peers KW - Eltern KW - Körperunzufriedenheit KW - Jugendalter KW - social pressure KW - peers KW - parents KW - body dissatisfaction KW - adolescence Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66946 ER - TY - THES A1 - Haßler, Sibylle Kathrin T1 - Saturated hydraulic conductivity in the humid tropics : sources of variability, implications for monitoring and effects on near-surface hydrological flow paths T1 - Quellen der Variabilität der gesättigten hydraulischen Leitfähigkeit in den humiden Tropen, ihre Bedeutung für die Beprobung der Leitfähigkeit und ihre Auswirkungen auf bodennahe hydrologische Fließpfade N2 - Large areas in the humid tropics are currently undergoing land-use change. The decrease of tropical rainforest, which is felled for land clearing and timber production, is countered by increasing areas of tree plantations and secondary forests. These changes are known to affect the regional water cycle as a result of plant-specific water demand and by influencing key soil properties which determine hydrological flow paths. One of these key properties sensitive to land-use change is the saturated hydraulic conductivity (Ks) as it governs vertical percolation of water within the soil profile. Low values of Ks in a certain soil depth can form an impeding layer and lead to perched water tables and the development of predominantly lateral flow paths such as overland flow. These processes can induce nutrient redistribution, erosion and soil degradation and thus affect ecosystem services and human livelihoods. Due to its sensitivity to land-use change, Ks is commonly used to assess the associated changes in hydrological flow paths. The objective of this dissertation was to assess the effect of land-use change on hydrological flow paths by analysing Ks as indicator variable. Sources of Ks variability, their implications for Ks monitoring and the relationship between Ks and near-surface hydrological flow paths in the context of land-use change were studied. The research area was located in central Panama, a country widely experiencing the abovementioned changes in land use. Ks is dependent on both static, soil-inherent properties such as particle size and clay mineralogy and dynamic, land use-dependent properties such as organic carbon content. By conducting a pair of studies with one of these influences held constant in each, the importance of static and dynamic properties for Ks was assessed. Applying a space-for-time approach to sample Ks under secondary forests of different age classes on comparable soils, a recovery of Ks from the former pasture use was shown to require more than eight years. The process was limited to the 0−6 cm sampling depth and showed large variability among replicates. A wavelet analysis of a Ks transect crossing different soil map units under comparable land cover, old-growth tropical rainforest, showed large small-scale variability, which was attributed to biotic influences, as well as a possible but non-conclusive influence of soil types. The two results highlight the importance of dynamic, land use-dependent influences on Ks. Monitoring studies can help to quantify land use-induced change of Ks, but there is a variety of sampling designs which differ in efficiency of estimating mean Ks. A comparative study of four designs and their suitability for Ks monitoring is used to give recommendations about designing a Ks monitoring scheme. Quantifying changes in spatial means of Ks for small catchments with a rotational stratified sampling design did not prove to be more efficient than Simple Random Sampling. The lack of large-scale spatial structure prevented benefits of stratification, and large small-scale variability resulting from local biotic processes and artificial effects of destructive sampling caused a lack of temporal consistency in the re-sampling of locations, which is part of the rotational design. The relationship between Ks and near-surface hydrological flow paths is of critical importance when assessing the consequences of land-use change in the humid tropics. The last part of this dissertation aimed at disclosing spatial relationships between Ks and overland flow as influenced by different land cover types. The effects of Ks on overland-flow generation were spatially variable, different between planar plots and incised flowlines and strongly influenced by land-cover characteristics. A simple comparison of Ks values and rainfall intensities was insufficient to describe the observed pattern of overland flow. Likewise, event flow in the stream was apparently not directly related to overland flow response patterns within the catchments. The study emphasises the importance of combining pedological, hydrological, meteorological and botanical measurements to comprehensively understand the land use-driven change in hydrological flow paths. In summary, Ks proved to be a suitable parameter for assessing the influence of land-use change on soils and hydrological processes. The results illustrated the importance of land cover and spatial variability of Ks for decisions on sampling designs and for interpreting overland-flow generation. As relationships between Ks and overland flow were shown to be complex and dependent on land cover, an interdisciplinary approach is required to comprehensively understand the effects of land-use change on soils and near-surface hydrological flow paths in the humid tropics. N2 - Tropische Regionen sind einem andauernden Landnutzungswandel unterworfen. Einerseits wird tropischer Regenwald für Holz- und Flächengewinnung abgeholzt, andererseits fallen Flächen im Zuge der Urbanisierung brach. Diese werden zum Teil mit Nutzholz-Plantagen aufgeforstet, zum Teil entwickelt sich auf ihnen natürlicher Sekundärwald. Änderungen in der Landnutzung beeinflussen Bodeneigenschaften und dadurch implizit den Wasserkreislauf der Region. Eine dieser wichtigen landnutzungsabhängigen Bodeneigenschaften ist die gesättigte hydraulische Leitfähigkeit oder Permeabilität, die maßgeblich die Versickerungsrate im Boden bestimmt. Eine niedrige Permeabilität hemmt die (vertikale) Versickerung und kann dazu führen, dass laterale hydrologische Fließpfade wie z.B. Oberflächenabfluss aktiviert werden. Dadurch wird sowohl die Bodenerosion und Nährstoffverlagerung verstärkt als auch die Auffüllung des Grundwasserspeichers verringert. In welchem Maße jedoch die Änderung der Permeabilität während des Landnutzungswandels eine Änderung der hydrologischen Fließpfade nach sich zieht, ist noch unzureichend erforscht. Die Zielstellung der vorliegenden Dissertation war, mit Hilfe der Permeabilität als Indikatorvariable die Auswirkungen des Landnutzungswandels auf bodennahe hydrologische Fließpfade zu beurteilen. Dabei sollten die Quellen der Variabilität der Permeabilität anhand des Einflusses von Bodentyp und Landnutzung eingeschätzt, diese Variabilität in das Design einer Probenahmestrategie für die Permeabilität integriert und die Auswirkungen dieser Einflüsse auf die Aktivierung lateraler Fließpfade untersucht werden. Die Studien wurden in Panama durchgeführt, da dieses Land stark vom Landnutzungswandel betroffen ist, eine gute Forschungsinfrastruktur aufweist und sich durch die hohen Niederschläge des tropischen Klimas Änderungen im Wasserkreislauf besonders stark auswirken. Zwei Teilstudien zu den Quellen der Variabilität der Permeabilität lieferten Hinweise auf einen möglichen Einfluss des Bodentyps, der jedoch durch den lokal stärkeren Einfluss der Landnutzung überprägt wurde. Auf regionaler Skala wurde die Erholung der Permeabilität unter Sekundärwald nach einer vorhergehenden Weidenutzung belegt. Beide Studien deuteten auf einen maßgeblichen Einfluss der Landnutzung und der räumlichen Struktur der Permeabilität auf die untersuchten Prozesse hin. Für die effiziente Abschätzung zeitlicher Veränderungen der Permeabilität, wie sie im Zuge des Landnutzungswandels auftritt, ist die Einbeziehung dieser räumlichen Strukturen in das Design einer Probenahmestrategie für die Permeabilität von großer Bedeutung, wie in einem Vergleich vier verschiedener Designs gezeigt wurde. Der Zusammenhang zwischen der Permeabilität und der Entstehung von Oberflächenabfluss konnte nicht durch einfache Ansätze, wie dem Vergleich der Permeabilität mit Regenintensitäten oder der Betrachtung des Gebietsabflusses, erklärt werden. Vielmehr scheint ein komplexes Zusammenspiel aus meteorologischen, biologischen, bodenkundlichen und hydrologischen Faktoren zu wirken. So wurde die räumliche Struktur des Oberflächenabflusses im Untersuchungsgebiet vermutlich durch eine Kombination aus Landnutzungs- und Permeabilitäts-Einflüssen bedingt, zu deren Aufklärung weitere notwendige Messungen vorgeschlagen werden. Zusammengefasst konnte anhand der Permeabilität der Einfluss des Landnutzungswandels auf die hydrologischen Fließpfade gut aufgezeigt werden. Eine besondere Bedeutung kommt hierbei der Betrachtung der landnutzungsabhängigen räumlichen Struktur der Permeabilität zu. Für die Prozessaufklärung der Aktivierung lateraler Fließpfade müssen jedoch Messungen aus verschiedenen Disziplinen kombiniert werden. KW - Bodenhydrologie KW - Landnutzungswandel KW - Tropen KW - Probenahmestrategie KW - hydrologische Fließpfade KW - Soil hydrology KW - land-use change KW - tropics KW - monitoring KW - hydrological flow paths Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66864 ER - TY - THES A1 - Haider, Peter T1 - Prediction with Mixture Models T1 - Vorhersage mit Mischmodellen N2 - Learning a model for the relationship between the attributes and the annotated labels of data examples serves two purposes. Firstly, it enables the prediction of the label for examples without annotation. Secondly, the parameters of the model can provide useful insights into the structure of the data. If the data has an inherent partitioned structure, it is natural to mirror this structure in the model. Such mixture models predict by combining the individual predictions generated by the mixture components which correspond to the partitions in the data. Often the partitioned structure is latent, and has to be inferred when learning the mixture model. Directly evaluating the accuracy of the inferred partition structure is, in many cases, impossible because the ground truth cannot be obtained for comparison. However it can be assessed indirectly by measuring the prediction accuracy of the mixture model that arises from it. This thesis addresses the interplay between the improvement of predictive accuracy by uncovering latent cluster structure in data, and further addresses the validation of the estimated structure by measuring the accuracy of the resulting predictive model. In the application of filtering unsolicited emails, the emails in the training set are latently clustered into advertisement campaigns. Uncovering this latent structure allows filtering of future emails with very low false positive rates. In order to model the cluster structure, a Bayesian clustering model for dependent binary features is developed in this thesis. Knowing the clustering of emails into campaigns can also aid in uncovering which emails have been sent on behalf of the same network of captured hosts, so-called botnets. This association of emails to networks is another layer of latent clustering. Uncovering this latent structure allows service providers to further increase the accuracy of email filtering and to effectively defend against distributed denial-of-service attacks. To this end, a discriminative clustering model is derived in this thesis that is based on the graph of observed emails. The partitionings inferred using this model are evaluated through their capacity to predict the campaigns of new emails. Furthermore, when classifying the content of emails, statistical information about the sending server can be valuable. Learning a model that is able to make use of it requires training data that includes server statistics. In order to also use training data where the server statistics are missing, a model that is a mixture over potentially all substitutions thereof is developed. Another application is to predict the navigation behavior of the users of a website. Here, there is no a priori partitioning of the users into clusters, but to understand different usage scenarios and design different layouts for them, imposing a partitioning is necessary. The presented approach simultaneously optimizes the discriminative as well as the predictive power of the clusters. Each model is evaluated on real-world data and compared to baseline methods. The results show that explicitly modeling the assumptions about the latent cluster structure leads to improved predictions compared to the baselines. It is beneficial to incorporate a small number of hyperparameters that can be tuned to yield the best predictions in cases where the prediction accuracy can not be optimized directly. N2 - Das Lernen eines Modells für den Zusammenhang zwischen den Eingabeattributen und annotierten Zielattributen von Dateninstanzen dient zwei Zwecken. Einerseits ermöglicht es die Vorhersage des Zielattributs für Instanzen ohne Annotation. Andererseits können die Parameter des Modells nützliche Einsichten in die Struktur der Daten liefern. Wenn die Daten eine inhärente Partitionsstruktur besitzen, ist es natürlich, diese Struktur im Modell widerzuspiegeln. Solche Mischmodelle generieren Vorhersagen, indem sie die individuellen Vorhersagen der Mischkomponenten, welche mit den Partitionen der Daten korrespondieren, kombinieren. Oft ist die Partitionsstruktur latent und muss beim Lernen des Mischmodells mitinferiert werden. Eine direkte Evaluierung der Genauigkeit der inferierten Partitionsstruktur ist in vielen Fällen unmöglich, weil keine wahren Referenzdaten zum Vergleich herangezogen werden können. Jedoch kann man sie indirekt einschätzen, indem man die Vorhersagegenauigkeit des darauf basierenden Mischmodells misst. Diese Arbeit beschäftigt sich mit dem Zusammenspiel zwischen der Verbesserung der Vorhersagegenauigkeit durch das Aufdecken latenter Partitionierungen in Daten, und der Bewertung der geschätzen Struktur durch das Messen der Genauigkeit des resultierenden Vorhersagemodells. Bei der Anwendung des Filterns unerwünschter E-Mails sind die E-Mails in der Trainingsmende latent in Werbekampagnen partitioniert. Das Aufdecken dieser latenten Struktur erlaubt das Filtern zukünftiger E-Mails mit sehr niedrigen Falsch-Positiv-Raten. In dieser Arbeit wird ein Bayes'sches Partitionierunsmodell entwickelt, um diese Partitionierungsstruktur zu modellieren. Das Wissen über die Partitionierung von E-Mails in Kampagnen hilft auch dabei herauszufinden, welche E-Mails auf Veranlassen des selben Netzes von infiltrierten Rechnern, sogenannten Botnetzen, verschickt wurden. Dies ist eine weitere Schicht latenter Partitionierung. Diese latente Struktur aufzudecken erlaubt es, die Genauigkeit von E-Mail-Filtern zu erhöhen und sich effektiv gegen verteilte Denial-of-Service-Angriffe zu verteidigen. Zu diesem Zweck wird in dieser Arbeit ein diskriminatives Partitionierungsmodell hergeleitet, welches auf dem Graphen der beobachteten E-Mails basiert. Die mit diesem Modell inferierten Partitionierungen werden via ihrer Leistungsfähigkeit bei der Vorhersage der Kampagnen neuer E-Mails evaluiert. Weiterhin kann bei der Klassifikation des Inhalts einer E-Mail statistische Information über den sendenden Server wertvoll sein. Ein Modell zu lernen das diese Informationen nutzen kann erfordert Trainingsdaten, die Serverstatistiken enthalten. Um zusätzlich Trainingsdaten benutzen zu können, bei denen die Serverstatistiken fehlen, wird ein Modell entwickelt, das eine Mischung über potentiell alle Einsetzungen davon ist. Eine weitere Anwendung ist die Vorhersage des Navigationsverhaltens von Benutzern einer Webseite. Hier gibt es nicht a priori eine Partitionierung der Benutzer. Jedoch ist es notwendig, eine Partitionierung zu erzeugen, um verschiedene Nutzungsszenarien zu verstehen und verschiedene Layouts dafür zu entwerfen. Der vorgestellte Ansatz optimiert gleichzeitig die Fähigkeiten des Modells, sowohl die beste Partition zu bestimmen als auch mittels dieser Partition Vorhersagen über das Verhalten zu generieren. Jedes Modell wird auf realen Daten evaluiert und mit Referenzmethoden verglichen. Die Ergebnisse zeigen, dass das explizite Modellieren der Annahmen über die latente Partitionierungsstruktur zu verbesserten Vorhersagen führt. In den Fällen bei denen die Vorhersagegenauigkeit nicht direkt optimiert werden kann, erweist sich die Hinzunahme einer kleinen Anzahl von übergeordneten, direkt einstellbaren Parametern als nützlich. KW - maschinelles Lernen KW - Vorhersage KW - Clusteranalyse KW - Mischmodelle KW - machine learning KW - prediction KW - clustering KW - mixture models Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69617 ER - TY - THES A1 - Gustafson, Sean T1 - Imaginary Interfaces T1 - Imaginäre Benutzerschnittstellen N2 - The size of a mobile device is primarily determined by the size of the touchscreen. As such, researchers have found that the way to achieve ultimate mobility is to abandon the screen altogether. These wearable devices are operated using hand gestures, voice commands or a small number of physical buttons. By abandoning the screen these devices also abandon the currently dominant spatial interaction style (such as tapping on buttons), because, seemingly, there is nothing to tap on. Unfortunately this design prevents users from transferring their learned interaction knowledge gained from traditional touchscreen-based devices. In this dissertation, I present Imaginary Interfaces, which return spatial interaction to screenless mobile devices. With these interfaces, users point and draw in the empty space in front of them or on the palm of their hands. While they cannot see the results of their interaction, they obtain some visual and tactile feedback by watching and feeling their hands interact. After introducing the concept of Imaginary Interfaces, I present two hardware prototypes that showcase two different forms of interaction with an imaginary interface, each with its own advantages: mid-air imaginary interfaces can be large and expressive, while palm-based imaginary interfaces offer an abundance of tactile features that encourage learning. Given that imaginary interfaces offer no visual output, one of the key challenges is to enable users to discover the interface's layout. This dissertation offers three main solutions: offline learning with coordinates, browsing with audio feedback and learning by transfer. The latter I demonstrate with the Imaginary Phone, a palm-based imaginary interface that mimics the layout of a physical mobile phone that users are already familiar with. Although these designs enable interaction with Imaginary Interfaces, they tell us little about why this interaction is possible. In the final part of this dissertation, I present an exploration into which human perceptual abilities are used when interacting with a palm-based imaginary interface and how much each accounts for performance with the interface. These findings deepen our understanding of Imaginary Interfaces and suggest that palm-based Imaginary Interfaces can enable stand-alone eyes-free use for many applications, including interfaces for visually impaired users. N2 - Die Größe mobiler Geräte ist vornehmlich bestimmt durch die Größe des Berührungsbildschirms. Forscher haben daher erkannt, dass der Weg zur äußersten Mobilität in der kompletten Aufgabe des Bildschirms liegt. Solche tragbaren Geräte werden durch Handgesten, Sprachbefehle oder eine kleine Anzahl physikalischer Tasten gesteuert. Mit der Aufgabe des Bildschirms geben diese Geräte allerdings auch den momentan weitverbreiteten Stil räumlicher Interaktion auf (zum Beispiel das Betätigen von Tasten), da scheinbar nichts existiert, das man betätigen kann. Leider verhindert diese Entwicklung, dass Benutzer Interaktionswissen, welches sie sich auf herkömmlichen berührungsempflindlichen Geräten angeeignet haben, anwenden können. In dieser Doktorarbeit stelle ich Imaginary Interfaces vor, imaginäre Benutzerschnittstellen, die räumliche Interaktionen auf bildschirmlosen mobilen Geräten ermöglichen. Diese Schnittstellen erlauben Benutzern, im leeren Raum vor ihnen oder auf ihren Handfläche zu zeigen und zu zeichnen. Zwar können Benutzer die Ergebnisse ihrer Interaktion nicht sehen, sie erhalten jedoch visuelle und taktile Rückmeldung dadurch, dass sie ihre Hände während der Interaktion beobachten und fühlen. Nach der Einführung des Imaginary Interfaces Konzepts stelle ich zwei Hardware-Prototypen vor, die zwei verschiedene Arten von Interaktionen mit Imaginary Interfaces demonstrieren, jeweils mit ihren eigenen Vorteilen: Imaginary Interfaces in der Luft können groß und ausdrucksstark sein, während Imaginary Interfaces basierend auf Handflächen eine Fülle von taktilen Merkmalen aufweisen, die das Erlernen unterstützen. Die fehlende visuelle Ausgabe führt zu einer der Hauptherausforderungen von Imaginary Interfaces, nämlich Benutzern zu ermöglichen, die Anordnung der Benutzerschnittstellen herauszufinden. Diese Doktorarbeit stellt drei Lösungen vor: vorheriges Lernen mit Koordinaten, Durchsuchen mit Tonrückmeldung und Lernen durch Transfer. Letztere demonstriere ich mit Imaginary Phone, einem Imaginary Interface basierend auf Handflächen, das die den Benutzern schon vertraute Anordnung eines physikalischen Mobiltelefons imitiert. Obwohl diese Lösungen die Interaktion mit Imaginary Interfaces ermöglichen, können sie keine Aussage darüber treffen, warum eine solche Interaktion möglich ist. Im letzten Teil dieser Doktorarbeit untersuche ich, welche menschlichen Wahrnehmungsfähigkeiten während der Interaktion mit Imaginary Interface basierend auf Handflächen genutzt werden und zu welchem Ausmaß jede dieser Wahrnehmungsfähigkeiten zur Effizienz bei der Benutzung beiträgt. Diese Ergebnisse vertiefen unser Verständnis von Imaginary Interfaces und legen nahe, dass Imaginary Interfaces basierend auf Handflächen die eigenständige und blickfreie Benutzung von vielen Anwendungen ermöglichen können, eingeschlossen Benutzerschnittstellen für sehbehinderte Benutzer. KW - interaction KW - interface KW - mobile KW - HCI KW - gesture Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68960 ER - TY - THES A1 - Gumienny, Raja Carola T1 - Understanding the adoption of digital whiteboard systems for collaborative design work T1 - Untersuchungen zur Einführung von digitalen Whiteboard-Systemen für kollaboratives kreatives Arbeiten N2 - User-centered design processes are the first choice when new interactive systems or services are developed to address real customer needs and provide a good user experience. Common tools for collecting user research data, conducting brainstormings, or sketching ideas are whiteboards and sticky notes. They are ubiquitously available, and no technical or domain knowledge is necessary to use them. However, traditional pen and paper tools fall short when saving the content and sharing it with others unable to be in the same location. They are also missing further digital advantages such as searching or sorting content. Although research on digital whiteboard and sticky note applications has been conducted for over 20 years, these tools are not widely adopted in company contexts. While many research prototypes exist, they have not been used for an extended period of time in a real-world context. The goal of this thesis is to investigate what the enablers and obstacles for the adoption of digital whiteboard systems are. As an instrument for different studies, we developed the Tele-Board software system for collaborative creative work. Based on interviews, observations, and findings from former research, we tried to transfer the analog way of working to the digital world. Being a software system, Tele-Board can be used with a variety of hardware and does not depend on special devices. This feature became one of the main factors for adoption on a larger scale. In this thesis, I will present three studies on the use of Tele-Board with different user groups and foci. I will use a combination of research methods (laboratory case studies and data from field research) with the overall goal of finding out when a digital whiteboard system is used and in which cases not. Not surprisingly, the system is used and accepted if a user sees a main benefit that neither analog tools nor other applications can offer. However, I found that these perceived benefits are very different for each user and usage context. If a tool provides possibilities to use in different ways and with different equipment, the chances of its adoption by a larger group increase. Tele-Board has now been in use for over 1.5 years in a global IT company in at least five countries with a constantly growing user base. Its use, advantages, and disadvantages will be described based on 42 interviews and usage statistics from server logs. Through these insights and findings from laboratory case studies, I will present a detailed analysis of digital whiteboard use in different contexts with design implications for future systems. N2 - Nutzerorientierte Gestaltungsprozesse werden angewandt, um zu gewährleisten, dass neue Software für Computer und Smartphones gebrauchstauglich ist und die tatsächlichen Bedürfnisse der Anwender adressiert. Dazu sollen potentielle Anwender befragt und beobachtet und darauf basierend Ideen und Entwürfe für die neue Software entwickelt werden. Um die Nutzerdaten und Ideen zu sammeln, sowie daraus Konzepte zu erarbeiten, werden häufig Whiteboards und Haftnotizen (Post-its) benutzt. Sie haben den Vorteil, dass sie weit verbreitet sind und keine speziellen Kenntnisse erfordern. Analoge Whiteboards sowie Stift und Papier haben allerdings auch den Nachteil, dass die Informationen nicht digital gespeichert und mit Personen an anderen Standorten geteilt werden können. Auch andere digitale Vorteile, wie z. B. Inhalte suchen und sortieren, sind nicht verfügbar. Obwohl es seit 20 Jahren Forschung zu digitalen Whiteboard-Anwendungen gibt, werden diese Systeme im Firmenumfeld kaum genutzt. Diverse Forschungsprototypen sind bisher weder im Langzeiteinsatz noch in Unternehmen ausreichend getestet worden. Ziel dieser Dissertation ist zu erforschen, welche Faktoren den Einsatz von digitalen Whiteboard-Systemen begünstigen und welche Faktoren eher hinderlich sind. Zu diesem Zweck haben wir das Tele-Board Software System für gemeinsames kreatives Arbeiten entwickelt. Basierend auf Interviews und Beobachtungen, sowie Erkenntnissen aus vorheriger Forschung, haben wir versucht, die analoge Arbeitsweise mit herkömmlichen Arbeitsmitteln in die digitale Welt zu übertragen. Tele-Board kann mit unterschiedlicher Hardware benutzt werden und ist nicht an spezielle Geräte gebunden. Diese Tatsache hat sich als Vorteil für den Einsatz der Software in größerem Umfang erwiesen. In dieser Arbeit präsentiere ich drei Studien zur Nutzung von Tele-Board von verschiedenen Anwendern in unterschiedlichen Umgebungen. Die Studien wurden sowohl unter kontrollierten Bedingungen, als auch im realen Arbeitsumfeld durchgeführt. Wie zu erwarten war, wird das System besonders dann angenommen, wenn die Anwender Vorteile sehen, die sie mit analogen Arbeitsmitteln und anderer Software nicht haben. Allerdings unterscheiden sich die empfundenen Vorteile je nach Anwender und Nutzungskontext. Daher steigen die Chancen auf eine Verbreitung der Software, wenn sie verschiedene Anwendungsfälle und unterschiedliches Equipment unterstützt. Tele-Board ist mittlerweile seit 1,5 Jahren in einer global agierenden IT-Firma in mindestens fünf Ländern mit konstant steigenden Nutzerzahlen im Einsatz. Auf der Basis von 42 Interviews und Nutzungsstatistiken vom Server wird beschrieben, auf welche Art und Weise das System angewandt wird und welche Vor- und Nachteile es hat. Aus diesen Erkenntnissen sowie anderen Studien, präsentiere ich eine detaillierte Analyse der Nutzung von digitalen Whiteboards und gebe Empfehlungen für die Entwicklung zukünftiger Systeme. KW - Verteiltes Arbeiten KW - CSCW KW - Digitale Whiteboards KW - Design Thinking KW - remote collaboration KW - cscw KW - digital whiteboard KW - design thinking Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72417 ER - TY - THES A1 - Guiducci, Lorenzo T1 - Passive biomimetic actuators : the role of material architecture T1 - Passive biomimetische aktuatoren : die Rolle der Materialarchitektur N2 - Passive plant actuators have fascinated many researchers in the field of botany and structural biology since at least one century. Up to date, the most investigated tissue types in plant and artificial passive actuators are fibre-reinforced composites (and multilayered assemblies thereof) where stiff, almost inextensible cellulose microfibrils direct the otherwise isotropic swelling of a matrix. In addition, Nature provides examples of actuating systems based on lignified, low-swelling, cellular solids enclosing a high-swelling cellulosic phase. This is the case of the Delosperma nakurense seed capsule, in which a specialized tissue promotes the reversible opening of the capsule upon wetting. This tissue has a diamond-shaped honeycomb microstructure characterized by high geometrical anisotropy: when the cellulosic phase swells inside this constraining structure, the tissue deforms up to four times in one principal direction while maintaining its original dimension in the other. Inspired by the example of the Delosoperma nakurense, in this thesis we analyze the role of architecture of 2D cellular solids as models for natural hygromorphs. To start off, we consider a simple fluid pressure acting in the cells and try to assess the influence of several architectural parameters onto their mechanical actuation. Since internal pressurization is a configurational type of load (that is the load direction is not fixed but it “follows” the structure as it deforms) it will result in the cellular structure acquiring a “spontaneous” shape. This shape is independent of the load but just depends on the architectural characteristics of the cells making up the structure itself. Whereas regular convex tiled cellular solids (such as hexagonal, triangular or square lattices) deform isotropically upon pressurization, we show through finite element simulations that by introducing anisotropic and non-convex, reentrant tiling large expansions can be achieved in each individual cell. The influence of geometrical anisotropy onto the expansion behaviour of a diamond shaped honeycomb is assessed by FEM calculations and a Born lattice approximation. We found that anisotropic expansions (eigenstrains) comparable to those observed in the keels tissue of the Delosoperma nakurense are possible. In particular these depend on the relative contributions of bending and stretching of the beams building up the honeycomb. Moreover, by varying the walls’ Young modulus E and internal pressure p we found that both the eigenstrains and 2D elastic moduli scale with the ratio p/E. Therefore the potential of these pressurized structures as soft actuators is outlined. This approach was extended by considering several 2D cellular solids based on two types of non-convex cells. Each honeycomb is build as a lattice made of only one non-convex cell. Compared to usual honeycombs, these lattices have kinked walls between neighbouring cells which offers a hidden length scale allowing large directed deformations. By comparing the area expansion in all lattices, we were able to show that less convex cells are prone to achieve larger area expansions, but the direction in which the material expands is variable and depends on the local cell’s connectivity. This has repercussions both at the macroscopic (lattice level) and microscopic (cells level) scales. At the macroscopic scale, these non-convex lattices can experience large anisotropic (similarly to the diamond shaped honeycomb) or perfectly isotropic principal expansions, large shearing deformations or a mixed behaviour. Moreover, lattices that at the macroscopic scale expand similarly can show quite different microscopic deformation patterns that include zig-zag motions and radical changes of the initial cell shape. Depending on the lattice architecture, the microscopic deformations of the individual cells can be equal or not, so that they can build up or mutually compensate and hence give rise to the aforementioned variety of macroscopic behaviours. Interestingly, simple geometrical arguments involving the undeformed cell shape and its local connectivity enable to predict the results of the FE simulations. Motivated by the results of the simulations, we also created experimental 3D printed models of such actuating structures. When swollen, the models undergo substantial deformation with deformation patterns qualitatively following those predicted by the simulations. This work highlights how the internal architecture of a swellable cellular solid can lead to complex shape changes which may be useful in the fields of soft robotics or morphing structures. N2 - Passive pflanzliche Aktuatoren sind bewegliche Strukturen, die eine komplexe Bewegung ohne jegliche metabolische Energiequelle erzeugen können. Diese Fähigkeit entstammt dabei der Materialverteilung mit unterschiedlicher Quellbarkeit innerhalb der Gewebsstruktur.Die bis heute am besten untersuchten Gewebearten pflanzlicher und künstlicher Passivaktuatoren sind Faserverbundwerkstoffe, in denen steife, fast undehnbare Zellulosemikrofibrillen die ansonsten isotrope Schwellung einer Matrix leiten. Darüber hinaus gibt es in der Natur Beispiele für Aktuationssysteme, wie z.B. die Delosoperma nakurense Samenkapsel, in der das Aktuatorgewebe eine Wabenstruktur aufweist, deren Zellen mit einem hochquellenden Material gefüllt sind. Dabei hat die Wabenstruktur des Gewebes eine hohe geometrische Anisotropie, so dass sich das Gewebe bei Wasseraufnahme bis zur vierfachen Länge entlang einer Hauptrichtung ausdehnt und somit die reversible Öffnung der Kapsel angetrieben wird. Inspiriert durch das Vorbild der Delosoperma nakurense, wird in der vorliegenden Arbeit die Rolle der Architektur von 2D-Zellulärmaterialien als Modell für natürliche passive Aktuatoren analysiert. Zunächst wird anhand eines einfachen Flüssigkeitsdrucks in den Zellen der Einfluss verschiedener architektonischer Parameter auf deren mechanische Betätigung untersucht. Wohingegen regelmäßige konvexe Wabenstrukturen (wie z. B. sechseckige, dreieckige oder quadratische Gitter) sich unter Druck isotropisch verformen, wird durch Finite-Elemente-Simulationen gezeigt, dass es bei anisotropen und nicht-konvexen Zellen zu großen Ausdehnungen jeder einzelnen Zelle kommt. Auch wenn nur eine einzelne Zellgeometrie betrachtet wird, können hierbei viele verschiedene Gitter entstehen. Die Ausdehnungsrichtung des Gitters ist variabel und hängt von der lokalen Konnektivität der Zellen ab. Dies hat Auswirkungen sowohl auf makroskopischer (Gitter-) als auch auf mikroskopischer (Zell-) Ebene. Auf makroskopischer Ebene erfahren diese nicht-konvexen Gitter entweder große anisotrope (ähnlich der Delosperma nakurense Samenkapsel) oder vollkommen isotrope Eigendehnungen, große Scherverformungen oder jeweilige Mischformen. Überdies können Gitter mit ähnlichem makroskopischem Verhalten gänzlich unterschiedliche mikroskopische Verformungsmuster zeigen, wie z.B. Zick-Zack-Bewegungen oder radikale Änderungen der ursprünglichen Zellform. Dies verursacht auch eine entsprechende Änderung der elastischen Eigenschaften. In Abhängigkeit der Gitterarchitektur kann es zu gleichen oder unterschiedlichen mikroskopischen Zelldeformationen kommen, die sich in Summe entweder verstärken oder ausgleichen, und somit die Vielzahl an makroskopischen Verhalten erklären. Interessanterweise lassen sich mit Hilfe einfacher geometrischer Argumente aus der nichtdeformierten Zellform und Zellkonnektivität die Ergebnisse der FE-Simulationen vorhersagen. Die Ergebnisse der Finite-Elemente-Simulationen wurden durch Laborversuche bestätigt, in denen (mit 3D-Drucktechnik gefertigte) Modellgitter ähnliches Ausdehnungsverhalten beim Quellen zeigen. Diese Arbeit zeigt auf, wie die Innenarchitektur eines quellfähigen zellulären Feststoffs zu komplexen Formänderungen führen kann, die in den Bereichen der Soft-Robotik oder bei Morphing-Strukturen angewandt werden können. KW - Aktuatoren KW - Zellulärmaterialien KW - Sorption KW - cellular materials KW - actuating materials KW - swelling KW - reconfigurable matter KW - architectured materials Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70446 ER - TY - THES A1 - Gollrad, Anja T1 - Prosodic cue weighting in sentence comprehension T1 - Gewichtung prosodischer cues bei der Verarbeitung kasusambiger Strukturen BT - processing German case ambiguous structures N2 - Gegenstand der Dissertation ist die Untersuchung der Gewichtung prosodischer Korrelate der Phrasierung im Deutschen, insbesondere der Dauer- und Grundfrequenzeigenschaften auf der Ebene der phonologischen Phrase (φ) und der Intonationsphrase (ι). Für die prosodische Domäne der phonologischen Phrase und der Intonationsphrase gilt als belegt, dass sie häuptsächlich durch phonetische Parameter der präfinalen Dehnung (Lehiste, 1973; Klatt, 1976; Price et al., 1991; Turk & White, 1999), der Pausendauer (Fant & Kruckenberg, 1996) und der Veränderung der Grundfrequenz (Pierrehumbert, 1980) ausgedrückt werden, wobei die phonetischen grenzmarkierenden Eigenschaften eher quantitativer als qualitativer Natur sind. Ebenfalls ist bekannt, dass auf der anderen Seite Hörer diese phonetischen Eigenschaften der Sprecher nutzen, um die prosodische Struktur einer Äußerung zu ermitteln (Snedeker & Trueswell, 2003; Kraljic & Brennan, 2005). Perzeptuelle Evidenz aus dem Englischen und Niederländischen deuten allerdings darauf hin, dass sich Sprachen hinsichtlich der entscheidenden Korrelate, die für die Perzeption der Domänen konsultiert werden, unterscheiden (Aasland & Baum, 2003; Sanderman & Collier, 1997; Scott, 1982; Streeter, 1978). Die grenzmarkierenden phonetischen Korrelate der Domänen werden in der Perzeption unterschiedlich stark gewichtet, was sich im Konzept eines sprachspezifischen prosodischen cue weightings ausdrückt. Für das Deutsche ist allerdings nicht hinreichend bekannt, welche dieser drei phonetischen Parameter die wichtigste Rolle für die Perzeption der phonologischen Phrasengrenze und der Intonationsphrasengrenze spielt. Ziel der Dissertation war es, diejenigen phonetischen Merkmale zu identifizieren, die für die Perzeption der phonologischen Phrasengrenze und der Intonationsphrasengrenze entscheidend sind und sich somit für die Bildung der jeweiligen prosodischen Phrasengrenze als notwendig herausstellen. Die Identifikation und Gewichtung eines phonetischen Merkmals erfolgte in der vorliegenden Arbeit durch die Effekte prosodischer Manipulation der phonetischen Korrelate an phonologischen Phrasengrenzen und Intonationsphrasengrenzen auf die Disambiguierung lokaler syntaktischer Ambiguitäten in der Perzeption. Der Einfluss einzelner phonetischer Merkmale wurde in einem forced-choice Experiment evaluiert, bei dem Hörern syntaktisch ambige Satzfragmente auditiv präsentiert wurden und ihnen anschließend die Aufgabe zukam, aus einer Auswahl an disambiguierenden Satzvervollständigung zu wählen. Die Anzahl der ausgewählten Satzvervollständigungen pro Satzbedingung änderte sich in Abhängigkeit der prosodischen Manipulation der präfinalen Dehnung, der Pausendauer und der Grundfrequenz, wodurch der Einfluss eines einzelnen phonetischen Merkmals auf den Disambiguierungsprozess sichtbar wurde. Ein phonetischer Parameter wurde genau dann als notwendig klassifiziert, wenn sich durch seine Manipulation die Fähigkeit zur Disambiguierung der syntaktischen Strukturen signifikant reduzierte, oder gänzlich scheiterte, und somit die Wahrnehmung prosodischer Kategorien beinflusst wurde (Heldner, 2001). Hat sich in der Perzeption ein phonetisches Merkmal als notwendig herausgestellt, wurde nachfolgend eine optimalitätstheoretische Modellierung vorgeschlagen, die die phonetischen Eigenschaften auf eine (abstrakte) phonologische Strukturerstellung beschreibt. Dieser Verarbeitungsschritt entspricht dem Teilbereich des Perzeptionsprozesses, der in Boersma & Hamann (2009), Escudero (2009) und Féry et al. (2009) unter anderen als Phonetik-Phonologie-Mapping beschrieben wird. Die Dissertation hat folgende Hauptergebnisse hervorgebracht: (1) Für die Perzeption phonologischer Phrasengrenzen und Intonationsphrasengrenzen werden nicht alle messbaren phonetischen Grenzmarkierungen gleichermaßen stark genutzt. Das phonetische Merkmal der präfinalen Dehnung ist auf der Ebene der kleineren prosodischen Domäne, der phonologischen Phrase, notwendig. Die Information der Grundfrequenz in der Form von Grenztönen ist in der größeren Domäne der Intonationsphrase notwendig und damit ausschlaggebend für die Perzeption der prosodischen Phrasengrenze. (2) Auf der Ebene der φ-Phrase werden phonetische Eigenschaften der segmentalen Dauer in Form präfinalen Dehnung zur Bildung abstrakter phonologischer Repräsentationen herangezogen werden. Längenconstraints schreiben syntaktische Konstituenten aufgrund ihrer Inputdauern einer prosodischen Kategorie zu. Inputdauern der ersten Nominalphrase von 500ms und mehr signalisieren Finalität und sind durch eine φ- Grenze am rechten Rand markiert. Inputdauern von 400ms und weniger signalisieren Kontinuität und werden durch das Ausbleiben einer φ-Grenze am rechten Rand der ersten Nominalphrase markiert. Inputdauern, die zwischen den kritischen Längen von 400ms und 500ms variieren sind bezüglich der Bildung von φ- Grenzen ambig und können in der Perzeption nicht eindeutig disambiguiert werden. (3) Auf der Ebene der ι-Phrase wird die Bildung einer prosodischen Struktur durch die reine tonale Kontur (steigend oder fallend) an der ersten Nominalphrase gelenkt. Eine fallende Grundfrequenzkontur an der ersten Nominalphrase signalisiert Finalität und wird durch eine ι-Grenze am rechten Rand markiert. Eine steigende Kontur an der ersten Nominalphrase signalisiert phrasale Kontinuität und ist bei den vorliegenden Sätzen der Genitivbedingung gerade durch das Ausbleiben einer ι-Grenze auf der phonologischen Repräsentationseben gekennzeichnet. N2 - One of the central questions in psycholinguistic is understanding whether and how prosodic phrase boundaries are used to resolve syntactic ambiguities in sentence processing. The present work aimed to answer both, first, the effects of φ- and ι-boundaries on syntactic ambiguity resolution, and second, how the prosodic correlates of the auditory input are taken for the phonetic-phonology mapping in order to attain a meaningful sentence interpretation. With regard to the first aim, we investigated locally syntactic ambiguities involving either φ- or ι-phrase boundaries in German and the structural preference that listeners have, based on the prosodic content. The experiments described in this work show that German listeners exploit both types of prosodic phrase boundaries to resolve local syntactic ambiguities, that however, their disambiguation altered by the presence or absence of prosodic cues correlated with the corresponding boundary. Specifically, the perception data revealed that the phonetically measured prosodic correlates of each prosodic boundary such as pitch accents, boundary tones, deaccentuation and durational properties do not contribute to ambiguity resolution in equal measure. Rather, it is the case that listeners rely primarily on prefinal lengthening as a correlate of phrasing in the vicinity of φ-phrase boundaries, while at the level of the ι-phrase boundary, boundary tones serve as phrasal cues. This way the results of the present work take account of the as yet missing information on individual contributions of prosodic correlates on listeners’ disambiguation of syntactically ambiguous sentences in German. It further implies that the question of how German listeners resolve syntactic ambiguities cannot simply be attributed to the presence or absence of prosodic correlates. The interpretation of the phrasal structure rather depends on a more general picture of cohesion between prosodic correlates and prosodic boundary sizes. With respect to the second aim, the processing models proposed in the present work describe a specific phonetics-phonology mapping in the vicinity of both phrase boundaries. It is assumed that auditory sentence processing proceeds in several successively organized steps, during which listeners transform overt phonetic forms into language specific abstract surface forms. This process is referred to as phonetics-phonology mapping in the present work. Perceptual evidence resulting from the experiments of the present work suggest that the phonetics-phonology mapping is guided by the above mentioned boundary related prosodic correlates. The resulting abstract phonological structure is subjected to the syntax-prosody mapping, in turn. The outcome of the presented perception experiments are modulated in an Optimality-Theoretic framework. The offered OT-models are grounded on the assumption that single prosodic correlates are used by listeners as a signal to syntax in sentence processing. This is in line with studies arguing that the prosodic phrase structure determines the syntactic parse (Cutler et al., 1997; Warren et al., 1995; Pynte & Prieur, 1996; Snedeker & Trueswell, 2003; Kjelgaard & Speer, 1999), to name just a few. KW - prosody KW - German KW - case ambiguity KW - prosodisch KW - Cue-Gewichtung KW - Ambiguität KW - OT-Modellierung Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-81954 ER - TY - THES A1 - Glatzel, Stefan T1 - Cellulose based transition metal nano-composites : structuring and development T1 - Zellulose-basierte Übergangsmetall Nano-Komposite : Strukturierung und Entwicklung N2 - Cellulose is the most abundant biopolymer on earth. In this work it has been used, in various forms ranging from wood to fully processed laboratory grade microcrystalline cellulose, to synthesise a variety of metal and metal carbide nanoparticles and to establish structuring and patterning methodologies that produce highly functional nano-hybrids. To achieve this, the mechanisms governing the catalytic processes that bring about graphitised carbons in the presence of iron have been investigated. It was found that, when infusing cellulose with an aqueous iron salt solution and heating this mixture under inert atmosphere to 640 °C and above, a liquid eutectic mixture of iron and carbon with an atom ratio of approximately 1:1 forms. The eutectic droplets were monitored with in-situ TEM at the reaction temperature where they could be seen dissolving amorphous carbon and leaving behind a trail of graphitised carbon sheets and subsequently iron carbide nanoparticles. These transformations turned ordinary cellulose into a conductive and porous matrix that is well suited for catalytic applications. Despite these significant changes on the nanometre scale the shape of the matrix as a whole was retained with remarkable precision. This was exemplified by folding a sheet of cellulose paper into origami cranes and converting them via the temperature treatment in to magnetic facsimiles of those cranes. The study showed that the catalytic mechanisms derived from controlled systems and described in the literature can be transferred to synthetic concepts beyond the lab without loss of generality. Once the processes determining the transformation of cellulose into functional materials were understood, the concept could be extended to other metals and metal-combinations. Firstly, the procedure was utilised to produce different ternary iron carbides in the form of MxFeyC (M = W, Mn). None of those ternary carbides have thus far been produced in a nanoparticle form. The next part of this work encompassed combinations of iron with cobalt, nickel, palladium and copper. All of those metals were also probed alone in combination with cellulose. This produced elemental metal and metal alloy particles of low polydispersity and high stability. Both features are something that is typically not associated with high temperature syntheses and enables to connect the good size control with a scalable process. Each of the probed reactions resulted in phase pure, single crystalline, stable materials. After showing that cellulose is a good stabilising and separating agent for all the investigated types of nanoparticles, the focus of the work at hand is shifted towards probing the limits of the structuring and pattering capabilities of cellulose. Moreover possible post-processing techniques to further broaden the applicability of the materials are evaluated. This showed that, by choosing an appropriate paper, products ranging from stiff, self-sustaining monoliths to ultra-thin and very flexible cloths can be obtained after high temperature treatment. Furthermore cellulose has been demonstrated to be a very good substrate for many structuring and patterning techniques from origami folding to ink-jet printing. The thereby resulting products have been employed as electrodes, which was exemplified by electrodepositing copper onto them. Via ink-jet printing they have additionally been patterned and the resulting electrodes have also been post functionalised by electro-deposition of copper onto the graphitised (printed) parts of the samples. Lastly in a preliminary test the possibility of printing several metals simultaneously and thereby producing finely tuneable gradients from one metal to another have successfully been made. Starting from these concepts future experiments were outlined. The last chapter of this thesis concerned itself with alternative synthesis methods of the iron-carbon composite, thereby testing the robustness of the devolved reactions. By performing the synthesis with partly dissolved scrap metal and pieces of raw, dry wood, some progress for further use of the general synthesis technique were made. For example by using wood instead of processed cellulose all the established shaping techniques available for wooden objects, such as CNC milling or 3D prototyping, become accessible for the synthesis path. Also by using wood its intrinsic well defined porosity and the fact that large monoliths are obtained help expanding the prospect of using the composite. It was also demonstrated in this chapter that the resulting material can be applied for the environmentally important issue of waste water cleansing. Additionally to being made from renewable resources and by a cheap and easy one-pot synthesis, the material is recyclable, since the pollutants can be recovered by washing with ethanol. Most importantly this chapter covered experiments where the reaction was performed in a crude, home-built glass vessel, fuelled – with the help of a Fresnel lens – only by direct concentrated sunlight irradiation. This concept carries the thus far presented synthetic procedures from being common laboratory syntheses to a real world application. Based on cellulose, transition metals and simple equipment, this work enabled the easy one-pot synthesis of nano-ceramic and metal nanoparticle composites otherwise not readily accessible. Furthermore were structuring and patterning techniques and synthesis routes involving only renewable resources and environmentally benign procedures established here. Thereby it has laid the foundation for a multitude of applications and pointed towards several future projects reaching from fundamental research, to application focussed research and even and industry relevant engineering project was envisioned. N2 - Die vorliegende Arbeit beschäftigt sich mit der Synthese und Strukturierung von Nanokompositen, d.h. mit ausgedehnten Strukturen, welche Nanopartikel enthalten. Im Zuge der Arbeit wurde der Mechanismus der katalytischen Graphitisierung, ein Prozess, bei dem ungeordneter Kohlenstoff durch metallische Nanopartikel in geordneten (graphitischen) Kohlenstoff überführt wird, aufgeklärt. Dies wurde exemplarisch am Beispiel von Zellulose und Eisen durchgeführt. Die untersuchte Synthese erfolgte durch das Lösen eines Eisensalzes in Wasser und die anschließende Zugabe von so viel Zellulose, dass das die gesamte Eisensalzlösung aufgenommen wurde. Die so erhaltene Mischung wurde anschließend unter Schutzgas innerhalb kürzester Zeit auf 800 °C erhitzt. Hierbei zeigte sich, dass zu Beginn der Reaktion Eisenoxidnanopartikel (Rost) auf der Oberfläche der Zellulose entstehen. Beim weiteren Erhöhen der Temperatur werden diese Partikel zu Eisenpartikeln umgewandelt. Diese lösen dann kleine Bereiche der Zellulose auf, wandeln sich in Eisenkarbid um und scheiden graphitischen Kohlenstoff ab. Nach der Reaktion sind die Zellulosefasern porös, jedoch bleibt ihre Faserstruktur vollkommen erhalten. Dies konnte am Beispiel eines Origamikranichs gezeigt werden, welcher nach dem Erhitzen zwar seine Farbe von Weiß zu Schwarz verändert hatte, ansonsten aber seine Form vollkommen beibehält. Aufgrund der eingebetteten Eisenkarbid Nanopartikel war der Kranich außerdem hochgradig magnetisch. Basierend auf dieser Technik wurden außerdem winzige metallische Nanopartikel aus Nickel, Nickel-Palladium, Nickel-Eisen, Kobalt, Kobalt-Eisen und Kupfer, sowie Partikel aus den Verbundkarbiden Eisen-Mangan-Karbid und Eisen-Wolfram-Karbid, jeweils in verschiedenen Mischungsverhältnissen, hergestellt und analysiert. Da die Vorstufe der Reaktion flüssig ist, konnte diese mit Hilfe eines einfachen kommerziellen Tintenstrahldruckers strukturiert auf Zellulosepapier aufgebracht werden. Dies ermöglicht gezielt Leiterbahnen, bestehend aus graphitisiertem Kohlenstoff, in ansonsten ungeordnetem (amorphen) Kohlenstoff zu erzeugen. Diese Methode wurde anschließend auf Systeme mit mehreren Metallen übertragen. Hierbei wurde die Tatsache, dass moderne Drucker vier Tintenpatronen beherbergen, ausgenutzt um Nanopartikel mit beliebigen Mischungsverhältnisse von Metallen zu erzeugen. Dieser Ansatz hat potentiell weitreichende Auswirkungen im Feld der Katalyse, da hiermit hunderte oder gar tausende Mischungen simultan erzeugt und getestet werden können. Daraus würden sich große Zeiteinsparungen (Tage anstelle von Monaten) bei der Entwicklung neuer Katalysatoren ergeben. Der letzte Teil der Arbeit beschäftigt sich mit der umweltfreundlichen Synthese der obengenannten Komposite. Hierbei wurden erfolgreich Altmetall und Holzstücke als Ausgangstoffe verwandt. Zusätzlich wurde gezeigt, dass die gesamte Synthese ohne Verwendung von hochentwickeltem Equipment durchgeführt werden kann. Dazu wurde eine sogenannte Fresnel-Linse genutzt um Sonnenlicht zu bündeln und damit direkt die Reaktionsmischung auf die benötigten 800 °C zu erhitzen. Weiterhin wurde ein selbst gebauter Glasreaktor eingesetzt und gezeigt, wie das entstehende Produkt als Abwasserfilter genutzt werden kann. Die Kombination dieser Ergebnisse bedeutet, dass dieses System sich beispielsweise zum Einsatz in Katastrophenregionen eignen würde, um ohne Strom und besondere Ausrüstung vor Ort Wasserfilter herzustellen. KW - Zellulose KW - Übergangsmetalle KW - Carbide KW - Nanopartikel KW - Komposite KW - Cellulose KW - Transitionmetals KW - Carbides KW - Nanoparticles KW - Composites Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-64678 ER - TY - THES A1 - Genzel, Susanne T1 - Lexical and post-lexical tones in Akan T1 - Lexikalische und post-lexikalische Töne im Akan N2 - This dissertation is about factors that contribute to the surface forms of tones in connected speech in Akan. Akan is an African tone language, which is spoken in Ghana. It has two level tones (low and high), automatic and non-automatic downstep. Downstep is the major factor that influences the surface forms of tones. The thesis shows that downstep is caused by declination. It is argued that declination is an intonational property of Akan, which serves to signal coherence. A phonological representation using a high and a low register tone, associating to the left and right edge of an intonational phrase (IP), respectively, is proposed. Declination/downstep is modelled using a (phonetic) pitch implementation algorithm (Liberman & Pierrehumbert, 1984). An innovative application of the algorithm is presented, which naturally captures the relation between declination and downstep in Akan. Another important factor is the prosodic manifestation of sentence level pragmatic meanings, such as sentence mode and focus. Regarding the former, the thesis shows that a post-lexical low tone, which associates with the right edge of an IP, signals interrogativity. Additionally, lexical tones in Yes – No questions are realized in a higher pitch register, which does not lead to a reduction of declination. It is claimed that the higher register is not part of the phonological representation in Akan, but that it emerges at the phonetic level to compensate for the ‘unnatural’ form of the question morpheme and to satisfy the Frequency code (Gussenhoven, 2002; 2004). An extension of Rialland’s (2007) typology in terms of a new category called “low tense” question prosody is proposed. Concerning focus marking, it is argued that the use of the morpho-syntactic focus marking strategy is related to extra grammatical factors, such as hearer expectation, discourse expectability (Zimmermann, 2007) and emphasis (Hartmann, 2008). If a speaker of Akan wants to highlight a particular element in a sentence, in-situ, i.e. by means of prosody, the default prosodic structure is modified in such a way that the focused element forms its own phonological phrase (pP). If it is already contained in a pP, the boundary deliminating the focused element is enhanced (Féry, 2012). This restructuring/enhancement is accompanied by an interruption of the otherwise continuous melody due to insertion of a pause and/or a glottal stop. Beside declination and intonation, raising of H tones applies in Akan. H raising is analyzed as a local anticipatory planning effect, employed at the phonetic level, which enhances the perceptual distance between low and high tones. Low tones are raised, if they are wedged between two high tones. L raising is argued to be a local carryover effect (co-articulation). Further, it is demonstrated that global anticipatory raising takes place. It is shown that Akan speakers anticipate the length of an IP. Preplanning (anticipatory raising) is argued to be an important process at the level of pitch implementation. It serves to ensure that declination can be maintained throughout the IP, which prevents pitch resetting. The melody of an Akan sentence is largely determined by the choice of words. The inventory of post-lexical tones is small. It consists of post-lexical register tones, which trigger declination and post-lexical intonational tones, which signal sentence type. The overall melodic shape is falling. At the local level, H raising and L raising occur. At the global level, initial low and high tones are realized higher if they occur in a long and/or complex sentence. This dissertation shows that many factors, which emerge at different levels of the tone production process, contribute to the surface form of tones in Akan. N2 - Diese Dissertation befasst sich mit Faktoren, welche die Oberflächenrealisierung von Tönen in gesprochenem Akan beeinflussen. Akan ist eine afrikanische Tonsprache, die in Ghana gesprochen wird. Das Akan verfügt über zwei Töne, tief und hoch, automatischen und nicht-automatischen Downstep. Downstep ist als der wichtigste Einflussfaktor auf die Oberflächenrealisierung von Tönen anzusehen. Diese Arbeit zeigt, dass der Absenkungseffekt, der allgemeinhin als Downstep bekannt ist, durch Deklination entsteht. Es wird argumentiert, dass Deklination als Intonationseigenschaft des Akan anzusehen ist, welche dazu dient Kohärenz auszudrücken. Ein Vorschlag zur phonologischen Repräsentation der Deklination wird unterbreitet; jeweils ein hoher und ein tiefer Registerton assoziieren mit dem linken und rechten Rand der Intonationsphrase (IP). Deklination/downstep werden mit Hilfe eines (phonetischen) Tonhöhenimplementationsalgorithmus (Liberman & Pierrehumbert, 1984) modelliert. Eine innovative Anwendung des Algorithmus wird präsentiert, welche die Beziehung zwischen Deklination und Downstep im Akan natürlich erfasst. Ein anderer wichtige Faktor ist die prosodische Manifestation von pragmatischer Bedeutung auf Satzebene, wie Satzmodus und Fokus. Bezüglich der Satzmodusmarkierung zeigt die Dissertation, dass diese Bedeutung durch einen tiefen post-lexikalischen Grenzton, welcher am rechten Rand der IP assoziiert, vermittelt wird. Zusätzlich, werden lexikalische Töne in Ja – Nein Fragen in einem höheren Tonhöhenregister realisiert. Es kommt jedoch nicht zu einer Reduktion der Deklination. Es wird vorgeschlagen, dass das höhere Register nicht Teil der phonologischen Repräsentation des Akan ist, da es auf der phonetische Ebene entsteht um die „unnatürliche“ Form der Frageprosodie zu kompensieren und damit den „Frequency Code“ (Gussenhoven , 2002, 2004) zu befriedigen. Es wird vorgeschlagen, Rialland’s Fragetypologie der afrikanischen Sprachen um die Kategorie „low tense“ zu erweitern. Bezüglich der Fokusmarkierung wird argumentiert, dass die Nutzung der morpho-syntaktische Strategie an extra-grammatische Faktoren wie Hörererwartung, Diskursakzeptabilität (Zimmermann, 2007) und Emphase (Hartmann, 2008) geknüpft ist. Wenn ein Sprecher des Akan ein bestimmtes Element im Satz prosodisch hervorheben möchte, wird die Standardphrasierung modifiziert, so dass das fokussierte Element seine eigene phonologische Phrase (pP) bildet. Falls das fokussierte Element standardmäßig in eine pP phrasiert ist, werden die Grenzen der pP verstärkt (Féry, 2012). Diese Restrukturierung/Verstärkung geht einher mit einer Unterbrechung des kontinuierlichen Signals durch Einfügung einer Pause und/oder eines Glottalverschlusses. Neben Deklination und Intonation, findet Hochtonanhebung im Akan statt. Hochtonanhebung wird als lokaler antizipatorischer Planungseffekt analysiert, welcher die perzeptuelle Distanz zwischen Hoch- und Tiefton vergrößert. Tieftöne werden angehoben wenn sie zwischen Hochtönen auftreten. Tieftonanhebung wird als lokaler Koartikulationseffekt analysiert. Außerdem wird gezeigt, dass eine globale antizipatorische Tonanhebung auftritt. Sprecher des Akan antizipieren die Länge/Komplexität der IP. Es wird argumentiert, dass antizipatorische Tonanhebung ein wichtiger Prozess auf Ebene der Tonhöhenimplementierung ist, da er sicherstellt, dass Deklination innerhalb der IP aufrechterhalten werden kann. Die Melodie eines Satzes des Akan ist größtenteils durch die Wahl der Wörter bestimmt. Das Inventar an post-lexikalischen Tönen ist klein. Es besteht aus post-lexikalischen Registertönen, welche Deklination auslösen und post-lexikalischen Intonationstönen, welche Satzmodus ausdrücken. Im Allgemeinen ist die Melodieverführung fallend. Auf lokaler Ebene treten Hoch- und Tieftonanhebung auf. Auf globaler Ebene werden initiale Hoch- und Tieftöne höher realisiert, wenn sie in einem langen und/oder komplexen Satz auftreten. Diese Dissertation zeigt das viele Faktoren, welche an unterschiedlichen Ebenen des Tonproduktionsprozesses auftreten zur Oberflächenform der Töne des Akan beitragen. KW - Akan KW - tone language KW - prosody KW - phonetics KW - downstep KW - Akan KW - Tonsprache KW - Prosodie KW - Phonetik KW - Downstep Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77969 ER - TY - THES A1 - Garz, Andreas T1 - Nichtlineare Mikroskopie und Bilddatenverarbeitung zur biochemischen Analyse synchronisierter Chlamydomonas-Zellen T1 - Non-linear microscopy and image data processing for biochemical analysis of synchronized Chlamydomonas cells N2 - Unter geeigneten Wachstumsbedingungen weisen Algenkulturen oft eine größere Produktivität der Zellen auf, als sie bei höheren Pflanzen zu beobachten ist. Chlamydomonas reinhardtii-Zellen sind vergleichsweise klein. So beträgt das Zellvolumen während des vegetativen Zellzyklus etwa 50–3500 µm³. Im Vergleich zu höheren Pflanzen ist in einer Algensuspension die Konzentration der Biomasse allerdings gering. So enthält beispielsweise 1 ml einer üblichen Konzentration zwischen 10E6 und 10E7 Algenzellen. Quantifizierungen von Metaboliten oder Makromolekülen, die zur Modellierung von zellulären Prozessen genutzt werden, werden meist im Zellensemble vorgenommen. Tatsächlich unterliegt jedoch jede Algenzelle einer individuellen Entwicklung, die die Identifizierung charakteristischer allgemeingültiger Systemparameter erschwert. Ziel dieser Arbeit war es, biochemisch relevante Messgrößen in-vivo und in-vitro mit Hilfe optischer Verfahren zu identifizieren und zu quantifizieren. Im ersten Teil der Arbeit wurde ein Puls-Amplituden-Modulation(PAM)-Fluorimetriemessplatz zur Messung der durch äußere Einflüsse bedingten veränderlichen Chlorophyllfluoreszenz an einzelnen Zellen vorgestellt. Die Verwendung eines kommerziellen Mikroskops, die Implementierung empfindlicher Nachweiselektronik und einer geeignete Immobilisierungsmethode ermöglichten es, ein Signal-zu-Rauschverhältnis zu erreichen, mit dem Fluoreszenzsignale einzelner lebender Chlamydomonas-Zellen gemessen werden konnten. Insbesondere wurden das Zellvolumen und der als Maß für die Effizienz des Photosyntheseapparats bzw. die Zellfitness geltende Chlorophyllfluoreszenzparameter Fv/Fm ermittelt und ein hohes Maß an Heterogenität dieser zellulären Parameter in verschiedenen Entwicklungsstadien der synchronisierten Chlamydomonas-Zellen festgestellt. Im zweiten Teil der Arbeit wurden die bildgebende Laser-Scanning-Mikroskopie und anschließende Bilddatenanalyse zur quantitativen Erfassung der wachstumsabhängigen zellulären Parameter angewandt. Ein kommerzielles konfokales Mikroskop wurde um die Möglichkeit der nichtlinearen Mikroskopie erweitert. Diese hat den Vorteil einer lokalisierten Anregung, damit verbunden einer höheren Ortsauflösung und insgesamt geringeren Probenbelastung. Weiterhin besteht neben der Signalgewinnung durch Fluoreszenzanregung die Möglichkeit der Erzeugung der Zweiten Harmonischen (SHG) an biophotonischen Strukturen, wie der zellulären Stärke. Anhand der Verteilungsfunktionen war es möglich mit Hilfe von modelltheoretischen Ansätzen zelluläre Parameter zu ermitteln, die messtechnisch nicht unmittelbar zugänglich sind. Die morphologischen Informationen der Bilddaten ermöglichten die Bestimmung der Zellvolumina und die Volumina subzellularer Strukturen, wie Nuclei, extranucleäre DNA oder Stärkegranula. Weiterhin konnte die Anzahl subzellulärer Strukturen innerhalb einer Zelle bzw. eines Zellverbunds ermittelt werden. Die Analyse der in den Bilddaten enthaltenen Signalintensitäten war Grundlage einer relativen Konzentrationsbestimmung von zellulären Komponenten, wie DNA bzw. Stärke. Mit dem hier vorgestellten Verfahren der nichtlinearen Mikroskopie und nachfolgender Bilddatenanalyse konnte erstmalig die Verteilung des zellulären Stärkegehalts in einer Chlamydomonas-Population während des Wachstums bzw. nach induziertem Stärkeabbau verfolgt werden. Im weiteren Verlauf wurde diese Methode auch auf Gefrierschnitte höherer Pflanzen, wie Arabidopsis thaliana, angewendet. Im Ergebnis wurde gezeigt, dass viele zelluläre Parameter, wie das Volumen, der zelluläre DNA- und Stärkegehalt bzw. die Anzahl der Stärkegranula durch eine Lognormalverteilung, mit wachstumsabhängiger Parametrisierung, beschrieben werden. Zelluläre Parameter, wie Stoffkonzentration und zelluläres Volumen, zeigen keine signifikanten Korrelationen zueinander, woraus geschlussfolgert werden muss, dass es ein hohes Maß an Heterogenität der zellulären Parameter innerhalb der synchronisierten Chlamydomonas-Populationen gibt. Diese Aussage gilt sowohl für die als homogenste Form geltenden Synchronkulturen von Chlamydomonas reinhardtii als auch für die gemessenen zellulären Parameter im intakten Zellverbund höherer Pflanzen. Dieses Ergebnis ist insbesondere für modelltheoretische Betrachtungen von Relevanz, die sich auf empirische Daten bzw. zelluläre Parameter stützen welche im Zellensemble gemessen wurden und somit nicht notwendigerweise den zellulären Status einer einzelnen Zelle repräsentieren. N2 - Under appropriate growth conditions cells of algae cultures often show a greater productivity than it is observed for cells in higher plants. The cells of Chlamydomonas reinhardtii are relatively small. The cell volume during the vegetative cell cycle ranges only between 50-3500 µm³. Compared to higher plants the concentration of biomass in an algal suspension is small. Thus, 1 ml of a suspension with a standard concentration contains between 10E6 and 10E7 algal cells. Quantification of metabolites or macromolecules, which are used for modeling of cellular processes, is usually carried out in the cell ensemble. However, every single algal cell undergoes an individual development, which makes the identification of characteristic universal system parameters far more complicated. The aim of this work was to identify and quantify relevant biochemical parameters, which were measured in vivo and in vitro using optical methods. In the first part, a Pulse Amplitude Modulation (PAM) measuring station was introduced to measure the variable chlorophyll fluorescence of individual cells. A commercial microscope was combined with sensitive detection electronics and the application of suitable immobilization methods. This allowed the achievement of a signal-to-noise ratio which made it possible to measure the fluorescence signals of individual living Chlamydomonas cells. In particular, cell volume and the chlorophyll fluorescence parameter Fv/Fm as a measure of the photosynthetic apparatus efficiency and cell fitness were determined. A high degree of cellular heterogeneity of these parameters in different development stages of synchronized Chlamydomonas cells was determined. In the second part, the imaging laser scanning microscopy and subsequent image analysis for quantitative detection of the growth-dependent cellular parameters were applied. A commercial confocal microscope was extended by the possibility of non-linear microscopy. Hereby, a more localized excitation of the samples was possible. Hence, a higher spatial resolution and lower overall sample stressing were achieved. Besides signal generation through fluorescence excitation, second harmonic generation (SHG) on biophotonic structures, such as cellular starch, was applied. Based on distribution functions cellular parameters were determined by using theoretical model approaches. This allowed the characterization of parameters that were not directly accessible by measurement. The morphological information of the image data enabled the determination of cell volume and volumes of sub-cellular structures such as nuclei, extra-nuclear DNA, and starch granules. Furthermore, the number of sub-cellular structures within a cell or a cell compound was determined. Analysis of signal intensities constituted the basis of relative quantification of cellular components such as DNA and starch. For the first time, the method of non-linear microscopy and subsequent image analysis enabled the characterization of the cellular starch distribution of a Chlamydomonas population during cell growth, and after induced starch degradation, respectively. Subsequently, this method was additionally applied to frozen sections of higher plants like Arabidopsis thaliana. As a result it was shown that many cellular parameters like volume, cellular DNA content, and number of starch granules are described by means of a log-normal distribution with growth-related parameterization. Cellular parameters, such as concentration and cellular volume, showed no significant correlations among each other. Therefore, it was concluded that there is a high degree of cellular parameter heterogeneity within synchronized Chlamydomonas populations. This applies not only to synchronized cultures of Chlamydomonas reinhardtii, which are currently considered as the most homogeneous form, but also to measured cellular parameters of intact cell assemblies in higher plants. The result is especially important for model-theoretic considerations, which are based on empirical data, and cellular parameters obtained from cell ensembles, respectively. KW - Nichtlineare Mikroskopie KW - Bilddatenanalyse KW - Einzelzellanalyse KW - Stärkemetabolismus KW - Zellimmobilisierung KW - non-linear microscopy KW - image data analysis KW - single cell analysis KW - starch metabolism KW - cell immobilization Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66904 ER - TY - THES A1 - Garoufi, Konstantina T1 - Interactive generation of effective discourse in situated context : a planning-based approach T1 - Interaktive Generierung von effektivem Diskurs in situiertem Kontext: Ein planungsbasierter Ansatz N2 - As our modern-built structures are becoming increasingly complex, carrying out basic tasks such as identifying points or objects of interest in our surroundings can consume considerable time and cognitive resources. In this thesis, we present a computational approach to converting contextual information about a person's physical environment into natural language, with the aim of helping this person identify given task-related entities in their environment. Using efficient methods from automated planning - the field of artificial intelligence concerned with finding courses of action that can achieve a goal -, we generate discourse that interactively guides a hearer through completing their task. Our approach addresses the challenges of controlling, adapting to, and monitoring the situated context. To this end, we develop a natural language generation system that plans how to manipulate the non-linguistic context of a scene in order to make it more favorable for references to task-related objects. This strategy distributes a hearer's cognitive load of interpreting a reference over multiple utterances rather than one long referring expression. Further, to optimize the system's linguistic choices in a given context, we learn how to distinguish speaker behavior according to its helpfulness to hearers in a certain situation, and we model the behavior of human speakers that has been proven helpful. The resulting system combines symbolic with statistical reasoning, and tackles the problem of making non-trivial referential choices in rich context. Finally, we complement our approach with a mechanism for preventing potential misunderstandings after a reference has been generated. Employing remote eye-tracking technology, we monitor the hearer's gaze and find that it provides a reliable index of online referential understanding, even in dynamically changing scenes. We thus present a system that exploits hearer gaze to generate rapid feedback on a per-utterance basis, further enhancing its effectiveness. Though we evaluate our approach in virtual environments, the efficiency of our planning-based model suggests that this work could be a step towards effective conversational human-computer interaction situated in the real world. N2 - Die zunehmende Komplexität moderner Gebäude und Infrastrukturen führt dazu, dass alltägliche Aktivitäten, wie z.B. die Identifizierung von gesuchten Objekten in unserer Umgebung und das Auffinden von Orten, beträchtliche Zeit und kognitive Ressourcen in Anspruch nehmen können. In dieser Dissertation werden computerbasierte Verfahren präsentiert, welche eine Person dabei unterstützen, Zielobjekte in Ihrem Umfeld zu identifizieren. Dabei werden Informationen über die Situation und das physische Umfeld der Person - der sog. situierte Kontext - in natürliche Sprache umgewandelt. So wird Diskurs generiert, der einen Hörer interaktiv zum Erreichen eines Zieles bzw. zum Abschließen einer Aufgabe führt. Hierbei kommen Methoden aus der Planung zum Einsatz, einem Gebiet der künstlichen Intelligenz, welches sich mit der Berechnung von zielgerichteten Handlungsabfolgen beschäftigt. Die in dieser Arbeit vorgestellten Verfahren widmen sich den Herausforderungen der Kontrolle des situierten Kontexts, der Anpassung an den situierten Kontext sowie der Überwachung des situierten Kontexts. Zu diesem Zweck wird zunächst ein Sprachgenerierungssystem entwickelt, das plant, wie der nicht-linguistische Kontext einer Szene manipuliert werden kann, damit die Referenz auf relevante Objekte erleichtert wird. Dadurch ist es möglich, die kognitive Beanspruchung eines Hörers bei der Interpretation einer Referenz über mehrere sprachliche Äußerungen zu verteilen. Damit die linguistischen Entscheidungen des Systems in einem vorgegebenen Kontext optimiert werden können, wird weiterhin gelernt, die Äußerungen von Sprechern danach zu differenzieren, wie hilfreich sie in bestimmten Situationen für die Hörer waren. Dabei wird das Verhalten von menschlichen Sprechern, welches sich als hilfreich erwiesen hat, modelliert. Das daraus entstehende System kombiniert symbolisches und statistisches Schließen und stellt somit einen Lösungsansatz für das Problem dar, wie nicht-triviale referentielle Entscheidungen in reichem Kontext getroffen werden können. Zum Schluss wird ein komplementärer Mechanismus vorgestellt, der potentielle Missverständnisse bzgl. generierter Referenzen verhindern kann. Zu diesem Zweck kommt Blickerfassungstechnologie zum Einsatz. Auf Basis der Überwachung und Auswertung des Blicks des Hörers können Rückschlüsse über die Interpretation gegebener Referenzen gemacht werden; dieser Mechanismus funktioniert auch in sich dynamisch verändernden Szenen zuverlässig. Somit wird ein System präsentiert, welches den Blick des Hörers nutzt, um rasch Feedback zu generieren. Dieses Vorgehen verbessert die Effektivität des Diskurses zusätzlich. Die vorgestellten Verfahren werden in virtuellen Umwelten evaluiert. Die Effizienz des planungsbasierten Modells ist allerdings ein Indiz dafür, dass die in dieser Arbeit gemachten Vorschläge dazu dienen können, effektive Mensch-Computer-Interaktion auf Basis von Sprache auch in der realen Welt umzusetzen. KW - natural language generation KW - human-computer interaction KW - situated context KW - effective discourse KW - automated planning Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69108 ER - TY - THES A1 - Ganesh, Bhanu Priya T1 - Host-microbe interactions in the inflamed gut T1 - Wirt-Mikroben-Interaktionen im entzündenden Darm N2 - Initiation and perpetuation of inflammatory bowel diseases (IBD) may result from an exaggerated mucosal immune response to the luminal microbiota in a susceptible host. We proposed that this may be caused either 1) by an abnormal microbial composition or 2) by weakening of the protective mucus layer due to excessive mucus degradation, which may lead to an easy access of luminal antigens to the host mucosa triggering inflammation. We tested whether the probiotic Enterococcus faecium NCIMB 10415 (NCIMB) is capable of reducing chronic gut inflammation by changing the existing gut microbiota composition and aimed to identify mechanisms that are involved in possible beneficial effects of the probiotic. To identify health-promoting mechanisms of the strain, we used interleukin (IL)-10 deficient mice that spontaneously develop gut inflammation and fed these mice a diet containing NCIMB (106 cells g-1) for 3, 8 and 24 weeks, respectively. Control mice were fed an identically composed diet but without the probiotic strain. No clear-cut differences between the animals were observed in pro-inflammatory cytokine gene expression and in intestinal microbiota composition after probiotic supplementation. However, we observed a low abundance of the mucin-degrading bacterium Akkermansia muciniphila in the mice that were fed NCIMB for 8 weeks. These low cell numbers were associated with significantly lower interferon gamma (IFN-γ) and IFN-γ-inducible protein (IP-10) mRNA levels as compared to the NCIMB-treated mice that were killed after 3 and 24 weeks of intervention. In conclusion, NCIMB was not capable of reducing gut inflammation in the IL-10-/- mouse model. To further identify the exact role of A. muciniphila and uncover a possible interaction between this bacterium, NCIMB and the host in relation to inflammation, we performed in vitro studies using HT-29 colon cancer cells. The HT-29 cells were treated with bacterial conditioned media obtained by growing either A. muciniphila (AM-CM) or NCIMB (NCIMB-CM) or both together (COMB-CM) in Dulbecco’s Modified Eagle Medium (DMEM) for 2 h at 37 °C followed by bacterial cell removal. HT-29 cells treated with COMB-CM displayed reduced cell viability after 18 h (p<0.01) and no viable cells were detected after 24 h of treatment, in contrast to the other groups or heated COMB-CM. Detection of activated caspase-3 in COMB-CM treated groups indicated that death of the HT-29 cells was brought about by apoptosis. It was concluded that either NCIMB or A. muciniphila produce a soluble and heat-sensitive factor during their concomitant presence that influences cell viability in an in vitro system. We currently hypothesize that this factor is a protein, which has not yet been identified. Based on the potential effect of A. muciniphila on inflammation (in vivo) and cell-viability (in vitro) in the presence of NCIMB, we investigated how the presence of A. muciniphila affects the severity of an intestinal Salmonella enterica Typhimurium (STm)-induced gut inflammation using gnotobiotic C3H mice with a background microbiota of eight bacterial species (SIHUMI, referred to as simplified human intestinal microbiota). Presence of A. muciniphila in STm-infected SIHUMI (SIHUMI-AS) mice caused significantly increased histopathology scores and elevated mRNA levels of IFN-γ, IP-10, tumor necrosis factor alpha (TNF-α), IL-12, IL-17 and IL-6 in cecal and colonic tissue. The number of mucin filled goblet cells was 2- to 3- fold lower in cecal tissue of SIHUMI-AS mice compared to SIHUMI mice associated with STm (SIHUMI-S) or A. muciniphila (SIHUMI-A) or SIHUMI mice. Reduced goblet cell numbers significantly correlated with increased IFN-γ (r2 = -0.86, ***P<0.001) in all infected mice. In addition, loss of cecal mucin sulphation was observed in SIHUMI-AS mice. Concomitant presence of A. muciniphila and STm resulted in a drastic change in microbiota composition of the SIHUMI consortium. The proportion of Bacteroides thetaiotaomicron in SIHUMI, SIHUMI-A and SIHUMI-S mice made up to 80-90% but was completely taken over by STm in SIHUMI-AS mice contributing 94% to total bacteria. These results suggest that A. muciniphila exacerbates STm-induced intestinal inflammation by its ability to disturb host mucus homeostasis. In conclusion, abnormal microbiota composition together with excessive mucus degradation contributes to severe intestinal inflammation in a susceptible host. N2 - Die Initiation and die Manifestation von entzündlichen Darmerkrankungen (inflammatory bowel diseases - IBD) können aus einer übersteigerten mukosalen Immunreaktion auf die luminale Mikrobiota in einem empfänglichen Wirt resultieren. Wir schlagen vor, dass dies entweder durch 1) eine abnormale mikrobielle Zusammensetzung oder 2) die Abschwächung der schützenden Schleimschicht, eingeleitet durch deren fortgeschrittenen Abbau, verursacht werden kann. Diese Entwicklung ermöglicht einen erleichterten Zugang des luminalen Antigens zu der Mukosa des Wirts und somit die Auslösung der Entzündung. Wir haben getestet, ob das probiotische Bakterium Enterococcus faecium NCIMB 10415 (NCIMB) in der Lage ist, der chronischen Darmentzündung durch Veränderung der Zusammensetzung der Darmmikrobiota entgegenzuwirken und strebten an, die zugrunde liegenden Mechanismen der probiotischen Wirkungsweise zu identifizieren. Für die Aufklärung der gesundheitsfördernden Mechanismen dieses Bakterienstammes wurden Interleukin-10 defiziente Mäuse verwendet, die spontan eine Darmentzündung entwickeln. Den Mäusen wurde für 3, 8 und 24 Wochen eine NCIMB enthaltende Diät verabreicht. Nach der Fütterung waren keine eindeutigen Unterschiede zwischen den Gruppen hinsichtlich der Genexpression von pro-inflammatorischen Zytokinen und der Zusammensetzung der Darmmikrobiota zu beobachten, obwohl eine geringere Zellzahl des schleimabbauenden Bakteriums Akkermansia muciniphila in den mit NCIMB gefütterten Mäusen nach 8 Wochen festgestellt wurde. Daraus folgt, dass NCIMB nicht in der Lage ist, dem Verlauf der Darmentzündung im IL-10-/--Mausmodell entgegenzuwirken. In der nachfolgenden Studie wurde untersucht, wie die Anwesenheit von A. muciniphila den Ausprägungsgrad einer intestinalen Salmonella enterica Typhimurium (STm) induzierten Darmentzündung beeinflusst. Dafür wurden gnobiotische C3H-Mäuse mit einem mikrobiellen Hintergrund von acht Bakterienspezies (SIHUMI) verwendet. Die gleichzeitige Anwesenheit von A. muciniphila und STm verursachte eine drastische Veränderung der Mikrobiota-Zusammensetzung des SIHUMI-Konsortiums. Diese Ergebnisse zeigen, dass A. muciniphila durch seine Fähigkeit, die Homöostase/Selbstregulation der Schleimbildung zu stören, die STm-induzierte Darmentzündung verschärft. Es kann geschlußfolgert werden, dass eine abweichende Zusammensetzung der Mikrobiota in Kombination mit einem massiven Abbau des Mucus zur schweren intestinalen Entzündung im empfänglichen Wirt beiträgt. KW - IBD KW - probiotics KW - immune response KW - mucus KW - goblet cells KW - chronic and acute inflammation KW - apoptosis KW - commensal KW - cytokines KW - pathogen KW - infection Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69558 ER - TY - THES A1 - Ganahl, Joseph Patrick T1 - Corruption, good governance, and the African state : a critical analysis of the political-economic foundations of orruption in Sub-Saharan Africa T1 - Korruption, Good Governance und der afrikanische Staat : eine kritische Analyse der politökonomischen Grundlagen der Korruption in Sub-Sahara Afrika N2 - African states are often called corrupt indicating that the political system in Africa differs from the one prevalent in the economically advanced democracies. This however does not give us any insight into what makes corruption the ruling norm of African statehood. Thus we must turn to the overly neglected theoretical work on the political economy of Africa in order to determine how the poverty of governance in Africa is firmly anchored both in Africa’s domestic socioeconomic reality, as well as in the region’s role in the international economic order. Instead of focusing on increased monitoring, enforcement and formal democratic procedures, this book integrates economic analysis with political theory in order to arrive at a better understanding of the political-economic roots of corruption in Sub-Saharan Africa. N2 - Häufig werden die afrikanischen Staaten als durch und durch ‚korrumpiert‘ bezeichnet, also unterstellt, dass sich die politischen Systeme Sub-Sahara Afrikas in ihrer Funktionsweise von denen fortgeschrittener Demokratien unterscheiden, ohne dass deutlich wird, was Korruption zur Norm afrikanischer Staatlichkeit macht. Aus diesem Grund greift diese Studie auf bereits vorliegende, aber häufig vernachlässigte theoretische Arbeiten zur politischen Ökonomie Sub-Sahara Afrikas zurück. Es wird gezeigt, wie ‚bad governance‘ in den sozioökonomischen Gegebenheiten afrikanischer Staaten verankert ist und welche Bedeutung die Rolle der afrikanischen Staaten innerhalb der Weltwirtschaftsordnung spielt. Anstatt immerzu die verschärfte Aufsicht und die Durchsetzung rechtsstaatlicher Prinzipien zu fordern, integriert diese Studie ökonomische Analyse mit politischer Theorie, um die politökonomischen Wurzeln der Korruption in Sub-Sahara Afrika besser verstehen zu können. T3 - Potsdam Economic Studies - 2 KW - Korruption KW - good governance KW - Afrikanische Staaten KW - politische Ökonomik KW - Entwicklungsökonomik KW - Corruption KW - good governance KW - African states KW - political economics KW - development economics Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65167 SN - 978-3-86956-248-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Fuchs, Sven T1 - Well-log based determination of rock thermal conductivity in the North German Basin T1 - Bestimmung der Gesteinswärmeleitfähigkeit aus geophysikalischen Bohrlochmessungen im Norddeutschen Becken N2 - In sedimentary basins, rock thermal conductivity can vary both laterally and vertically, thus altering the basin’s thermal structure locally and regionally. Knowledge of the thermal conductivity of geological formations and its spatial variations is essential, not only for quantifying basin evolution and hydrocarbon maturation processes, but also for understanding geothermal conditions in a geological setting. In conjunction with the temperature gradient, thermal conductivity represents the basic input parameter for the determination of the heat-flow density; which, in turn, is applied as a major input parameter in thermal modeling at different scales. Drill-core samples, which are necessary to determine thermal properties by laboratory measurements, are rarely available and often limited to previously explored reservoir formations. Thus, thermal conductivities of Mesozoic rocks in the North German Basin (NGB) are largely unknown. In contrast, geophysical borehole measurements are often available for the entire drilled sequence. Therefore, prediction equations to determine thermal conductivity based on well-log data are desirable. In this study rock thermal conductivity was investigated on different scales by (1) providing thermal-conductivity measurements on Mesozoic rocks, (2) evaluating and improving commonly applied mixing models which were used to estimate matrix and pore-filled rock thermal conductivities, and (3) developing new well-log based equations to predict thermal conductivity in boreholes without core control. Laboratory measurements are performed on sedimentary rock of major geothermal reservoirs in the Northeast German Basin (NEGB) (Aalenian, Rhaethian-Liassic, Stuttgart Fm., and Middle Buntsandstein). Samples are obtained from eight deep geothermal wells that approach depths of up to 2,500 m. Bulk thermal conductivities of Mesozoic sandstones range between 2.1 and 3.9 W/(m∙K), while matrix thermal conductivity ranges between 3.4 and 7.4 W/(m∙K). Local heat flow for the Stralsund location averages 76 mW/m², which is in good agreement to values reported previously for the NEGB. For the first time, in-situ bulk thermal conductivity is indirectly calculated for entire borehole profiles in the NEGB using the determined surface heat flow and measured temperature data. Average bulk thermal conductivity, derived for geological formations within the Mesozoic section, ranges between 1.5 and 3.1 W/(m∙K). The measurement of both dry- and water-saturated thermal conductivities allow further evaluation of different two-component mixing models which are often applied in geothermal calculations (e.g., arithmetic mean, geometric mean, harmonic mean, Hashin-Shtrikman mean, and effective-medium theory mean). It is found that the geometric-mean model shows the best correlation between calculated and measured bulk thermal conductivity. However, by applying new model-dependent correction, equations the quality of fit could be significantly improved and the error diffusion of each model reduced. The ‘corrected’ geometric mean provides the most satisfying results and constitutes a universally applicable model for sedimentary rocks. Furthermore, lithotype-specific and model-independent conversion equations are developed permitting a calculation of water-saturated thermal conductivity from dry-measured thermal conductivity and porosity within an error range of 5 to 10%. The limited availability of core samples and the expensive core-based laboratory measurements make it worthwhile to use petrophysical well logs to determine thermal conductivity for sedimentary rocks. The approach followed in this study is based on the detailed analyses of the relationships between thermal conductivity of rock-forming minerals, which are most abundant in sedimentary rocks, and the properties measured by standard logging tools. By using multivariate statistics separately for clastic, carbonate and evaporite rocks, the findings from these analyses allow the development of prediction equations from large artificial data sets that predict matrix thermal conductivity within an error of 4 to 11%. These equations are validated successfully on a comprehensive subsurface data set from the NGB. In comparison to the application of earlier published approaches formation-dependent developed for certain areas, the new developed equations show a significant error reduction of up to 50%. These results are used to infer rock thermal conductivity for entire borehole profiles. By inversion of corrected in-situ thermal-conductivity profiles, temperature profiles are calculated and compared to measured high-precision temperature logs. The resulting uncertainty in temperature prediction averages < 5%, which reveals the excellent temperature prediction capabilities using the presented approach. In conclusion, data and methods are provided to achieve a much more detailed parameterization of thermal models. N2 - Die thermische Modellierung des geologischen Untergrundes ist ein wichtiges Werkzeug bei der Erkundung und Bewertung tiefliegender Ressourcen sedimentärer Becken (e.g., Kohlenwasserstoffe, Wärme). Die laterale und vertikale Temperaturverteilung im Untergrund wird, neben der Wärmestromdichte und der radiogenen Wärmeproduktion, hauptsächlich durch die Wärmeleitfähigkeit (WLF) der abgelagerten Gesteinsschichten bestimmt. Diese Parameter stellen die wesentlichen Eingangsgrößen für thermische Modelle dar. Die vorliegende Dissertation befasst sich mit der Bestimmung der Gesteins-WLF auf verschiedenen Skalen. Dies umfasst (1) laborative WLF-Messungen an mesozoischen Bohrkernproben, (2) die Evaluierung und Verbesserung der Prognosefähigkeit von Mischgesetzten zur Berechnung von Matrix- und Gesamt-WLF sedimentärer Gesteine, sowie (3) die Entwicklung neuer Prognosegleichungen unter Nutzung bohrlochgeophysikalischer Messungen und multivariater Analysemethoden im NGB. Im Nordostdeutschen Becken (NEGB) wurden für die wichtigsten geothermischen Reservoire des Mesozoikums (Aalen, Rhät-Lias-Komplex, Stuttgart Formation, Mittlerer Buntsandstein) Bohrkerne geothermischer Tiefbohrungen (bis 2.500 m Tiefe) auf Ihre thermischen und petrophysikalischen Eigenschaften hin untersucht. Die WLF mesozoischer Sandsteine schwankt im Mittel zwischen 2,1 und 3,9 W/(m∙K), die WLF der Gesteinsmatrix hingegen im Mittel zwischen 3,4 und 7,4 W/(m∙K). Neu berechnete Werte zur Oberflächenwärmestromdichte (e.g., 76 mW/m², Stralsund) stehen im Einklang mit den Ergebnissen früherer Studien im NEGB. Erstmals im NDB wurde für das mesozoisch/känozoischen Intervall am Standort Stralsund ein in-situ WLF-Profil berechnet. In-situ Formations-WLF, für als potentielle Modelschichten interessante, stratigraphische Intervalle, variieren im Mittel zwischen 1,5 und 3,1 W/(m∙K) und bilden eine gute Grundlage für kleinskalige (lokale) thermische Modelle. Auf Grund der in aller Regel nur eingeschränkt verfügbaren Bohrkernproben sowie des hohen laborativen Aufwandes zur Bestimmung der WLF waren alternative Methoden gesucht. Die Auswertung petrophysikalischer Bohrlochmessungen mittels mathematischer-statistischer Methoden stellt einen lang genutzten und erprobten Ansatz dar, welcher in seiner Anwendbarkeit jedoch auf die aufgeschlossenen Gesteinsbereiche (Genese, Geologie, Stratigraphie, etc.) beschränkt ist. Daher wurde ein leicht modifizierter Ansatz entwickelt. Die thermophysikalischen Eigenschaften der 15 wichtigsten gesteinsbildenden Minerale (in Sedimentgesteinen) wurden statistisch analysiert und aus variablen Mischungen dieser Basisminerale ein umfangreicher, synthetischer Datensatz generiert. Dieser wurde mittels multivariater Statistik bearbeitet, in dessen Ergebnis Regressionsgleichungen zur Prognose der Matrix-WLF für drei Gesteinsgruppen (klastisch, karbonatisch, evaporitisch) abgeleitet wurden. In einem zweiten Schritt wurden für ein Echtdatenset (laborativ gemessene WLF und Standardbohrlochmessungen) empirische Prognosegleichungen für die Berechnung der Gesamt-WLF entwickelt. Die berechneten WLF zeigen im Vergleich zu gemessenen WLF Fehler zwischen 5% und 11%. Die Anwendung neu entwickelter, sowie in der Literatur publizierter Verfahren auf den NGB-Datensatz zeigt, dass mit den neu aufgestellten Gleichungen stets der geringste Prognosefehler erreicht wird. Die Inversion neu berechneter WLF-Profile erlaubt die Ableitung synthetischer Temperaturprofile, deren Vergleich zu gemessenen Gesteinstemperaturen in einen mittleren Fehler von < 5% resultiert. Im Rahmen geothermischer Berechnungen werden zur Umrechnung zwischen Matrix- und Gesamt-WLF häufig Zwei-Komponenten-Mischmodelle genutzt (Arithmetisches Mittel, Harmonische Mittel, Geometrisches Mittel, Hashin-Shtrikman Mittel, Effektives-Medium Mittel). Ein umfangreicher Datensatz aus trocken- und gesättigt-gemessenen WLF und Porosität erlaubt die Evaluierung dieser Modelle hinsichtlich Ihrer Prognosefähigkeit. Diese variiert für die untersuchten Modelle stark (Fehler: 5 – 53%), wobei das geometrische Mittel die größte, quantitativ aber weiterhin unbefriedigende Übereinstimmungen zeigt. Die Entwicklung und Anwendung mischmodelspezifischer Korrekturgleichungen führt zu deutlich reduzierten Fehlern. Das korrigierte geometrische Mittel zeigt dabei, bei deutlich reduzierter Fehlerstreubreite, erneut die größte Übereinstimmung zwischen berechneten und gemessenen Werten und scheint ein universell anwendbares Mischmodel für sedimentäre Gesteine zu sein. Die Entwicklung modelunabhängiger, gesteinstypbezogener Konvertierungsgleichungen ermöglicht die Abschätzung der wassergesättigten Gesamt-WLF aus trocken-gemessener WLF und Porosität mit einem mittleren Fehler < 9%. Die präsentierten Daten und die neu entwickelten Methoden erlauben künftig eine detailliertere und präzisere Parametrisierung thermischer Modelle sedimentärer Becken. KW - Wärmeleitfähigkeit KW - Temperaturfeld KW - Nordostdeutsches Becken KW - Bohrlochmessungen KW - Multivariate Analyse KW - Thermal-conductivity KW - Well-log analysis KW - Northeast German Basin KW - temperature field analysis KW - Multivariate statistic Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67801 ER - TY - THES A1 - Frömmel, Ulrike T1 - Vergleichende geno- und phänotypische Charakterisierung von Escherichia coli aus Menschen, Hausschweinen und Wildtieren T1 - Comparative genotypic and phenotypic characterization of Escherichia coli from humans, domestic pigs and wild animals N2 - Escherichia (E.) coli ist als kommensales Bakterium ein wichtiger Bestandteil des Mikrobioms von Säugern, jedoch zudem der häufigste Infektionserreger des Menschen. Entsprechend des Infektionsortes werden intestinal (InPEC) und extraintestinal pathogene E. coli (ExPEC) unterschieden. Die Pathogenese von E. coli-Infektionen ist durch Virulenzfaktoren determiniert, welche von jeweils spezifischen virulenzassoziierten Genen (inVAGs und exVAGs) kodiert werden. Häufig werden exVAGs auch in E. coli-Isolaten aus dem Darm gesunder Wirte nachgewiesen. Dies führte zu der Vermutung, dass exVAGs die intestinale Kolonisierung des Wirtes durch E. coli unterstützen. Das Hauptziel dieser Arbeit bestand darin, das Wissen über den Einfluss von exVAGs auf die Besiedlung und damit die Adhäsion von E. coli an Epithelzellen des Darmtraktes zu erweitern. Die Durchführung einer solch umfassenden E. coli-Populationsstudie erforderte die Etablierung neuer Screeningmethoden. Für die genotypische Charakterisierung wurden mikropartikelbasierte Multiplex-PCR-Assays zum Nachweis von 44 VAGs und der Phylogenie etabliert. Für die phänotypische Charakterisierung wurden Adhäsions- und Zytotoxizitätsassays etabliert. Die Screeningmethoden basieren auf der VideoScan-Technologie, einem automatisierten bildbasierten Multifluoreszenzdetektionssystem. Es wurden 398 E. coli-Isolate aus 13 Wildsäugerarten und 5 Wildvogelarten sowie aus gesunden und harnwegserkrankten Menschen und Hausschweinen charakterisiert. Die Adhäsionsassays hatten zum Ziel, sowohl die Adhäsionsraten als auch die Adhäsionsmuster der 317 nicht hämolytischen Isolate auf 5 Epithelzelllinien zu bestimmen. Die Zytotoxizität der 81 hämolytischen Isolate wurde in Abhängigkeit der Inkubationszeit auf 4 Epithelzelllinien geprüft. In den E. coli-Isolaten wurde eine Reihe von VAGs nachgewiesen. Potentielle InPEC, insbesondere shigatoxinproduzierende und enteropathogene E. coli wurden aus Menschen, Hausschweinen und Wildtieren, vor allem aus Rehen und Feldhasen isoliert. exVAGs wurden mit stark variierender Prävalenz in Isolaten aus allen Arten detektiert. Die größte Anzahl und das breiteste Spektrum an exVAGs wurde in Isolaten aus Urin harnwegserkrankter Menschen, gefolgt von Isolaten aus Dachsen und Rehen nachgewiesen. In Isolaten der phylogenetischen Gruppe B2 wurden mehr exVAGs detektiert als in den Isolaten der phylogenetischen Gruppen A, B1 und D. Die Ergebnisse der Adhäsionsassays zeigten, dass die meisten Isolate zelllinien-, gewebe- oder wirtsspezifisch adhärierten. Ein Drittel der Isolate adhärierte an keiner Zelllinie und nur zwei Isolate adhärierten stark an allen Zelllinien. Grundsätzlich adhärierten mehr Isolate an humanen sowie an intestinalen Zelllinien. Besonders Isolate aus Eichhörnchen und Amseln sowie aus Urin harnwegserkrankter Menschen und Hausschweine waren in der Lage, stark zu adhärieren. Hierbei bildeten die Isolate als Adhäsionsmuster diffuse Adhäsion, Mikrokolonien, Ketten und Agglomerationen. Mittels statistischer Analysen wurden Assoziationen zwischen exVAGs und einer hohen Adhäsionsrate ersichtlich. So war beispielsweise das Vorkommen von afa/dra mit einer höheren Adhäsionsrate auf Caco-2- und 5637-Zellen und von sfa/foc auf IPEC-J2-Zellen assoziiert. Die Ergebnisse der Zytotoxizitätsassays zeigten eine sehr starke und zeitabhängige Zerstörung der Monolayer aller Epithelzelllinien durch die α-Hämolysin-positiven Isolate. Auffallend war die hohe Toxizität hämolytischer Isolate aus Wildtieren gegenüber den humanen Zelllinien. Mit den innerhalb dieser Arbeit entwickelten Screeningmethoden war es möglich, große Mengen an Bakterien zu charakterisieren. Es konnte ein Überblick über die Verbreitung von VAGs in E. coli aus unterschiedlichen Wirten gewonnen werden. Besonders Wildtiere wurden sowohl durch den Nachweis von VAGs in den entsprechenden Isolaten, verbunden mit deren Adhäsionsfähigkeit und ausgeprägter Zytotoxizität als Reservoire pathogener E. coli identifiziert. Ebenso wurde eine zelllinienspezifische Adhäsion von Isolaten mit bestimmten exVAGs deutlich. Damit konnte der mögliche Einfluss von exVAGs auf die intestinale Kolonisierung bestätigt werden. In weiterführenden Arbeiten sind jedoch Expressions- und Funktionsanalysen der entsprechenden Proteine unerlässlich. Es wird anhand der Mikrokoloniebildung durch kommensale E. coli vermutet, dass Adhäsionsmuster und demzufolge Kolonisierungsstrategien, die bisher pathogenen E. coli zugeschrieben wurden, eher als generelle Kolonisierungsstrategien zu betrachten sind. Das E. coli-α-Hämolysin wirkt im Allgemeinen zytotoxisch auf Epithelzellen. Ein in der Fachliteratur diskutierter adhäsionsunterstützender Mechanismus dieses Toxins ist demnach fragwürdig. Innerhalb dieser Arbeit konnte gezeigt werden, dass die entwickelten Screeningmethoden umfassende Analysen einer großen Anzahl an E. coli-Isolaten ermöglichen. N2 - Escherichia (E.) coli is as commensal bacterium an important component of the microbiome of humans and animals, but also the most common infectious agent of human. According to the site of infection intestinal pathogenic (InPEC) and extraintestinal pathogenic E. coli (ExPEC) are differentiated. The pathogenesis of E. coli infections is determined by virulence factors encoded by specific virulence-associated genes (inVAGs and exVAGs). Frequently, exVAGs also be detected in E. coli isolates from the intestine of clinically healthy hosts. This led to the assumption that exVAGs support the intestinal colonization of the host by E. coli. The main objective of this work was to extend the knowledge about the influence of exVAGs on the settlement and adhesion of E. coli to epithelial cells of the intestinal tract. The implementation of such a comprehensive E. coli population study required the establishment of new screening methods. For the genotypic characterization novel microbead-based multiplex PCR assays were established to detect 44 VAGs and phylogeny. For the phenotypic characterization novel in vitro adhesion and cytotoxicity assays were established. These screening methods based on the VideoScan technology, which is an automated image-based multi-fluorescence detection system. There have been characterized 398 E. coli isolates from 13 wild mammal species and 5 species of wild birds as well as from healthy and urinary diseased humans and domestic pigs. The adhesion assays were aimed at both the adhesion rates and the adhesion patterns of the 317 non-hemolytic isolates on intestinal human Caco-2 and porcine IPEC-J2 cells and on human urinary bladder 5637, porcine kidney PK-15 epithelial and HEp-2 cells. The cytotoxicity of 81 hemolytic isolates was compared on the human intestinal epithelium LoVo, and on 5637, IPEC-J2 and PK-15 according to the incubation period. The E. coli isolates showed a series of VAGs. Potential InPEC, especially shigatoxin-producing and enteropathogenic E. coli were isolated from humans, domestic pigs and wild animals, especially from deers (Capreolus capreolus) and hares (Lepus europaeus). exVAGs were detected with widely varying prevalence in E. coli isolates from all species studied. The largest number and the widest range of exVAGs were shown in isolates from urine of urinary diseased patients, followed by isolates from badgers (Meles meles) and deer. Within the isolates of the phylogenetic group B2 more exVAGs were detected as within the isolates of the phylogenetic groups A, B1, and D. Adhesion of the E. coli isolates was specific to cells, host, and tissue, though it was also unspecific. A third of the isolates adhered to any cell line and only two isolates adhered strongly to all cell lines. Basically, more bacteria adhered to human as well as to intestinal cell lines. Especially isolates from squirrels (Sciurus vulgaris) and blackbirds (Turdus merula) and from the urine of urinary diseased humans and domestic pigs were able to strongly adhere. Commensal and pathogenic isolates can adhere in various forms, including diffuse distribution, microcolonies, chains and clumps. Using statistical analyzes associations between the occurrence of some VAGs and a high adhesion rates were seen. Several known adhesins were associated with host cell specific adhesion. Other new potential adhesion genes were described. The results of the cytotoxicity assays showed a very strong and time-dependent degradation of the epithelial cell monolayer of all the α-hemolysin-positive E. coli isolates. The high toxicity of hemolytic isolates from wild animals against the human cell lines was striking. The screening methods enabled both, the genotypic and phenotypic characterisation of large amounts of bacterial isolates. An overview of the distribution of VAGs in E. coli from different hosts was obtained. Especially wild animals were either by the detection of VAGs in the corresponding E. coli isolates, combined with the adhesion and marked cytotoxicity identified as reservoirs of pathogenic E. coli. As well, a cell-line specific adhesion of E. coli isolates with certain exVAGs became clear. Thus, the possible influence on the intestinal colonization of exVAGs could be confirmed. In further work, however, expression and functional analysis of the corresponding proteins are essential. It is suspected on the basis of microcolony formation by commensal E. coli that adhesion patterns and consequently colonization strategies that were previously attributed to pathogenic E. coli, are to be regarded rather as a general colonization strategy. The E. coli α-hemolysin acts generally cytotoxic to epithelial cells. An in the literature discussed adhesion supporting mechanism of this toxin is therefore questionable. Within this work it was shown that the developed screening methods enable comprehensive analyzes of a large number of E. coli isolates. KW - Escherichia coli KW - Adhäsion KW - virulenzassoziierte Gene KW - Hämolyse KW - ExPEC KW - Escherichia coli KW - adhesion KW - virulence-associated genes KW - hemolysis KW - ExPEC Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69147 ER - TY - THES A1 - Frank-Fahle, Béatrice A. T1 - Methane-cycling microbial communities in permafrost affected soils on Herschel Island and the Yukon Coast, Western Canadian Arctic T1 - Mikrobielle Gemeinschaften des Methankreislaufs in Permafrost beeinflussten Böden auf der Insel Herschel und an der Yukon-Küste, westliche kanadische Arktis N2 - Permafrost-affected ecosystems including peat wetlands are among the most obvious regions in which current microbial controls on organic matter decomposition are likely to change as a result of global warming. Wet tundra ecosystems in particular are ideal sites for increased methane production because of the waterlogged, anoxic conditions that prevail in seasonally increasing thawed layers. The following doctoral research project focused on investigating the abundance and distribution of the methane-cycling microbial communities in four different polygons on Herschel Island and the Yukon Coast. Despite the relevance of the Canadian Western Arctic in the global methane budget, the permafrost microbial communities there have thus far remained insufficiently characterized. Through the study of methanogenic and methanotrophic microbial communities involved in the decomposition of permafrost organic matter and their potential reaction to rising environmental temperatures, the overarching goal of the ensuing thesis is to fill the current gap in understanding the fate of the organic carbon currently stored in Artic environments and its implications regarding the methane cycle in permafrost environments. To attain this goal, a multiproxy approach including community fingerprinting analysis, cloning, quantitative PCR and next generation sequencing was used to describe the bacterial and archaeal community present in the active layer of four polygons and to scrutinize the diversity and distribution of methane-cycling microorganisms at different depths. These methods were combined with soil properties analyses in order to identify the main physico-chemical variables shaping these communities. In addition a climate warming simulation experiment was carried-out on intact active layer cores retrieved from Herschel Island in order to investigate the changes in the methane-cycling communities associated with an increase in soil temperature and to help better predict future methane-fluxes from polygonal wet tundra environments in the context of climate change. Results showed that the microbial community found in the water-saturated and carbon-rich polygons on Herschel Island and the Yukon Coast was diverse and showed a similar distribution with depth in all four polygons sampled. Specifically, the methanogenic community identified resembled the communities found in other similar Arctic study sites and showed comparable potential methane production rates, whereas the methane oxidizing bacterial community differed from what has been found so far, being dominated by type-II rather than type-I methanotrophs. After being subjected to strong increases in soil temperature, the active-layer microbial community demonstrated the ability to quickly adapt and as a result shifts in community composition could be observed. These results contribute to the understanding of carbon dynamics in Arctic permafrost regions and allow an assessment of the potential impact of climate change on methane-cycling microbial communities. This thesis constitutes the first in-depth study of methane-cycling communities in the Canadian Western Arctic, striving to advance our understanding of these communities in degrading permafrost environments by establishing an important new observatory in the Circum-Arctic. N2 - Permafrost beeinflusste Ökosysteme gehören zu den Regionen, in denen als Folge der globalen Erwärmung eine Veränderung des mikrobiell-kontrollierten Abbaus von organischem Material zu erwarten ist. Besonders in den Ökosystemen der feuchten Tundralandschaften kommt es zu einer verstärkten Methanpoduktion unter wassergesättigten und anoxischen Bedingungen, die durch immer tiefere saisonale Auftauschichten begünstigt werden. Die vorliegende Doktorarbeit kontenzentrierte sich auf die Untersuchung der Abundanz und Verteilung der am Methankreislauf beteiligten mikrobiellen Gemeinschaften in vier unterschiedlichen Polygonen auf der Insel Herschel und an der Yukon Küste in Kanada. Trotz des relevanten Beitrags der kanadischen West-Arktis am globalen Methanhaushalt, sind die dortigen mikrobiellen Gemeinschaften im Permafrost bisher nur unzureichend untersucht worden. Die zentrale Zielstellung der vorliegenden Arbeit besteht darin, die derzeitige Lücke im Verständnis der Kohlenstoffdynamik in der Arktis im Zuge von Klimaveränderungen und deren Bedeutung für den Methankreislauf in Permafrost-Ökosystemen zu schließen. Dies erfolgt durch Untersuchungen der am Abbau der organischen Substanz im Permafrost beteiligten methonogenen und methanothrophen mikrobiellen Gemeinschaften und ihrer möglichen Reaktionen auf steigende Umgebungstemperaturen. Um dieses Ziel zu erreichen, wurde ein Multiproxy-Ansatz gewählt, der die Analyse der Gemeinschaften mittels genetischen Fingerprintmethoden, Klonierung, quantitativer PCR und moderner Hochdurchsatzsequenzierung („Next Generation Sequencing“) beinhaltet, um die in der Auftauschicht der vier untersuchten Polygone vorhandenen Bakterien- und Archaeen-Gemeinschaften zu charakterisieren sowie die Diversität und Verteilung der am Methankreislauf beteiligten Mikroorganismen in unterschiedlicher Tiefe eingehend zu analysieren. Diese Studien wurden mit physikalisch-chemischen Habitatuntersuchungen kombiniert, da diese die mikrobiellen Lebensgemeinschaften maßgeblich beeinflussen. Zusätzlich wurde ein Laborexperiment zur Simulation der Klimaerwärmung an intakten Bodenmonolithen von der Insel Herschel durchgeführt, um die Veränderungen der am Methankreislauf beteiligten Gemeinschaften aufgrund steigender Bodentemperaturen zu untersuchen, sowie sicherere Voraussagen bezüglich der Methanfreisetzung in polygonalen Permafrostgebieten im Zusammenhang mit dem Klimawandel treffen zu können. KW - Permafrost KW - Mikrobiologie KW - Methan KW - Kohlenstoff KW - Arktis KW - Permafrost KW - microbiology KW - methane KW - carbon KW - Arctic Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65345 ER - TY - THES A1 - Fleischhauer, Elisabeth T1 - Morphological processing in children : an experimental study of German past participles T1 - Morphologische Verarbeitung in Kindern: Eine experimentelle Studie zu deutschen Partizipien N2 - An important strand of research has investigated the question of how children acquire a morphological system using offline data from spontaneous or elicited child language. Most of these studies have found dissociations in how children apply regular and irregular inflection (Marcus et al. 1992, Weyerts & Clahsen 1994, Rothweiler & Clahsen 1993). These studies have considerably deepened our understanding of how linguistic knowledge is acquired and organised in the human mind. Their methodological procedures, however, do not involve measurements of how children process morphologically complex forms in real time. To date, little is known about how children process inflected word forms. The aim of this study is to investigate children’s processing of inflected words in a series of on-line reaction time experiments. We used a cross-modal priming experiment to test for decompositional effects on the central level. We used a speeded production task and a lexical decision task to test for frequency effects on access level in production and recognition. Children’s behaviour was compared to adults’ behaviour towards three participle types (-t participles, e.g. getanzt ‘danced’ vs. -n participles with stem change, e.g. gebrochen ‘broken’ vs.-n participles without stem change, e.g. geschlafen ‘slept’). For the central level, results indicate that -t participles but not -n participles have decomposed representations. For the access level, results indicate that -t participles are represented according to their morphemes and additionally as full forms, at least from the age of nine years onwards (Pinker 1999 and Clahsen et al. 2004). Further evidence suggested that -n participles are represented as full-form entries on access level and that -n participles without stem change may encode morphological structure (cf. Clahsen et al. 2003). Out data also suggests that processing strategies for -t participles are differently applied in recognition and production. These results provide evidence that children (within the age range tested) employ the same mechanisms for processing participles as adults. The child lexicon grows as children form additional full-form representations for -t participles on access level and elaborate their full-form lexical representations of -n participles on central level. These results are consistent with processing as explained in dual-system theories. N2 - Ein wichtiger Forschungsbereich hat anhand von offline Daten erforscht wie Kinder das morphologische System erwerben. Die meisten dieser Studien haben berichtet, dass Kinder die regelmäßige und die unregelmäßige Flexion unterschiedlich anwenden (Marcus et al. 1992, Weyerts & Clahsen 1994, Rothweiler & Clahsen 1993). Diese Studien haben dazu beigetragen den Erwerb und Organisation von linguistischem Wissen besser zu verstehen. Die offline Methoden messen morphologische Verarbeitung allerdings nicht in Echtzeit. Bis heute ist wenig darüber bekannt wie Kinder flektierte Wortformen in Echtzeit verarbeiten. Die vorliegende Arbeit hat diese Frage in 6- bis 11jährigen monolingualen Kindern (in zwei Altersgruppen) und in einer Erwachsenen-Kontrollgruppe anhand von -t Partizipien (z.B. gemacht), -n Partizipien ohne Stammveränderung (z.B. geschlafen) und -n Partizipien mit Stammveränderung (z.B. gebrochen) untersucht. Dekomposition von Partizipien und deren ganzheitliche Speicherung in assoziativen Netzwerken wurden auf zwei Repräsentationsebenen (zentrale Ebene, Zugriffebene) und, auf der Zugriffsebene, in zwei Modalitäten (Produktion, Verstehen) experimentell getestet. Ein cross-modal priming experiment untersuchte die zentrale Repräsentation von Partizipien. Volle morphologische Primingeffekte sprechen für eine dekomponierte Repräsentation, partielle Primingeffekte für ganzheitliche aber verbundene Repräsentationen. In einem speeded production experiment wurde die auditive Zugriffsrepräsentation und in einem lexical decision experiment die visuelle Zugriffsrepräsentation von Partizipien untersucht. (Ganzwort-) Frequenzeffekte wurden als Beleg für Ganzwortrepräsentationen gewertet. Bezüglich der zentralen Ebene zeigen die Ergebnisse, dass -t Partizipien aber nicht -n Partizipien dekomponiert repräsentiert sind. Bezüglich der Zugriffsebene zeigen die Ergebnisse, dass -t Partizipien entsprechend ihrer Morpheme repräsentiert sind und zusätzlich Ganzwortrepräsentationen haben können, zumindest im Altersbereich von Neun- bis Elfjährigen (Pinker 1999 and Clahsen et al. 2004). Weitere Ergebnisse zeigten, dass -n Partizipien auf der Zugriffsebene Ganzwortrepräsentationen haben, und dass -n Partizipien ohne Stammveränderung die morphologische Struktur enkodieren können (cf. Clahsen et al. 2003). Die Daten weisen auch darauf hin, dass die Verarbeitungsstrategien für -t Partizipien, zumindest in Neun- bis Elfjährigen, unterschiedlich angewandt werden. Die Ergebnisse werden als Evidenz dafür interpretiert, dass Kinder (in dem getesteten Altersbereich) dieselben Verarbeitungsmechanismen für Partizipien nutzen wie Erwachsene. Das kindliche Lexikon wächst, wenn Kinder zusätzliche Ganzwortrepräsentationen für -t Partizipien auf der Zugriffsebene bilden und ihre Ganzwortrepräsentationen für -n Partizipien auf der zentralen Ebene ausdifferenzieren. Diese Ergebnisse sind konsistent mit den Annahmen dualer Verarbeitungstheorien. KW - kindliche Sprachverarbeitung KW - Morphologie KW - deutsche Partizipien KW - Dekomposition KW - Lexikon KW - Reaktionszeitmethoden KW - child language KW - morphological processing KW - German past participles KW - decomposition KW - lexicon KW - reaction time methods Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70581 ER -