TY - THES A1 - Winkler, Henning T1 - Synthese von thermoplastisch verarbeitbaren Fettsäure-Acylderivaten der Stärke und Proteine T1 - Synthesis of thermoplastic processable fatty acid acyl derivatives of starch and proteins N2 - In den vergangenen Jahren wurden stetig wachsende Produktionskapazitäten von Biokunststoffen aus nachwachsenden Rohstoffe nverzeichnet. Trotz großer Produktionskapazitäten und einem geeigneten Eigenschaftsprofil findet Stärke nur als hydrophile, mit Weichmachern verarbeitete thermoplastische Stärke (TPS) in Form von Blends mit z. B. Polyestern Anwendung. Gleiches gilt für Kunststoffe auf Proteinbasis. Die vorliegende Arbeit hat die Entwicklung von Biokunststoffen auf Stärkebasis zum Ziel, welche ohne externe Weichmacher thermoplastisch verarbeitbar und hydrophob sind sowie ein mechanisches Eigenschaftsprofil aufweisen, welches ein Potenzial zur Herstellung von Materialien für eine Anwendung als Verpackungsmittel bietet. Um die Rohstoffbasis für Biokunststoffe zu erweitern, soll das erarbeitete Konzept auf zwei industriell verfügbare Proteintypen, Zein und Molkenproteinisolat (WPI), übertragen werden. Als geeignete Materialklasse wurden Fettsäureester der Stärke herausgearbeitet. Zunächst fand ein Vergleich der Säurechlorid-Veresterung und der Umesterung von Fettsäurevinylestern statt, woraus letztere als geeignetere Methode hervorging. Durch Variation der Reaktionsparameter konnte diese optimiert und auf eine Serie der Fettsäurevinylester von Butanoat bis Stearat für DS-Werte bis zu 2,2-2,6 angewandt werden. Möglich war somit eine systematische Studie unter Variation der veresterten Fettsäure sowie des Substitutionsgrades (DS). Sämtliche Produkte mit einem DS ab 1,5 wiesen eine ausgprägte Löslichkeit in organischen Lösungsmitteln auf wodurch sowohl die Aufnahme von NMR-Spektren als auch Molmassenbestimmung mittels Größenausschlusschromatographie mit gekoppelter Mehrwinkel-Laserlichtstreuung (GPC-MALLS) möglich waren. Durch dynamische Lichtstreuung (DLS) wurde das Löslichkeitsverhalten veranschaulicht. Sämtliche Produkte konnten zu Filmen verarbeitet werden, wobei Materialien mit DS 1,5-1,7 hohe Zugfestigkeiten (bis zu 42 MPa) und Elastizitätsmodule (bis 1390 MPa) aufwiesen. Insbesondere Stärkehexanoat mit DS <2 sowie Stärkebutanoat mit DS >2 hatten ein mechanisches Eigenschaftsprofil, welches insbesondere in Bezug auf die Festigkeit/Steifigkeit vergleichbar mit Verpackungsmaterialien wie Polyethylen war (Zugfestigkeit: 15-32 MPa, E-Modul: 300-1300 MPa). Zugfestigkeit und Elastizitätsmodul nahmen mit steigender Kettenlänge der veresterten Fettsäure ab. Ester längerkettiger Fettsäuren (C16-C18) waren spröde. Über Weitwinkel-Röntgenstreuung (WAXS) und Infrarotspektroskopie (ATR-FTIR) konnte der Verlauf der Festigkeiten mit einer zunehmenden Distanz der Stärke im Material begründet werden. Es konnten von DS und Kettenlänge abhängige Glasübergänge detektiert werden, die kristallinen Strukturen der langkettigen Fettsäuren zeigten einen Schmelzpeak. Die Hydrophobie der Filme wurde anhand von Kontaktwinkeln >95° gegen Wasser dargestellt. Blends mit biobasierten Polyterpenen sowie den in der Arbeit hergestellten Zein-Acylderivaten ermöglichten eine weitere Verbesserung der Zugfestigkeit bzw. des Elastizitätsmoduls hochsubstituierter Produkte. Eine thermoplastische Verarbeitung mittels Spritzgießen war sowohl für Produkte mit hohem als auch mittlerem DS-Wert ohne jeglichen Zusatz von Weichmachern möglich. Es entstanden homogene, transparente Prüfstäbe. Untersuchungen der Härte ergaben auch hier für Stärkehexanoat und –butanoat mit Polyethylen vergleichbare Werte. Ausgewählte Produkte wurden zu Fasern nach dem Schmelzspinnverfahren verarbeitet. Hierbei wurden insbesondere für hochsubstituierte Derivate homogenen Fasern erstellt, welche im Vergleich zur Gießfolie signifikant höhere Zugfestigkeiten aufwiesen. Stärkeester mit mittlerem DS ließen sich ebenfalls verarbeiten. Zunächst wurden für eine Übertragung des Konzeptes auf die Proteine Zein und WPI verschiedene Synthesemethoden verglichen. Die Veresterung mit Säurechloriden ergab hierbei die höchsten Werte. Im Hinblick auf eine gute Löslichkeit in organischen Lösungsmitteln wurde für WPI die Veresterung mit carbonyldiimidazol (CDI)-aktivierten Fettsäuren in DMSO und für Zein die Veresterung mit Säu-rechloriden in Pyridin bevorzugt. Es stellte sich heraus, dass acyliertes WPI zwar hydrophob, jedoch ohne Weichmacher nicht thermoplastisch verarbeitet werden konnte. Die Erstellung von Gießfolien führte zu Sprödbruchverhalten. Unter Zugabe der biobasierten Ölsäure wurde die Anwendung von acyliertem WPI als thermoplastischer Filler z. B. in Blends mit Stärkeestern dargestellt. Im Gegensatz hierzu zeigte acyliertes Zein Glasübergänge <100 °C bei ausreichender Stabilität (150-200 °C). Zeinoleat konnte ohne Weichmacher zu einer transparenten Gießfolie verarbeitet werden. Sämtliche Derivate erwiesen sich als ausgeprägt hydrophob. Zeinoleat konnte über das Schmelzspinnverfahren zu thermoplastischen Fasern verarbeitet werden. N2 - In recent years, a steadily growing production capacity of bioplastic based on renewable resources was noticed. Despite its huge production capacities and an appropriate property profile (ubiquitous occurrence, easy extraction), starch is only applied in addition of plasticizers in a hydrophilic, thermoplastic form in blends with e. g. polyesters. The same applies to bioplastics based on proteins. The actual study has the aim to develop starch-based bioplastics, which are hydrophobic, thermoplastic without the addition of any plasticizer and have mechanical properties to be a suitable alternative material in the area of food packaging. To obtain a variation of the raw materials for bioplastics, the concept shall be applied to two types of industrial available proteins, whey protein isolate (WPI) and Zein. Fatty acid esters of starch came out to be a suitable class of materials. Initially, the methods of esterifying acid chlorides and the transesterification of fatty acid vinyl esters were compared with the latter being more appropriate. Reaction parameters of this method were optimized and it was applied to a complete series of vinyl ester reagents (butanoate to stearate), leading to degree of substitution (DS)-values up to 2.2-2.6. With that, a systematic study of the variation of the fatty acid ester chain as well as the DS became possible. It came out that all products with a DS >1.5 showed a well-marked solubility in organic solvents, whereby solution NMR-studies as well as measurements of the molecular weight distributions by using size exclusion chroma-tography with multi-angle laser light scattering (SEC-MALLS) were possible. The different solution behavior was studied by dynamic light scattering (DLS). All soluble products could be formed into films via casting, where materials with a DS of 1.5-1.7 showed the highest values concerning tensile strength (up to 42 MPa) and Youngs modulus (up to 1390 MPa). Especially starch hexanoate with DS <2 and starch butanoate with a DS >2 revealed mechanical properties which are comparable to usually applied polymers for food packaging, e. g. polyethylene (tensile strength: 15-20 MPa, E-Mod: 300-1300 MPa). Tensile strength and Youngs modulus were reduced with increasing length of the esterified fatty acid. Wide-angle X-Ray scattering (WAXS) and infrared spectroscopy (ATR-FTIR) explained this tendency by an increasing intermolecular distance of the starch in the material. Glassy transitions of the materials were detected and showed a dependency on the type of esterified fatty acid and the DS. The crystalline structures of the esterified long-chain fatty acids revealed a melting peak. All films came out to be hydrophobic with contact angles against water >95°. The tensile strength and the Youngs modulus of the highly substituted products could be further improved by blending them with biobased polyterpenes as well as the acylated Zein. A thermoplastic processing without the use of any plasticizer additives was possible for products with a medium and high DS. Homogeneous, transparent testing specimens were obtained. The specific mechanical values were comparable with the casted films, although the highest values for the tensile strength and the elongation were lower. Investigations of the hardness showed comparable values to polyethylene. Selected samples were further processed to fibers by melt spinning. Especially starch esters with high DS revealed homogeneous fibers with a significant increase in the tensile strength compared to the film or testing specimen. Even fatty acid starch esters with a medium DS were processed by the melt-spinning, but their higher glassy transition lead to a reduced softening behavior. To transfer this concept to the class of proteins, different methods of synthesis were studied in the first step, which differed in their amount of acylation. The acylation using fatty acid chlorides lead to highest values. With regard to a well-marked organic solvent solubility, in the case of WPI the acylation with carbonyldiimidazol (CDI)-activated fatty acid was established. For Zein, the acid chloride acylation in pyridine gave the desired results. It came out the fatty acid acylated soluble WPI could not be thermoplastic processed without additional plasticizers. By using biobased oleic acid as additive, the potential of acylated WPI as a thermoplastic filler in blends with e. g. fatty acid esters of starch was shown. In contrast, fatty acid acyl derivatives of Zein revealed well marked glassy transitions <100 °C with an adequate thermal stability. While Zeinoleate could be formed into transparent films via solvent casting without any plasticizer additives, low amounts of tall oil enabled film-forming in the case of acyl derivatives with shorter fatty acids as well. All derivatives revealed a well-marked hydrophobicity. Finally, Zeinoleate was thermoplastically processed into fibers by melt-spinning without any further additives. KW - Stärke KW - Proteine KW - thermoplastisch KW - Gießfolien KW - Fasern KW - starch KW - proteins KW - thermoplastic KW - films KW - casted-films KW - fibres Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71089 ER - TY - THES A1 - Wechakama, Maneenate T1 - Multi-messenger constraints and pressure from dark matter annihilation into electron-positron pairs T1 - Multi-Messenger-Grenzen und Druck von Dunkler Materie-Annihilation in Elektron-Positron-Paaren N2 - Despite striking evidence for the existence of dark matter from astrophysical observations, dark matter has still escaped any direct or indirect detection until today. Therefore a proof for its existence and the revelation of its nature belongs to one of the most intriguing challenges of nowadays cosmology and particle physics. The present work tries to investigate the nature of dark matter through indirect signatures from dark matter annihilation into electron-positron pairs in two different ways, pressure from dark matter annihilation and multi-messenger constraints on the dark matter annihilation cross-section. We focus on dark matter annihilation into electron-positron pairs and adopt a model-independent approach, where all the electrons and positrons are injected with the same initial energy E_0 ~ m_dm*c^2. The propagation of these particles is determined by solving the diffusion-loss equation, considering inverse Compton scattering, synchrotron radiation, Coulomb collisions, bremsstrahlung, and ionization. The first part of this work, focusing on pressure from dark matter annihilation, demonstrates that dark matter annihilation into electron-positron pairs may affect the observed rotation curve by a significant amount. The injection rate of this calculation is constrained by INTEGRAL, Fermi, and H.E.S.S. data. The pressure of the relativistic electron-positron gas is computed from the energy spectrum predicted by the diffusion-loss equation. For values of the gas density and magnetic field that are representative of the Milky Way, it is estimated that the pressure gradients are strong enough to balance gravity in the central parts if E_0 < 1 GeV. The exact value depends somewhat on the astrophysical parameters, and it changes dramatically with the slope of the dark matter density profile. For very steep slopes, as those expected from adiabatic contraction, the rotation curves of spiral galaxies would be affected on kiloparsec scales for most values of E_0. By comparing the predicted rotation curves with observations of dwarf and low surface brightness galaxies, we show that the pressure from dark matter annihilation may improve the agreement between theory and observations in some cases, but it also imposes severe constraints on the model parameters (most notably, the inner slope of the halo density profile, as well as the mass and the annihilation cross-section of dark matter particles into electron-positron pairs). In the second part, upper limits on the dark matter annihilation cross-section into electron-positron pairs are obtained by combining observed data at different wavelengths (from Haslam, WMAP, and Fermi all-sky intensity maps) with recent measurements of the electron and positron spectra in the solar neighbourhood by PAMELA, Fermi, and H.E.S.S.. We consider synchrotron emission in the radio and microwave bands, as well as inverse Compton scattering and final-state radiation at gamma-ray energies. For most values of the model parameters, the tightest constraints are imposed by the local positron spectrum and synchrotron emission from the central regions of the Galaxy. According to our results, the annihilation cross-section should not be higher than the canonical value for a thermal relic if the mass of the dark matter candidate is smaller than a few GeV. In addition, we also derive a stringent upper limit on the inner logarithmic slope α of the density profile of the Milky Way dark matter halo (α < 1 if m_dm < 5 GeV, α < 1.3 if m_dm < 100 GeV and α < 1.5 if m_dm < 2 TeV) assuming a dark matter annihilation cross-section into electron-positron pairs (σv) = 3*10^−26 cm^3 s^−1, as predicted for thermal relics from the big bang. N2 - Trotz vieler Hinweise auf die Existenz von dunkler Materie durch astrophysikalische Beobachtungen hat sich die dunkle Materie bis heute einem direkten oder indirekten Nachweis entzogen. Daher gehrt der Nachweis ihrer Existenz und die Enthüllung ihrer Natur zu einem der faszinierensten Herausforderungen der heutigen Kosmologie und Teilchenphysik. Diese Arbeit versucht die Natur von dunkler Materie durch indirekte Signaturen von der Paarzerstrahlung dunkler Materie in Elektron-Positronpaare auf zwei verschiedene Weisen zu untersuchen, nämlich anhand des Drucks durch die Paarzerstrahlung dunkler Materie und durch Grenzen des Wirkungsquerschnitts für die Paarzerstrahlung dunkler Materie aus verschiedenen Beobachtungsbereichen. Wir konzentrieren uns dabei auf die Zerstrahlung dunkler Materie in Elektron-Positron-Paare und betrachten einen modellunabhängigen Fall, bei dem alle Elektronen und Positronen mit der gleichen Anfangsenergie E_0 ~ m_dm*c^2 injiziert werden. Die Fortbewegung dieser Teilchen wird dabei bestimmt durch die Lösung der Diffusions-Verlust-Gleichung unter Berücksichtigung von inverser Compton-Streuung, Synchrotronstrahlung, Coulomb-Streuung, Bremsstrahlung und Ionisation. Der erste Teil dieser Arbeit zeigt, dass die Zerstrahlung dunkler Materie in Elektron-Positron-Paare die gemessene Rotationskurve signifikant beeinflussen kann. Die Produktionsrate ist dabei durch Daten von INTEGRAL, Fermi und H.E.S.S. begrenzt. Der Druck des relativistischen Elektron-Positron Gases wird aus dem Energiespektrum errechnet, welches durch die Diffusions-Verlust-Gleichung bestimmt ist. Für Werte der Gasdichte und des magnetischen Feldes, welche für unsere Galaxie repräsentativ sind, lässt sich abschätzen, dass für E_0 < 1 GeV die Druckgradienten stark genug sind, um Gravitationskräfte auszugleichen. Die genauen Werte hängen von den verwendeten astrophysikalischen Parametern ab, und sie ändern sich stark mit dem Anstieg des dunklen Materie-Profils. Für sehr große Anstiege, wie sie für adiabatische Kontraktion erwartet werden, werden die Rotationskurven von Spiralgalaxien auf Skalen von einegen Kiloparsek für die meisten Werte von E_0 beeinflusst. Durch Vergleich der erwarteten Rotationskurven mit Beobachtungen von Zwerggalaxien und Galaxien geringer Oberflächentemperatur zeigen wir, dass der Druck von Zerstrahlung dunkler Materie die Übereinstimmung von Theorie und Beobachtung in einigen Fällen verbessern kann. Aber daraus resultieren auch starke Grenzen für die Modellparameter - vor allem für den inneren Anstieg des Halo-Dichteprofils, sowie die Masse und den Wirkungsquerschnitt der dunklen Materie-Teilchen. Im zweiten Teil werden obere Grenzen für die Wirkungsquerschnitte der Zerstrahlung der dunkler Materie in Elektron-Positron-Paare erhalten, indem die beobachteten Daten bei unterschiedlichen Wellenlängen (von Haslam, WMAP und Fermi) mit aktuellen Messungen von Elektron-Positron Spektren in der solaren Nachbarschaft durch PAMELA, Fermi und H.E.S.S. kombiniert werden. Wir betrachten Synchrotronemission bei Radiound Mikrowellenfrequenzen, sowie inverse Compton-Streuung und Final-State-Strahlung bei Energien im Bereich der Gamma-Strahlung. Für die meisten Werte der Modellparameter werden die stärksten Schranken durch das lokale Positron-Spektrum und die Synchrotronemission im Zentrum unser Galaxie bestimmt. Nach diesen Ergebnissen sollte der Wirkungsquerschnitt für die Paarzerstrahlung nicht größer als der kanonische Wert für thermische Relikte sein, wenn die Masse der dunklen Materie-Kandidaten kleiner als einige GeV ist. Zusätzlich leiten wir eine obere Grenze für den inneren logarithmische Anstieg α des Dichteprofiles des dunklen Materie Halos unserer Galaxie ab. KW - dunkle Materie KW - Astroteilchenphysik KW - Strahlung Mechanismen KW - Galaxy Struktur KW - Rotationskurven KW - dark matter KW - astroparticle physics KW - radiation mechanisms KW - galaxy structure KW - rotation curves Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67401 ER - TY - THES A1 - Vogel, Kristin T1 - Applications of Bayesian networks in natural hazard assessments T1 - Anwendungen von Bayes'schen Netzen bei der Einschätzung von Naturgefahren N2 - Even though quite different in occurrence and consequences, from a modeling perspective many natural hazards share similar properties and challenges. Their complex nature as well as lacking knowledge about their driving forces and potential effects make their analysis demanding: uncertainty about the modeling framework, inaccurate or incomplete event observations and the intrinsic randomness of the natural phenomenon add up to different interacting layers of uncertainty, which require a careful handling. Nevertheless deterministic approaches are still widely used in natural hazard assessments, holding the risk of underestimating the hazard with disastrous effects. The all-round probabilistic framework of Bayesian networks constitutes an attractive alternative. In contrast to deterministic proceedings, it treats response variables as well as explanatory variables as random variables making no difference between input and output variables. Using a graphical representation Bayesian networks encode the dependency relations between the variables in a directed acyclic graph: variables are represented as nodes and (in-)dependencies between variables as (missing) edges between the nodes. The joint distribution of all variables can thus be described by decomposing it, according to the depicted independences, into a product of local conditional probability distributions, which are defined by the parameters of the Bayesian network. In the framework of this thesis the Bayesian network approach is applied to different natural hazard domains (i.e. seismic hazard, flood damage and landslide assessments). Learning the network structure and parameters from data, Bayesian networks reveal relevant dependency relations between the included variables and help to gain knowledge about the underlying processes. The problem of Bayesian network learning is cast in a Bayesian framework, considering the network structure and parameters as random variables itself and searching for the most likely combination of both, which corresponds to the maximum a posteriori (MAP score) of their joint distribution given the observed data. Although well studied in theory the learning of Bayesian networks based on real-world data is usually not straight forward and requires an adoption of existing algorithms. Typically arising problems are the handling of continuous variables, incomplete observations and the interaction of both. Working with continuous distributions requires assumptions about the allowed families of distributions. To "let the data speak" and avoid wrong assumptions, continuous variables are instead discretized here, thus allowing for a completely data-driven and distribution-free learning. An extension of the MAP score, considering the discretization as random variable as well, is developed for an automatic multivariate discretization, that takes interactions between the variables into account. The discretization process is nested into the network learning and requires several iterations. Having to face incomplete observations on top, this may pose a computational burden. Iterative proceedings for missing value estimation become quickly infeasible. A more efficient albeit approximate method is used instead, estimating the missing values based only on the observations of variables directly interacting with the missing variable. Moreover natural hazard assessments often have a primary interest in a certain target variable. The discretization learned for this variable does not always have the required resolution for a good prediction performance. Finer resolutions for (conditional) continuous distributions are achieved with continuous approximations subsequent to the Bayesian network learning, using kernel density estimations or mixtures of truncated exponential functions. All our proceedings are completely data-driven. We thus avoid assumptions that require expert knowledge and instead provide domain independent solutions, that are applicable not only in other natural hazard assessments, but in a variety of domains struggling with uncertainties. N2 - Obwohl Naturgefahren in ihren Ursachen, Erscheinungen und Auswirkungen grundlegend verschieden sind, teilen sie doch viele Gemeinsamkeiten und Herausforderungen, wenn es um ihre Modellierung geht. Fehlendes Wissen über die zugrunde liegenden Kräfte und deren komplexes Zusammenwirken erschweren die Wahl einer geeigneten Modellstruktur. Hinzu kommen ungenaue und unvollständige Beobachtungsdaten sowie dem Naturereignis innewohnende Zufallsprozesse. All diese verschiedenen, miteinander interagierende Aspekte von Unsicherheit erfordern eine sorgfältige Betrachtung, um fehlerhafte und verharmlosende Einschätzungen von Naturgefahren zu vermeiden. Dennoch sind deterministische Vorgehensweisen in Gefährdungsanalysen weit verbreitet. Bayessche Netze betrachten die Probleme aus wahrscheinlichkeitstheoretischer Sicht und bieten somit eine sinnvolle Alternative zu deterministischen Verfahren. Alle vom Zufall beeinflussten Größen werden hierbei als Zufallsvariablen angesehen. Die gemeinsame Wahrscheinlichkeitsverteilung aller Variablen beschreibt das Zusammenwirken der verschiedenen Einflussgrößen und die zugehörige Unsicherheit/Zufälligkeit. Die Abhängigkeitsstrukturen der Variablen können durch eine grafische Darstellung abgebildet werden. Die Variablen werden dabei als Knoten in einem Graphen/Netzwerk dargestellt und die (Un-)Abhängigkeiten zwischen den Variablen als (fehlende) Verbindungen zwischen diesen Knoten. Die dargestellten Unabhängigkeiten veranschaulichen, wie sich die gemeinsame Wahrscheinlichkeitsverteilung in ein Produkt lokaler, bedingter Wahrscheinlichkeitsverteilungen zerlegen lässt. Im Verlauf dieser Arbeit werden verschiedene Naturgefahren (Erdbeben, Hochwasser und Bergstürze) betrachtet und mit Bayesschen Netzen modelliert. Dazu wird jeweils nach der Netzwerkstruktur gesucht, welche die Abhängigkeiten der Variablen am besten beschreibt. Außerdem werden die Parameter der lokalen, bedingten Wahrscheinlichkeitsverteilungen geschätzt, um das Bayessche Netz und dessen zugehörige gemeinsame Wahrscheinlichkeitsverteilung vollständig zu bestimmen. Die Definition des Bayesschen Netzes kann auf Grundlage von Expertenwissen erfolgen oder - so wie in dieser Arbeit - anhand von Beobachtungsdaten des zu untersuchenden Naturereignisses. Die hier verwendeten Methoden wählen Netzwerkstruktur und Parameter so, dass die daraus resultierende Wahrscheinlichkeitsverteilung den beobachteten Daten eine möglichst große Wahrscheinlichkeit zuspricht. Da dieses Vorgehen keine Expertenwissen voraussetzt, ist es universell in verschiedenen Gebieten der Gefährdungsanalyse einsetzbar. Trotz umfangreicher Forschung zu diesem Thema ist das Bestimmen von Bayesschen Netzen basierend auf Beobachtungsdaten nicht ohne Schwierigkeiten. Typische Herausforderungen stellen die Handhabung stetiger Variablen und unvollständiger Datensätze dar. Beide Probleme werden in dieser Arbeit behandelt. Es werden Lösungsansätze entwickelt und in den Anwendungsbeispielen eingesetzt. Eine Kernfrage ist hierbei die Komplexität des Algorithmus. Besonders wenn sowohl stetige Variablen als auch unvollständige Datensätze in Kombination auftreten, sind effizient arbeitende Verfahren gefragt. Die hierzu in dieser Arbeit entwickelten Methoden ermöglichen die Verarbeitung von großen Datensätze mit stetigen Variablen und unvollständigen Beobachtungen und leisten damit einen wichtigen Beitrag für die wahrscheinlichkeitstheoretische Gefährdungsanalyse. KW - Bayes'sche Netze KW - Naturgefahren KW - Gefahrenanalyse KW - Unsicherheiten KW - Hochwasser KW - Bayesian networks KW - natural hazards KW - hazard assessments KW - uncertainties KW - flood events Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69777 ER - TY - THES A1 - Uhlemann, Steffi T1 - Understanding trans-basin floods in Germany : data, information and knowledge T1 - Flussgebietsübergreifende Hochwasserereignisse in Deutschland : Daten, Informationen und Wissen. N2 - Large Central European flood events of the past have demonstrated that flooding can affect several river basins at the same time leading to catastrophic economic and humanitarian losses that can stretch emergency resources beyond planned levels of service. For Germany, the spatial coherence of flooding, the contributing processes and the role of trans-basin floods for a national risk assessment is largely unknown and analysis is limited by a lack of systematic data, information and knowledge on past events. This study investigates the frequency and intensity of trans-basin flood events in Germany. It evaluates the data and information basis on which knowledge about trans-basin floods can be generated in order to improve any future flood risk assessment. In particu-lar, the study assesses whether flood documentations and related reports can provide a valuable data source for understanding trans-basin floods. An adaptive algorithm was developed that systematically captures trans-basin floods using series of mean daily discharge at a large number of sites of even time series length (1952-2002). It identifies the simultaneous occurrence of flood peaks based on the exceedance of an initial threshold of a 10 year flood at one location and consecutively pools all causally related, spatially and temporally lagged peak recordings at the other locations. A weighted cumulative index was developed that accounts for the spatial extent and the individual flood magnitudes within an event and allows quantifying the overall event severity. The parameters of the method were tested in a sensitivity analysis. An intensive study on sources and ways of information dissemination of flood-relevant publications in Germany was conducted. Based on the method of systematic reviews a strategic search approach was developed to identify relevant documentations for each of the 40 strongest trans-basin flood events. A novel framework for assessing the quality of event specific flood reports from a user’s perspective was developed and validated by independent peers. The framework was designed to be generally applicable for any natural hazard type and assesses the quality of a document addressing accessibility as well as representational, contextual, and intrinsic dimensions of quality. The analysis of time-series of mean daily discharge resulted in the identification of 80 trans-basin flood events within the period 1952-2002 in Germany. The set is dominated by events that were recorded in the hydrological winter (64%); 36% occurred during the summer months. The occurrence of floods is characterised by a distinct clustering in time. Dividing the study period into two sub-periods, we find an increase in the percentage of winter events from 58% in the first to 70.5% in the second sub-period. Accordingly, we find a significant increase in the number of extreme trans-basin floods in the second sub-period. A large body of 186 flood relevant documentations was identified. For 87.5% of the 40 strongest trans-basin floods in Germany at least one report has been found and for the most severe floods a substantial amount of documentation could be obtained. 80% of the material can be considered grey literature (i.e. literature not controlled by commercial publishers). The results of the quality assessment show that the majority of flood event specific reports are of a good quality, i.e. they are well enough drafted, largely accurate and objective, and contain a substantial amount of information on the sources, pathways and receptors/consequences of the floods. The inclusion of this information in the process of knowledge building for flood risk assessment is recommended. Both the results as well as the data produced in this study are openly accessible and can be used for further research. The results of this study contribute to an improved spatial risk assessment in Germany. The identified set of trans-basin floods provides the basis for an assessment of the chance that flooding occurs simultaneously at a number of sites. The information obtained from flood event documentation can usefully supplement the analysis of the processes that govern flood risk. N2 - Abschätzungen zum Hochwasserrisiko beschränken sich zumeist auf die Analyse innerhalb eines Einzugsgebietes bzw. eines bestimmten Ortes. Die Zusammenhänge in größeren Regionen und vor allem Korrelationen zwischen verschiedenen Einzugsgebieten werden nur selten betrachtet. Solche einzugsgebietsübergreifenden Analysen sind jedoch sowohl für die Versicherungswirtschaft, den Katastrophenschutz sowie für großräumige strategische Hochwasserplanungen notwendig. Allerdings stehen nur für eine geringe Auswahl historischer Ereignisse Daten zur Verfügung und systematische Ansätze zu ihrer Erfassung wurden für Deutschland bisher nicht entwickelt. Die vorliegende Studie untersucht zum ersten die Häufigkeit und Intensität von flussgebietsübergreifenden Hochwasserereignissen in Deutschland anhand von gemessenen Abflüssen an einer Vielzahl von Stationen. Es können insgesamt 80 Hochwasserereignisse in Deutschland im Zeitraum von 1952-2002 nachgewiesen werden. Davon treten die meisten Ereignissen im hydrologischen Winterhalbjahr auf (64%). Wir können nachweisen, dass die Häufigkeit des Auftretens in verschiedenen Perioden unterschiedlich ist, und dass im Untersuchungszeitraum eine signifikante Zunahme von Winterereignissen und damit vor allem von sehr schweren flussgebietsübergreifenden Hochwasserereignissen zu verzeichnen ist. Die Studie hatte des Weiteren zum Ziel, die verfügbare Daten- und Informationsgrundlage zur Hochwasseranalyse zu erkunden. Im speziellen wird untersucht, inwieweit Hochwasserereignisdokumentationen und verwandte Berichte als eine weitere Datenquelle für ein verbessertes Prozessverständnis genutzt werden können. Im Rahmen einer systematischen Suche konnten für die 40 größten Hochwasserereignisse in Deutschland 186 relevante Berichte identifiziert werden. 80% des Materials kann als Grauliteratur eingestuft werden, d.h. als Veröffentlichungen welche nicht durch kommerzielle Verleger publiziert wird. Die sich daraus ergebende Frage nach der Qualität der Dokumente und ihres Informationsgehaltes wurde durch die Entwicklung und Anwendung eines Qualitätsbewertungsschemas beantwortet. Die Ergebnisse der Qualitätsbewertung zeigen, dass die Mehrheit der ereignisspezifischen Hochwasserberichte von guter Qualität ist, d.h. die Berichte sind in ausreichender Qualität verfasst, größtenteils korrekt und objektiv und beinhalten eine substantielle Menge an Informationen zu den Ursachen, Verläufen, betroffenen Objekten und Schäden eines Ereignisses. Es wird empfohlen diese Informationen in die Wissenssynthese für die Hochwasserrisikobewertung einfließen zu lassen. Sowohl Ergebnisse als auch Daten dieser Studie sind so publiziert, dass sie öffentlich zugänglich sind und für weitere Forschungsfragen genutzt werden können. KW - Hochwasser KW - Deutschland KW - Grauliteratur KW - Ereignisdokumentation KW - Qualitätsbewertung KW - floods KW - Germany KW - grey literature KW - event documentation KW - quality assessment framework Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68868 ER - TY - THES A1 - Töle, Jonas Claudius T1 - Über die Arc-catFISH-Methode als neues Werkzeug zur Charakterisierung der Geschmacksverarbeitung im Hirnstamm der Maus T1 - The arc catFISH method as a new tool to characterize taste processing in the mouse hind brain N2 - Intensive Forschung hat in den vergangenen Jahrzehnten zu einer sehr detaillierten Charakterisierung des Geschmackssystems der Säugetiere geführt. Dennoch sind mit den bislang eingesetzten Methoden wichtige Fragestellungen unbeantwortet geblieben. Eine dieser Fragen gilt der Unterscheidung von Bitterstoffen. Die Zahl der Substanzen, die für den Menschen bitter schmecken und in Tieren angeborenes Aversionsverhalten auslösen, geht in die Tausende. Diese Substanzen sind sowohl von der chemischen Struktur als auch von ihrer Wirkung auf den Organismus sehr verschieden. Während viele Bitterstoffe potente Gifte darstellen, sind andere in den Mengen, die mit der Nahrung aufgenommen werden, harmlos oder haben sogar positive Effekte auf den Körper. Zwischen diesen Gruppen unterscheiden zu können, wäre für ein Tier von Vorteil. Ein solcher Mechanismus ist jedoch bei Säugetieren nicht bekannt. Das Ziel dieser Arbeit war die Untersuchung der Verarbeitung von Geschmacksinformation in der ersten Station der Geschmacksbahn im Mausgehirn, dem Nucleus tractus solitarii (NTS), mit besonderem Augenmerk auf der Frage nach der Diskriminierung verschiedener Bitterstoffe. Zu diesem Zweck wurde eine neue Untersuchungsmethode für das Geschmackssystem etabliert, die die Nachteile bereits verfügbarer Methoden umgeht und ihre Vorteile kombiniert. Die Arc-catFISH-Methode (cellular compartment analysis of temporal activity by fluorescent in situ hybridization), die die Charakterisierung der Antwort großer Neuronengruppen auf zwei Stimuli erlaubt, wurde zur Untersuchung geschmacksverarbeitender Zellen im NTS angewandt. Im Zuge dieses Projekts wurde erstmals eine stimulusinduzierte Arc-Expression im NTS gezeigt. Die ersten Ergebnisse offenbarten, dass die Arc-Expression im NTS spezifisch nach Stimulation mit Bitterstoffen auftritt und sich die Arc exprimierenden Neurone vornehmlich im gustatorischen Teil des NTS befinden. Dies weist darauf hin, dass Arc-Expression ein Marker für bitterverarbeitende gustatorische Neurone im NTS ist. Nach zweimaliger Stimulation mit Bittersubstanzen konnten überlappende, aber verschiedene Populationen von Neuronen beobachtet werden, die unterschiedlich auf die drei verwendeten Bittersubstanzen Cycloheximid, Chininhydrochlorid und Cucurbitacin I reagierten. Diese Neurone sind vermutlich an der Steuerung von Abwehrreflexen beteiligt und könnten so die Grundlage für divergentes Verhalten gegenüber verschiedenen Bitterstoffen bilden. N2 - Intense research in the past decades has led to a detailed understanding of the mammalian taste system. Some important issues, however, have remained unanswered with the established methods that have been applied so far. One of these questions is whether different bitter substances can be distinguished. There are thousands of compounds which taste bitter to humans and elicit innate aversive behavior in animals. Moreover, these bitter substances are very heterogeneous regarding their structure as well as their effect on the organism. While many bitter tastants are potent poisons, others are harmless or even have beneficial effects in the amounts that are typically ingested. The ability to discriminate between those groups of bitter tastants could be an evolutionary advantage. Such a mechanism, however, is not known for mammals. The aim of this thesis was to study the processing of taste information in the first station of gustatory processing in the mouse brain, the nucleus of the solitary tract (NTS). Of particular interest was the question concerning discrimination of bitter tastants. To this end a new method was established for the taste system combining the advantages of methods used before while circumventing their disadvantages. The Arc catFISH method (cellular compartment analysis of temporal activity by fluorescent in situ hybridization), which allows the characterization of responses of large neuron populations to two stimuli, was used to analyze taste-processing cells in the NTS. In the course of this project a stimulus-induced Arc expression in the NTS was shown for the first time. The results demonstrated that Arc expression in the NTS appears specifically after stimulation with bitter tastants and that the Arc expressing neurons are located primarily in the gustatory part of the NTS. This indicates that Arc expression is a marker for bitter-processing gustatory neurons in the NTS. Upon stimulating twice with bitter compounds, distinct, yet overlapping neuron populations were identified, that reacted differently to the three bitter substances cycloheximide, quinine hydrochloride, and cucurbitacin I. Presumably these neurons are involved in the regulation of aversive reflexes and could form a basis for divergent behavior towards different bitter substances. KW - Geschmack KW - bitter KW - Nucleus tractus solitarii KW - Immediate-early-Gen KW - activity-regulated cytoskeleton-associated protein KW - catFISH KW - taste KW - bitter KW - nucleus of the solitary tract KW - immediate early gene KW - activity-regulated cytoskeleton-associated protein KW - catFISH Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70491 ER - TY - THES A1 - Tyrallová, Lucia T1 - Automatisierte Objektidentifikation und Visualisierung terrestrischer Oberflächenformen T1 - Automated object identification and visualisation of terrestrial landforms N2 - Die automatisierte Objektidentifikation stellt ein modernes Werkzeug in den Geoinformationswissenschaften dar (BLASCHKE et al., 2012). Um bei thematischen Kartierungen untereinander vergleichbare Ergebnisse zu erzielen, sollen aus Sicht der Geoinformatik Mittel für die Objektidentifikation eingesetzt werden. Anstelle von Feldarbeit werden deshalb in der vorliegenden Arbeit multispektrale Fernerkundungsdaten als Primärdaten verwendet. Konkrete natürliche Objekte werden GIS-gestützt und automatisiert über große Flächen und Objektdichten aus Primärdaten identifiziert und charakterisiert. Im Rahmen der vorliegenden Arbeit wird eine automatisierte Prozesskette zur Objektidentifikation konzipiert. Es werden neue Ansätze und Konzepte der objektbasierten Identifikation von natürlichen isolierten terrestrischen Oberflächenformen entwickelt und implementiert. Die Prozesskette basiert auf einem Konzept, das auf einem generischen Ansatz für automatisierte Objektidentifikation aufgebaut ist. Die Prozesskette kann anhand charakteristischer quantitativer Parameter angepasst und so umgesetzt werden, womit das Konzept der Objektidentifikation modular und skalierbar wird. Die modulbasierte Architektur ermöglicht den Einsatz sowohl einzelner Module als auch ihrer Kombination und möglicher Erweiterungen. Die eingesetzte Methodik der Objektidentifikation und die daran anschließende Charakteristik der (geo)morphometrischen und morphologischen Parameter wird durch statistische Verfahren gestützt. Diese ermöglichen die Vergleichbarkeit von Objektparametern aus unterschiedlichen Stichproben. Mit Hilfe der Regressionsund Varianzanalyse werden Verhältnisse zwischen Objektparametern untersucht. Es werden funktionale Abhängigkeiten der Parameter analysiert, um die Objekte qualitativ zu beschreiben. Damit ist es möglich, automatisiert berechnete Maße und Indizes der Objekte als quantitative Daten und Informationen zu erfassen und unterschiedliche Stichproben anzuwenden. Im Rahmen dieser Arbeit bilden Thermokarstseen die Grundlage für die Entwicklungen und als Beispiel sowie Datengrundlage für den Aufbau des Algorithmus und die Analyse. Die Geovisualisierung der multivariaten natürlichen Objekte wird für die Entwicklung eines besseren Verständnisses der räumlichen Relationen der Objekte eingesetzt. Kern der Geovisualisierung ist das Verknüpfen von Visualisierungsmethoden mit kartenähnlichen Darstellungen. N2 - The automated object identification represents a modern tool in geoinformatics (BLASCHKE et al., 2012). In order to achieve results in thematic mapping comparable among one another, considering geoinformatics, means of object identification should be applied. Therefore, instead of fieldwork, multispectral remote-sensing data have been used as a primary data source in this work. Specific natural objects have been GIS-based and automatically identified and characterised from the primary data over large areas and object densities. Within this work, an automated process chain for the object identification has been developed. New approaches and concepts of object-based identification of natural isolated terrestrial landforms have been developed and implemented. The process chain is based on a concept that develops a generic approach to the automated object identification. This process chain can be customised for and applied to specific objects by settings of characteristic quantitative parameters, by which the concept of object identification becomes modular and scalable. The modul-based architecture enables use of individual moduls as well as their combinations and possible expansions. The introduced methodology of object identification and the connected characteristics of (geo)morphometric and morphologic parameters has been supported by a static procedures. These enable the comparability of object parameters from different samples. With the help of regression and variance analysis, relations between object parameters have been explored. Functional dependencies of parameters have been analysed in order to qualitatively describe the objects. As a result, automatically computed dimensions and indices of the objects can be captured as quantitative data and informations an applied to varied samples. Within this work the thermokarst lakes represent the basis for the process development and an example and a data basis for the design of the algorithm and analysis. The goevisualisation of multivariant natural objects has been applied to develop better understanding of their spatial relations. The essence of the geovisualisation is to link the methods of visualisation to map-like presentation. KW - Objektidentifikation KW - natürliche terrestrische Oberflächenformen KW - Prozesskette KW - GIS KW - object identification KW - natural terrestrial landforms KW - process chain KW - GIS Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69268 ER - TY - THES A1 - Trapp, Matthias T1 - Interactive rendering techniques for focus+context visualization of 3D geovirtual environments T1 - Interaktive Rendering-Techniken für die Fokus-&-Kontext-Visualisierung von geovirtuellen 3D-Umgebungen N2 - This thesis introduces a collection of new real-time rendering techniques and applications for focus+context visualization of interactive 3D geovirtual environments such as virtual 3D city and landscape models. These environments are generally characterized by a large number of objects and are of high complexity with respect to geometry and textures. For these reasons, their interactive 3D rendering represents a major challenge. Their 3D depiction implies a number of weaknesses such as occlusions, cluttered image contents, and partial screen-space usage. To overcome these limitations and, thus, to facilitate the effective communication of geo-information, principles of focus+context visualization can be used for the design of real-time 3D rendering techniques for 3D geovirtual environments (see Figure). In general, detailed views of a 3D geovirtual environment are combined seamlessly with abstracted views of the context within a single image. To perform the real-time image synthesis required for interactive visualization, dedicated parallel processors (GPUs) for rasterization of computer graphics primitives are used. For this purpose, the design and implementation of appropriate data structures and rendering pipelines are necessary. The contribution of this work comprises the following five real-time rendering methods: • The rendering technique for 3D generalization lenses enables the combination of different 3D city geometries (e.g., generalized versions of a 3D city model) in a single image in real time. The method is based on a generalized and fragment-precise clipping approach, which uses a compressible, raster-based data structure. It enables the combination of detailed views in the focus area with the representation of abstracted variants in the context area. • The rendering technique for the interactive visualization of dynamic raster data in 3D geovirtual environments facilitates the rendering of 2D surface lenses. It enables a flexible combination of different raster layers (e.g., aerial images or videos) using projective texturing for decoupling image and geometry data. Thus, various overlapping and nested 2D surface lenses of different contents can be visualized interactively. • The interactive rendering technique for image-based deformation of 3D geovirtual environments enables the real-time image synthesis of non-planar projections, such as cylindrical and spherical projections, as well as multi-focal 3D fisheye-lenses and the combination of planar and non-planar projections. • The rendering technique for view-dependent multi-perspective views of 3D geovirtual environments, based on the application of global deformations to the 3D scene geometry, can be used for synthesizing interactive panorama maps to combine detailed views close to the camera (focus) with abstract views in the background (context). This approach reduces occlusions, increases the usage the available screen space, and reduces the overload of image contents. • The object-based and image-based rendering techniques for highlighting objects and focus areas inside and outside the view frustum facilitate preattentive perception. The concepts and implementations of interactive image synthesis for focus+context visualization and their selected applications enable a more effective communication of spatial information, and provide building blocks for design and development of new applications and systems in the field of 3D geovirtual environments. N2 - Die Darstellung immer komplexerer raumbezogener Information durch Geovisualisierung stellt die existierenden Technologien und den Menschen ständig vor neue Herausforderungen. In dieser Arbeit werden fünf neue, echtzeitfähige Renderingverfahren und darauf basierende Anwendungen für die Fokus-&-Kontext-Visualisierung von interaktiven geovirtuellen 3D-Umgebungen – wie virtuelle 3D-Stadt- und Landschaftsmodelle – vorgestellt. Die große Menge verschiedener darzustellender raumbezogener Information in 3D-Umgebungen führt oft zu einer hohen Anzahl unterschiedlicher Objekte und somit zu einer hohen Geometrie- und Texturkomplexität. In der Folge verlieren 3D-Darstellungen durch Verdeckungen, überladene Bildinhalte und eine geringe Ausnutzung des zur Verfügung stehenden Bildraumes an Informationswert. Um diese Beschränkungen zu kompensieren und somit die Kommunikation raumbezogener Information zu verbessern, kann das Prinzip der Fokus-&-Kontext-Visualisierung angewendet werden. Hierbei wird die für den Nutzer wesentliche Information als detaillierte Ansicht im Fokus mit abstrahierter Kontextinformation nahtlos miteinander kombiniert. Um das für die interaktive Visualisierung notwendige Echtzeit-Rendering durchzuführen, können spezialisierte Parallelprozessoren für die Rasterisierung von computergraphischen Primitiven (GPUs) verwendet werden. Dazu ist die Konzeption und Implementierung von geeigneten Datenstrukturen und Rendering-Pipelines notwendig. Der Beitrag dieser Arbeit umfasst die folgenden fünf Renderingverfahren. • Das Renderingverfahren für interaktive 3D-Generalisierungslinsen: Hierbei wird die Kombination unterschiedlicher 3D-Szenengeometrien, z. B. generalisierte Varianten eines 3DStadtmodells, in einem Bild ermöglicht. Das Verfahren basiert auf einem generalisierten Clipping-Ansatz, der es erlaubt, unter Verwendung einer komprimierbaren, rasterbasierten Datenstruktur beliebige Bereiche einer 3D-Szene freizustellen bzw. zu kappen. Somit lässt sich eine Kombination von detaillierten Ansichten im Fokusbereich mit der Darstellung einer abstrahierten Variante im Kontextbereich implementieren. • Das Renderingverfahren zur Visualisierung von dynamischen Raster-Daten in geovirtuellen 3D-Umgebungen zur Darstellung von 2D-Oberflächenlinsen: Die Verwendung von projektiven Texturen zur Entkoppelung von Bild- und Geometriedaten ermöglicht eine flexible Kombination verschiedener Rasterebenen (z.B. Luftbilder oder Videos). Somit können verschiedene überlappende sowie verschachtelte 2D-Oberflächenlinsen mit unterschiedlichen Dateninhalten interaktiv visualisiert werden. • Das Renderingverfahren zur bildbasierten Deformation von geovirtuellen 3D-Umgebungen: Neben der interaktiven Bildsynthese von nicht-planaren Projektionen, wie beispielsweise zylindrischen oder sphärischen Panoramen, lassen sich mit diesem Verfahren multifokale 3D-Fischaugen-Linsen erzeugen sowie planare und nicht-planare Projektionen miteinander kombinieren. • Das Renderingverfahren für die Generierung von sichtabhängigen multiperspektivischen Ansichten von geovirtuellen 3D-Umgebungen: Das Verfahren basiert auf globalen Deformationen der 3D-Szenengeometrie und kann zur Erstellung von interaktiven 3D-Panoramakarten verwendet werden, welche beispielsweise detaillierte Absichten nahe der virtuellen Kamera (Fokus) mit abstrakten Ansichten im Hintergrund (Kontext) kombinieren. Dieser Ansatz reduziert Verdeckungen, nutzt den zur Verfügung stehenden Bildraum in verbesserter Weise aus und reduziert das Überladen von Bildinhalten. • Objekt-und bildbasierte Renderingverfahren für die Hervorhebung von Fokus-Objekten und Fokus-Bereichen innerhalb und außerhalb des sichtbaren Bildausschnitts, um die präattentive Wahrnehmung eines Benutzers besser zu unterstützen. Die in dieser Arbeit vorgestellten Konzepte, Entwürfe und Implementierungen von interaktiven Renderingverfahren zur Fokus-&-Kontext-Visualisierung sowie deren ausgewählte Anwendungen ermöglichen eine effektivere Kommunikation raumbezogener Information und repräsentieren softwaretechnische Bausteine für die Entwicklung neuer Anwendungen und Systeme im Bereich der geovirtuellen 3D-Umgebungen. KW - 3D Computer Grafik KW - Interaktives Rendering KW - Fokus-&-Kontext Visualisierung KW - 3D Computer Graphics KW - Interactive Rendering KW - Focus+Context Visualization Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66824 ER - TY - THES A1 - Thomas, Björn Daniel T1 - Analysis and management of low flows in small catchments of Brandenburg, Germany T1 - Analyse und Management von Niedrigwasserabflüssen in kleinen Flusseinzugsgebieten Brandenburgs N2 - Water management and environmental protection is vulnerable to extreme low flows during streamflow droughts. During the last decades, in most rivers of Central Europe summer runoff and low flows have decreased. Discharge projections agree that future decrease in runoff is likely for catchments in Brandenburg, Germany. Depending on the first-order controls on low flows, different adaption measures are expected to be appropriate. Small catchments were analyzed because they are expected to be more vulnerable to a changing climate than larger rivers. They are mainly headwater catchments with smaller ground water storage. Local characteristics are more important at this scale and can increase vulnerability. This thesis mutually evaluates potential adaption measures to sustain minimum runoff in small catchments of Brandenburg, Germany, and similarities of these catchments regarding low flows. The following guiding questions are addressed: (i) Which first-order controls on low flows and related time scales exist? (ii) Which are the differences between small catchments regarding low flow vulnerability? (iii) Which adaption measures to sustain minimum runoff in small catchments of Brandenburg are appropriate considering regional low flow patterns? Potential adaption measures to sustain minimum runoff during periods of low flows can be classified into three categories: (i) increase of groundwater recharge and subsequent baseflow by land use change, land management and artificial ground water recharge, (ii) increase of water storage with regulated outflow by reservoirs, lakes and wetland water management and (iii) regional low flow patterns have to be considered during planning of measures with multiple purposes (urban water management, waste water recycling and inter-basin water transfer). The question remained whether water management of areas with shallow groundwater tables can efficiently sustain minimum runoff. Exemplary, water management scenarios of a ditch irrigated area were evaluated using the model Hydrus-2D. Increasing antecedent water levels and stopping ditch irrigation during periods of low flows increased fluxes from the pasture to the stream, but storage was depleted faster during the summer months due to higher evapotranspiration. Fluxes from this approx. 1 km long pasture with an area of approx. 13 ha ranged from 0.3 to 0.7 l\s depending on scenario. This demonstrates that numerous of such small decentralized measures are necessary to sustain minimum runoff in meso-scale catchments. Differences in the low flow risk of catchments and meteorological low flow predictors were analyzed. A principal component analysis was applied on daily discharge of 37 catchments between 1991 and 2006. Flows decreased more in Southeast Brandenburg according to meteorological forcing. Low flow risk was highest in a region east of Berlin because of intersection of a more continental climate and the specific geohydrology. In these catchments, flows decreased faster during summer and the low flow period was prolonged. A non-linear support vector machine regression was applied to iteratively select meteorological predictors for annual 30-day minimum runoff in 16 catchments between 1965 and 2006. The potential evapotranspiration sum of the previous 48 months was the most important predictor (r²=0.28). The potential evapotranspiration of the previous 3 months and the precipitation of the previous 3 months and last year increased model performance (r²=0.49, including all four predictors). Model performance was higher for catchments with low yield and more damped runoff. In catchments with high low flow risk, explanatory power of long term potential evapotranspiration was high. Catchments with a high low flow risk as well as catchments with a considerable decrease in flows in southeast Brandenburg have the highest demand for adaption. Measures increasing groundwater recharge are to be preferred. Catchments with high low flow risk showed relatively deep and decreasing groundwater heads allowing increased groundwater recharge at recharge areas with higher altitude away from the streams. Low flows are expected to stay low or decrease even further because long term potential evapotranspiration was the most important low flow predictor and is projected to increase during climate change. Differences in low flow risk and runoff dynamics between catchments have to be considered for management and planning of measures which do not only have the task to sustain minimum runoff. N2 - Sowohl Gewässermanagement als auch die Gewässerökologie können durch extreme Niedrigwasserereignisse stark betroffen sein. In den letzten Jahrzehnten haben sowohl der Abfluss während der Sommermonate als auch die Niedrigwasserabflüsse in den meisten Flüssen Zentraleuropas abgenommen. Projektionen des zukünftigen Abflusses lassen einen weiteren Rückgang der Abflüsse aus Einzugsgebieten Brandenburgs erwarten. Anpassungsmaßnahmen zur Stützung von Niedrigwasserabflüssen müssen den hydrologischen Prozessen gerecht werden. In dieser Arbeit werden Kopfeinzugsgebiete mit kleineren Grundwasserspeichern betrachtet, weil sie anfälliger gegenüber dem Klimawandel erscheinen als größere. Lokale Gegebenheiten können darüber hinaus ihre Vulnerabilität erhöhen. In dieser Arbeit werden Ergebnisse über die ähnlichkeit von kleinen Einzugsgebieten verwendet, um geeignete Anpassungsmaßnahmen zur Stützung von Niedrigwasserabflüssen herauszuarbeiten. Folgende Leitfragen werden bearbeitet: (i) Was sind die maßgeblichen Prozesse und Zeitskalen, die zu Niedrigwasserabflüssen führen? (ii) Wie unterscheiden sich die Einzugsgebiete bezüglich ihrer Vulnerabilität? (iii) Was sind geeignete Anpassungsmaßnahmen unter Berücksichtigung der vorherrschenden Prozesse und ihrer räumlichen Muster? Mögliche Anpassungsmaßnahmen können in drei Kategorien unterteilt werden: (i) Landnutzungsänderungen, änderungen der Feldbewirtschaftung und künstliche Grundwasseranreicherung führen zur Erhöhung der Grundwasserneubildung und somit des Basisabflusses. (ii) Talsperren, Seen, Teiche und ein entsprechendes Wassermanagement in Feuchtgebieten eignen sich zur Wasserspeicherung und regulierten Wasserabgabe. (iii) Maßnahmen bei deren Planung Wissen über Niedrigwasserabflüsse einfließen muss, aber die Stützung von Niedrigwasserabflüssen nicht die einzige Aufgabe ist (Siedlungswassermanagement, Abwassermanagement und Wasserüberleitungen zwischen Einzugsgebieten). Darüber hinaus wurde die Effektivität ufernaher Grundwasseranreicherung durch bestehende Bewässerungsgräben explizit an einem Standort unter Verwendung des Models Hydrus-2D quantifiziert. Hohe Wasserstände in den Gräben und das Unterbrechen der Wassereinleitung führten zu einer Niedrigwasseraufhöhung. Im Sommer wurde der Wasserspeicher wegen der Verdunstung schneller verbraucht. Je nach Szenario betrug die Niedrigwasseraufhöhung, die von der ca. 1 km langen und 13 ha großen Fläche ausging, zwischen 0.3 und 0.7 l/s. Eine Vielzahl solcher dezentraler Maßnahmen wären für eine deutliche Stützung der Niedrigwasserabflüsse in mesoskaligen Einzugsgebieten notwendig. Das Niedrigwasserrisiko sowie meteorologische Niedrigwasserprädiktoren wurden vergleichend analysiert. Der tägliche Abfluss aus 37 Einzugsgebieten zwischen 1991 und 2006 wurde mittels einer Hauptkomponentenanalyse ausgewertet. Der Abfluss in Südost Brandenburg ging klimabedingt stärker zurück. Das Niedrigwasserrisiko war in der Region östlich Berlins als Folge des kontinentaleren Klimas und der lokalen geohydrologischen Verhältnisse am größten. Diese Einzugsgebiete zeigten einen relativ schnellen Abflussrückgang während der Sommermonate und eine längere Niedrigwasserperiode. Darüber hinaus wurde eine nichtlineare Support Vektor Machine Regression zur iterativen Bestimmung der meteorologischen Prädiktoren für den jährlichen Niedrigwasserabfluss im 30-Tage Mittel in 16 Einzugsgebieten zwischen 1965 und 2006 durchgeführt. Die potentielle Verdunstungshöhe der vorhergegangenen 48 Monate war der wichtigste Prädiktor (r²=0.28). Die potentielle Verdunstungshöhe der vorhergegangenen 3 Monate sowie die Niederschlagshöhe der vorhergegangenen 3 Monate und des letzten Jahres verbesserten die Modellgüte zusätzlich (r²=0.49, für alle vier Prädiktoren). Die Modellgüte war höher in Einzugsgebieten mit geringer Abflussspende und gedämpftem Abflussverhalten. In Einzugsgebieten mit hohem Niedrigwasserrisiko war die potentielle Langzeitverdunstung wichtiger, um Niedrigwasserabflüsse zu erklären. In Einzugsgebieten mit hohem Niedrigwasserrisiko östlich von Berlin und deutlichem Abflussrückgang im Südosten Brandenburgs besteht der höchste Anpassungsbedarf. Maßnahmen zur Erhöhung der Grundwasserneubildung sollten bevorzugt werden. Einzugsgebiete mit hohem Niedrigwasserrisiko haben verhältnismäßig tiefe Grundwasserstände, was eine Erhöhung der Grundwasserneubildung in den höher gelegenen Neubildungsgebieten möglich und sinnvoll macht. Es ist davon auszugehen, dass Niedrigwasserabflüsse weiterhin niedrig bleiben oder sogar weiter fallen werden, da die potentielle Langzeitverdunstung der wichtigste Prädiktor war und Klimamodelle einen weiteren Anstieg dieser projizieren. Des Weiteren sind die Ergebnisse dieser Arbeit wichtig für die integrierte Planung von Maßnahmen, die nicht ausschließlich die Stützung von Niedrigwasserabflüssen zur Aufgabe haben. KW - regionale Hydrologie KW - Niedrigwasser KW - Einzugsgebietsklassifizierung KW - multivariate Statistik KW - Datenanalyse KW - landscape hydrology KW - low flow KW - catchment classification KW - multivariate statistics KW - data analysis Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69247 ER - TY - THES A1 - Theves, Matthias T1 - Bacterial motility and growth in open and confined environments T1 - Bacterial motility and growth in open and confined environments N2 - In the presence of a solid-liquid or liquid-air interface, bacteria can choose between a planktonic and a sessile lifestyle. Depending on environmental conditions, cells swimming in close proximity to the interface can irreversibly attach to the surface and grow into three-dimensional aggregates where the majority of cells is sessile and embedded in an extracellular polymer matrix (biofilm). We used microfluidic tools and time lapse microscopy to perform experiments with the polarly flagellated soil bacterium Pseudomonas putida (P. putida), a bacterial species that is able to form biofilms. We analyzed individual trajectories of swimming cells, both in the bulk fluid and in close proximity to a glass-liquid interface. Additionally, surface related growth during the early phase of biofilm formation was investigated. In the bulk fluid, P.putida shows a typical bacterial swimming pattern of alternating periods of persistent displacement along a line (runs) and fast reorientation events (turns) and cells swim with an average speed around 24 micrometer per second. We found that the distribution of turning angles is bimodal with a dominating peak around 180 degrees. In approximately six out of ten turning events, the cell reverses its swimming direction. In addition, our analysis revealed that upon a reversal, the cell systematically changes its swimming speed by a factor of two on average. Based on the experimentally observed values of mean runtime and rotational diffusion, we presented a model to describe the spreading of a population of cells by a run-reverse random walker with alternating speeds. We successfully recover the mean square displacement and, by an extended version of the model, also the negative dip in the directional autocorrelation function as observed in the experiments. The analytical solution of the model demonstrates that alternating speeds enhance a cells ability to explore its environment as compared to a bacterium moving at a constant intermediate speed. As compared to the bulk fluid, for cells swimming near a solid boundary we observed an increase in swimming speed at distances below d= 5 micrometer and an increase in average angular velocity at distances below d= 4 micrometer. While the average speed was maximal with an increase around 15% at a distance of d= 3 micrometer, the angular velocity was highest in closest proximity to the boundary at d=1 micrometer with an increase around 90% as compared to the bulk fluid. To investigate the swimming behavior in a confinement between two solid boundaries, we developed an experimental setup to acquire three-dimensional trajectories using a piezo driven objective mount coupled to a high speed camera. Results on speed and angular velocity were consistent with motility statistics in the presence of a single boundary. Additionally, an analysis of the probability density revealed that a majority of cells accumulated near the upper and lower boundaries of the microchannel. The increase in angular velocity is consistent with previous studies, where bacteria near a solid boundary were shown to swim on circular trajectories, an effect which can be attributed to a wall induced torque. The increase in speed at a distance of several times the size of the cell body, however, cannot be explained by existing theories which either consider the drag increase on cell body and flagellum near a boundary (resistive force theory) or model the swimming microorganism by a multipole expansion to account for the flow field interaction between cell and boundary. An accumulation of swimming bacteria near solid boundaries has been observed in similar experiments. Our results confirm that collisions with the surface play an important role and hydrodynamic interactions alone cannot explain the steady-state accumulation of cells near the channel walls. Furthermore, we monitored the number growth of cells in the microchannel under medium rich conditions. We observed that, after a lag time, initially isolated cells at the surface started to grow by division into colonies of increasing size, while coexisting with a comparable smaller number of swimming cells. After 5:50 hours, we observed a sudden jump in the number of swimming cells, which was accompanied by a breakup of bigger clusters on the surface. After approximately 30 minutes where planktonic cells dominated in the microchannel, individual swimming cells reattached to the surface. We interpret this process as an emigration and recolonization event. A number of complementary experiments were performed to investigate the influence of collective effects or a depletion of the growth medium on the transition. Similar to earlier observations on another bacterium from the same family we found that the release of cells to the swimming phase is most likely the result of an individual adaption process, where syntheses of proteins for flagellar motility are upregulated after a number of division cycles at the surface. N2 - Bakterien sind einzellige Mikroorganismen, die sich in flüssigem Medium mit Hilfe von rotierenden Flagellen, länglichen Fasern aus Proteinen, schwimmend fortbewegen. In Gegenwart einer Grenzfläche und unter günstigen Umweltbedingungen siedeln sich Bakterien an der Oberfläche an und gehen in eine sesshafte Wachstumsphase über. Die Wachstumsphase an der Oberfläche ist gekennzeichnet durch das Absondern von klebrigen, nährstoffreichen extrazellulären Substanzen, welche die Verbindung der Bakterien untereinander und mit der Oberfläche verstärken. Die entstehenden Aggregate aus extrazellulärer Matrix und Bakterien werden als Biofilm bezeichnet. In der vorliegenden Arbeit untersuchten wir ein Bodenbakterium, Pseudomonas putida (P. putida), welches in wässriger Umgebung an festen Oberflächen Biofilme ausbildet. Wir benutzten photolithographisch hergestellte Mikrokanäle und Hochgeschwindigkeits-Videomikroskopie um die Bewegung schwimmender Zellen in verschiedenen Abständen zu einer Glasoberfläche aufzunehmen. Zusätzlich wurden Daten über das parallel stattfindende Wachstum der sesshaften Zellen an der Oberfläche aufgezeichnet. Die Analyse von Trajektorien frei schwimmender Zellen zeigte, dass sich Liniensegmente, entlang derer sich die Zellen in eine konstante Richtung bewegen, mit scharfen Kehrtwendungen mit einem Winkel von 180 Grad abwechseln. Dabei änderte sich die Schwimmgeschwindigket von einem zum nächsten Segment im Mittel um einen Faktor von 2. Unsere experimentellen Daten waren die Grundlage für ein mathematisches Modell zur Beschreibung der Zellbewegung mit alternierender Geschwindigkeit. Die analytische Lösung des Modells zeigt elegant, dass eine Population von Bakterien, welche zwischen zwei Geschwindigkeiten wechseln, signifikant schneller expandiert als eine Referenzpopulation mit Bakterien konstanter Schwimmgeschwindkeit. Im Vergleich zu frei schwimmenden Bakterien beobachteten wir in der Nähe der Oberfläche eine um 15% erhöhte Schwimmgeschwindigkeit der Zellen und eine um 90 % erhöhte Winkel-geschwindigkeit. Außerdem wurde eine signifikant höhere Zelldichte in der Nähe der Grenzfläche gemessen. Während sich der Anstieg in der Winkelgeschwindigkeit durch ein Drehmoment erklären lässt, welches in Oberflächennähe auf den rotierenden Zellkörper und die rotierenden Flagellen wirkt, kann die Beschleunigung und Akkumulation der Zellen bei dem beobachteten Abstand nicht durch existierende Theorien erklärt werden. Unsere Ergebnisse lassen vermuten, dass neben hydrodynamischen Effekten auch Kollisionen mit der Oberfläche eine wichtige Rolle spielen und sich die Rotationsgeschwindigkeit der Flagellenmotoren in der Nähe einer festen Oberfläche grundsätzlich verändert. Unsere Experimente zum Zellwachstum an Oberflächen zeigten, dass sich etwa sechs Stunden nach Beginn des Experiments größere Kolonien an der Kanaloberfläche auflösen und Zellen für ca. 30 Minuten zurück in die schwimmende Phase wechseln. Ergebnisse von mehreren Vergleichsexperimenten deuten darauf hin, dass dieser Übergang nach einer festen Anzahl von Zellteilungen an der Oberfläche erfolgt und nicht durch den Verbrauch des Wachstumsmediums bedingt wird. KW - Pseudomonas putida KW - Motilität KW - Flagellenbewegung KW - Random-Walk-Theorie KW - Schwimmende Mikroorganismen KW - pseudomonas putida KW - motility KW - flagellar filaments KW - random walk KW - cell tracking Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70313 ER - TY - THES A1 - Thalmann, Sophie T1 - Korrelation zwischen der genetischen und der funktionellen Diversität humaner Bitterrezeptoren T1 - Correlation between the genetic and the functional diversity of bitter receptors N2 - Der Mensch besitzt ~25 funktionelle Bitterrezeptoren (TAS2R), die für die Wahrnehmung potenziell toxischer Substanzen in der Nahrung verantwortlich sind. Aufgrund der großen genetischen Variabilität der TAS2R-Gene könnte es eine Vielzahl funktionell unterschiedlicher TAS2R-Haplotypen geben, die zu Unterschieden der Bitterwahrnehmung führen. Dies konnte bereits in funktionellen Analysen und sensorischen Studien für einzelne Bitterrezeptoren gezeigt werden. In dieser Arbeit wurden die häufigsten Haplotypen aller 25 Bitterrezeptoren verschiedener Ethnien funktionell charakterisiert. Das Ziel war eine umfassende Aussage über die funktionelle Diversität der TAS2Rs, die die molekulare Grundlage für individuelle Bitterwahrnehmung bildet, treffen zu können. Fehlende Varianten wurden aus genomischer DNA kloniert oder durch gezielte Mutagenese bereits vorhandener TAS2R-Konstrukte generiert. Die funktionelle Analyse erfolgte mittels Expression der TAS2R-Haplotypen in HEK293TG16gust44 Zellen und anschließenden Calcium-Imaging-Experimenten mit zwei bekannten Agonisten. Die Haplotypen der fünf orphanen TAS2Rs wurden mit über hundert Bitterstoffen stimuliert. Durch die gelungene Deorphanisierung des TAS2R41 in dieser Arbeit, wurden für die 21 aktivierbaren TAS2Rs 36 funktionell-unterschiedliche Haplotypen identifiziert. Die tatsächliche funktionelle Vielfalt blieb jedoch deutlich hinter der genetischen Variabilität der TAS2Rs zurück. Neun Bitterrezeptoren wiesen funktionell homogene Haplotypen auf oder besaßen nur eine weltweit vorherrschende Variante. Funktionell heterogene Haplotypen wurden für zwölf TAS2Rs identifiziert. Inaktive Varianten der Rezeptoren TAS2R9, TAS2R38 und TAS2R46 sollten die Wahrnehmung von Bitterstoffen wie Ofloxacin, Cnicin, Hydrocortison, Limonin, Parthenolid oder Strychnin beeinflussen. Unterschiedlich sensitive Varianten, besonders der Rezeptoren TAS2R47 und TAS2R49, sollten für Agonisten wie Absinthin, Amarogentin oder Cromolyn ebenfalls zu phänotypischen Unterschieden führen. Wie für den TAS2R16 bereits gezeigt, traten Haplotypen des funktionell heterogenen TAS2R7 und TAS2R41 ethnien-spezifisch auf, was auf lokale Anpassung und verschiedene Phänotypen hinweisen könnte. Weiterführend muss nun eine Analyse der funktionell-variablen TAS2Rs in sensorischen Tests erfolgen, um ihre phänotypische Relevanz zu prüfen. Die Analyse der funktionsmodulierenden Aminosäurepositionen, z.Bsp. des TAS2R44, TAS2R47 oder TAS2R49, könnte weiterführend zum besseren Verständnis der Rezeptor-Ligand- und Rezeptor-G-Protein-Interaktion beitragen. N2 - Bitter taste perception varies markedly from person to person, due to a high number of polymorphisms present in the 25 known functional bitter receptors (TAS2Rs). These polymorphisms lead to a number of haplotypes for each receptor, which are common in different populations, but vary in frequency. The individual combination of receptor variants seems to determine the person’s sensitivity of bitter perception, as could already be shown for single TAS2Rs. Bitter is an aversive taste quality, indicating the ingestion of harmful substances. Different sensitivity could have an impact on food choice. In order to characterize functional consequences of the genetic diversity, we performed calcium imaging experiments with all main haplotypes for the 25 bitter receptors. The obtained information about receptor properties enables us on the one hand to analyze structure-function relationships and on the other hand gives us the functional diverse candidates to focus on in psychophysical studies. The overall aim is to show genotype-phenotype correlation for bitter taste perception and their impact on food choice and therefore diet and health. Our first aim was to identify agonists for the 5 receptors, which could not be deorphaned in previous screens. We challenged all main haplotypes of these TAS2Rs with 106 bitter compounds and could identify the antibiotic chloramphenicol as agonist for bitter receptor TAS2R41. In total we identified 36 functionally different receptor variants of the 21 deorphaned TAS2Rs. Main haplotypes of nine TAS2Rs were functionally homogeneous while twelve TAS2Rs possessed between two and three functionally heterogeneous receptor variants. In summary the observed functional diversity is not as big as expected. Based on our in vitro findings the shown functional diversity of these twelve bitter receptors might be the molecular basis for individual differences in bitter taste perception and will be further analyzed in psychophysical studies. KW - Bittergeschmack KW - TAS2R KW - heterologe Expression KW - funktionelle Variabilität KW - bitter taste KW - TAS2R KW - heterologous expression KW - functional diversity Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66845 ER -