Refine
Year of publication
- 2013 (311) (remove)
Document Type
- Doctoral Thesis (311) (remove)
Language
- English (174)
- German (135)
- French (1)
- Multiple languages (1)
Keywords
- Kinder (3)
- children (3)
- climate change (3)
- remote sensing (3)
- Adipositas (2)
- Arctic (2)
- Design Thinking (2)
- Eltern (2)
- Escherichia coli (2)
- Fernerkundung (2)
Institute
- Institut für Biochemie und Biologie (48)
- Institut für Geowissenschaften (35)
- Institut für Chemie (33)
- Institut für Physik und Astronomie (33)
- Wirtschaftswissenschaften (22)
- Institut für Ernährungswissenschaft (20)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (15)
- Institut für Informatik und Computational Science (15)
- Department Linguistik (10)
- Department Psychologie (10)
Tetrahalidocuprat(II)-komplexe : Untersuchungen zur Relation von Struktur- und EPR-Parametern
(2013)
In den vergangenen Jahren wurden stetig wachsende Produktionskapazitäten von Biokunststoffen aus nachwachsenden Rohstoffe nverzeichnet. Trotz großer Produktionskapazitäten und einem geeigneten Eigenschaftsprofil findet Stärke nur als hydrophile, mit Weichmachern verarbeitete thermoplastische Stärke (TPS) in Form von Blends mit z. B. Polyestern Anwendung. Gleiches gilt für Kunststoffe auf Proteinbasis. Die vorliegende Arbeit hat die Entwicklung von Biokunststoffen auf Stärkebasis zum Ziel, welche ohne externe Weichmacher thermoplastisch verarbeitbar und hydrophob sind sowie ein mechanisches Eigenschaftsprofil aufweisen, welches ein Potenzial zur Herstellung von Materialien für eine Anwendung als Verpackungsmittel bietet. Um die Rohstoffbasis für Biokunststoffe zu erweitern, soll das erarbeitete Konzept auf zwei industriell verfügbare Proteintypen, Zein und Molkenproteinisolat (WPI), übertragen werden. Als geeignete Materialklasse wurden Fettsäureester der Stärke herausgearbeitet. Zunächst fand ein Vergleich der Säurechlorid-Veresterung und der Umesterung von Fettsäurevinylestern statt, woraus letztere als geeignetere Methode hervorging. Durch Variation der Reaktionsparameter konnte diese optimiert und auf eine Serie der Fettsäurevinylester von Butanoat bis Stearat für DS-Werte bis zu 2,2-2,6 angewandt werden. Möglich war somit eine systematische Studie unter Variation der veresterten Fettsäure sowie des Substitutionsgrades (DS). Sämtliche Produkte mit einem DS ab 1,5 wiesen eine ausgprägte Löslichkeit in organischen Lösungsmitteln auf wodurch sowohl die Aufnahme von NMR-Spektren als auch Molmassenbestimmung mittels Größenausschlusschromatographie mit gekoppelter Mehrwinkel-Laserlichtstreuung (GPC-MALLS) möglich waren. Durch dynamische Lichtstreuung (DLS) wurde das Löslichkeitsverhalten veranschaulicht. Sämtliche Produkte konnten zu Filmen verarbeitet werden, wobei Materialien mit DS 1,5-1,7 hohe Zugfestigkeiten (bis zu 42 MPa) und Elastizitätsmodule (bis 1390 MPa) aufwiesen. Insbesondere Stärkehexanoat mit DS <2 sowie Stärkebutanoat mit DS >2 hatten ein mechanisches Eigenschaftsprofil, welches insbesondere in Bezug auf die Festigkeit/Steifigkeit vergleichbar mit Verpackungsmaterialien wie Polyethylen war (Zugfestigkeit: 15-32 MPa, E-Modul: 300-1300 MPa). Zugfestigkeit und Elastizitätsmodul nahmen mit steigender Kettenlänge der veresterten Fettsäure ab. Ester längerkettiger Fettsäuren (C16-C18) waren spröde. Über Weitwinkel-Röntgenstreuung (WAXS) und Infrarotspektroskopie (ATR-FTIR) konnte der Verlauf der Festigkeiten mit einer zunehmenden Distanz der Stärke im Material begründet werden. Es konnten von DS und Kettenlänge abhängige Glasübergänge detektiert werden, die kristallinen Strukturen der langkettigen Fettsäuren zeigten einen Schmelzpeak. Die Hydrophobie der Filme wurde anhand von Kontaktwinkeln >95° gegen Wasser dargestellt. Blends mit biobasierten Polyterpenen sowie den in der Arbeit hergestellten Zein-Acylderivaten ermöglichten eine weitere Verbesserung der Zugfestigkeit bzw. des Elastizitätsmoduls hochsubstituierter Produkte. Eine thermoplastische Verarbeitung mittels Spritzgießen war sowohl für Produkte mit hohem als auch mittlerem DS-Wert ohne jeglichen Zusatz von Weichmachern möglich. Es entstanden homogene, transparente Prüfstäbe. Untersuchungen der Härte ergaben auch hier für Stärkehexanoat und –butanoat mit Polyethylen vergleichbare Werte. Ausgewählte Produkte wurden zu Fasern nach dem Schmelzspinnverfahren verarbeitet. Hierbei wurden insbesondere für hochsubstituierte Derivate homogenen Fasern erstellt, welche im Vergleich zur Gießfolie signifikant höhere Zugfestigkeiten aufwiesen. Stärkeester mit mittlerem DS ließen sich ebenfalls verarbeiten. Zunächst wurden für eine Übertragung des Konzeptes auf die Proteine Zein und WPI verschiedene Synthesemethoden verglichen. Die Veresterung mit Säurechloriden ergab hierbei die höchsten Werte. Im Hinblick auf eine gute Löslichkeit in organischen Lösungsmitteln wurde für WPI die Veresterung mit carbonyldiimidazol (CDI)-aktivierten Fettsäuren in DMSO und für Zein die Veresterung mit Säu-rechloriden in Pyridin bevorzugt. Es stellte sich heraus, dass acyliertes WPI zwar hydrophob, jedoch ohne Weichmacher nicht thermoplastisch verarbeitet werden konnte. Die Erstellung von Gießfolien führte zu Sprödbruchverhalten. Unter Zugabe der biobasierten Ölsäure wurde die Anwendung von acyliertem WPI als thermoplastischer Filler z. B. in Blends mit Stärkeestern dargestellt. Im Gegensatz hierzu zeigte acyliertes Zein Glasübergänge <100 °C bei ausreichender Stabilität (150-200 °C). Zeinoleat konnte ohne Weichmacher zu einer transparenten Gießfolie verarbeitet werden. Sämtliche Derivate erwiesen sich als ausgeprägt hydrophob. Zeinoleat konnte über das Schmelzspinnverfahren zu thermoplastischen Fasern verarbeitet werden.
Multi-messenger constraints and pressure from dark matter annihilation into electron-positron pairs
(2013)
Despite striking evidence for the existence of dark matter from astrophysical observations, dark matter has still escaped any direct or indirect detection until today. Therefore a proof for its existence and the revelation of its nature belongs to one of the most intriguing challenges of nowadays cosmology and particle physics. The present work tries to investigate the nature of dark matter through indirect signatures from dark matter annihilation into electron-positron pairs in two different ways, pressure from dark matter annihilation and multi-messenger constraints on the dark matter annihilation cross-section. We focus on dark matter annihilation into electron-positron pairs and adopt a model-independent approach, where all the electrons and positrons are injected with the same initial energy E_0 ~ m_dm*c^2. The propagation of these particles is determined by solving the diffusion-loss equation, considering inverse Compton scattering, synchrotron radiation, Coulomb collisions, bremsstrahlung, and ionization. The first part of this work, focusing on pressure from dark matter annihilation, demonstrates that dark matter annihilation into electron-positron pairs may affect the observed rotation curve by a significant amount. The injection rate of this calculation is constrained by INTEGRAL, Fermi, and H.E.S.S. data. The pressure of the relativistic electron-positron gas is computed from the energy spectrum predicted by the diffusion-loss equation. For values of the gas density and magnetic field that are representative of the Milky Way, it is estimated that the pressure gradients are strong enough to balance gravity in the central parts if E_0 < 1 GeV. The exact value depends somewhat on the astrophysical parameters, and it changes dramatically with the slope of the dark matter density profile. For very steep slopes, as those expected from adiabatic contraction, the rotation curves of spiral galaxies would be affected on kiloparsec scales for most values of E_0. By comparing the predicted rotation curves with observations of dwarf and low surface brightness galaxies, we show that the pressure from dark matter annihilation may improve the agreement between theory and observations in some cases, but it also imposes severe constraints on the model parameters (most notably, the inner slope of the halo density profile, as well as the mass and the annihilation cross-section of dark matter particles into electron-positron pairs). In the second part, upper limits on the dark matter annihilation cross-section into electron-positron pairs are obtained by combining observed data at different wavelengths (from Haslam, WMAP, and Fermi all-sky intensity maps) with recent measurements of the electron and positron spectra in the solar neighbourhood by PAMELA, Fermi, and H.E.S.S.. We consider synchrotron emission in the radio and microwave bands, as well as inverse Compton scattering and final-state radiation at gamma-ray energies. For most values of the model parameters, the tightest constraints are imposed by the local positron spectrum and synchrotron emission from the central regions of the Galaxy. According to our results, the annihilation cross-section should not be higher than the canonical value for a thermal relic if the mass of the dark matter candidate is smaller than a few GeV. In addition, we also derive a stringent upper limit on the inner logarithmic slope α of the density profile of the Milky Way dark matter halo (α < 1 if m_dm < 5 GeV, α < 1.3 if m_dm < 100 GeV and α < 1.5 if m_dm < 2 TeV) assuming a dark matter annihilation cross-section into electron-positron pairs (σv) = 3*10^−26 cm^3 s^−1, as predicted for thermal relics from the big bang.
Fluoreszenzfarbstoffe mit Dioxolobenzodioxol-Grundgerüst: Synthese, Untersuchungen und Anwendungen
(2013)
Even though quite different in occurrence and consequences, from a modeling perspective many natural hazards share similar properties and challenges. Their complex nature as well as lacking knowledge about their driving forces and potential effects make their analysis demanding: uncertainty about the modeling framework, inaccurate or incomplete event observations and the intrinsic randomness of the natural phenomenon add up to different interacting layers of uncertainty, which require a careful handling. Nevertheless deterministic approaches are still widely used in natural hazard assessments, holding the risk of underestimating the hazard with disastrous effects. The all-round probabilistic framework of Bayesian networks constitutes an attractive alternative. In contrast to deterministic proceedings, it treats response variables as well as explanatory variables as random variables making no difference between input and output variables. Using a graphical representation Bayesian networks encode the dependency relations between the variables in a directed acyclic graph: variables are represented as nodes and (in-)dependencies between variables as (missing) edges between the nodes. The joint distribution of all variables can thus be described by decomposing it, according to the depicted independences, into a product of local conditional probability distributions, which are defined by the parameters of the Bayesian network. In the framework of this thesis the Bayesian network approach is applied to different natural hazard domains (i.e. seismic hazard, flood damage and landslide assessments). Learning the network structure and parameters from data, Bayesian networks reveal relevant dependency relations between the included variables and help to gain knowledge about the underlying processes. The problem of Bayesian network learning is cast in a Bayesian framework, considering the network structure and parameters as random variables itself and searching for the most likely combination of both, which corresponds to the maximum a posteriori (MAP score) of their joint distribution given the observed data. Although well studied in theory the learning of Bayesian networks based on real-world data is usually not straight forward and requires an adoption of existing algorithms. Typically arising problems are the handling of continuous variables, incomplete observations and the interaction of both. Working with continuous distributions requires assumptions about the allowed families of distributions. To "let the data speak" and avoid wrong assumptions, continuous variables are instead discretized here, thus allowing for a completely data-driven and distribution-free learning. An extension of the MAP score, considering the discretization as random variable as well, is developed for an automatic multivariate discretization, that takes interactions between the variables into account. The discretization process is nested into the network learning and requires several iterations. Having to face incomplete observations on top, this may pose a computational burden. Iterative proceedings for missing value estimation become quickly infeasible. A more efficient albeit approximate method is used instead, estimating the missing values based only on the observations of variables directly interacting with the missing variable. Moreover natural hazard assessments often have a primary interest in a certain target variable. The discretization learned for this variable does not always have the required resolution for a good prediction performance. Finer resolutions for (conditional) continuous distributions are achieved with continuous approximations subsequent to the Bayesian network learning, using kernel density estimations or mixtures of truncated exponential functions. All our proceedings are completely data-driven. We thus avoid assumptions that require expert knowledge and instead provide domain independent solutions, that are applicable not only in other natural hazard assessments, but in a variety of domains struggling with uncertainties.