Refine
Has Fulltext
- yes (636) (remove)
Year of publication
- 2017 (636) (remove)
Document Type
- Postprint (249)
- Article (172)
- Doctoral Thesis (135)
- Monograph/Edited Volume (25)
- Part of Periodical (22)
- Master's Thesis (12)
- Working Paper (5)
- Conference Proceeding (4)
- Preprint (4)
- Bachelor Thesis (2)
Keywords
- Philosophie (23)
- philosophy (23)
- Bürgerkommune (12)
- Partizipation (12)
- Partizipationsprozesse (12)
- kommunale Demokratie (12)
- kommunale Entscheidungsprozesse (12)
- Anthropologie (10)
- Genisa (10)
- Geniza (10)
Institute
- Mathematisch-Naturwissenschaftliche Fakultät (73)
- Institut für Geowissenschaften (44)
- Institut für Biochemie und Biologie (40)
- Humanwissenschaftliche Fakultät (36)
- Institut für Chemie (35)
- Department Musik und Kunst (31)
- Extern (30)
- Institut für Physik und Astronomie (30)
- Department Linguistik (27)
- Department Erziehungswissenschaft (24)
Integral Fourier operators
(2017)
This volume of contributions based on lectures delivered at a school on Fourier Integral Operators
held in Ouagadougou, Burkina Faso, 14–26 September 2015, provides an introduction to Fourier Integral Operators (FIO) for a readership of Master and PhD students as well as any interested layperson. Considering the wide
spectrum of their applications and the richness of the mathematical tools they involve, FIOs lie the cross-road of many a field. This volume offers
the necessary background, whether analytic or geometric, to get acquainted with FIOs, complemented by more advanced material presenting various aspects of active research in that area.
Rezensiertes Werk
Theresa Biberauer u. George Walkden (Hgg.): Syntax over Time: Lexical, Morphological, and Information – Structural Interactions - Oxford, Oxford University Press, 2015, 418 S.
Cities to the rescue?
(2017)
Despite the proliferation and promise of subnational climate initiatives, the institutional architecture of transnational municipal networks (TMNs) is not well understood. With a view to close this research gap, the article empirically assesses the assumption that TMNs are a viable substitute for ambitious international action under the United Nations Framework Convention on Climate Change (UNFCCC). It addresses the aggregate phenomenon in terms of geographical distribution, central players, mitigation ambition and monitoring provisions. Examining thirteen networks, it finds that membership in TMNs is skewed toward Europe and North America while countries from the Global South are underrepresented; that only a minority of networks commit to quantified emission reductions and that these are not more ambitious than Parties to the UNFCCC; and finally that the monitoring provisions are fairly limited. In sum, the article shows that transnational municipal networks are not (yet) the representative, ambitious and transparent player they are thought to be.
The ecological benefits of polyploidy are intensely debated. Some authors argue that plants with duplicated chromosome sets (polyploids) are more stress-resistant and superior colonizers and may thus outnumber their low ploidy conspecifics in more extreme habitats. Brachypodium distachyon (sensu lato), for example, a common annual grass in Israel and the entire Mediterranean basin, comprises three cytotypes of differing chromosome numbers that were recently proposed as distinct species. It was suggested that increased aridity increases the occurrence of its polyploid cytotype. Here, we tested at two spatial scales whether polyploid plants of B. distachyon s.l. are more frequently found in drier habitats in Israel. We collected a total of 430 specimens (i) along a largescale climatic gradient with 15 thoroughly selected sites (spanning 114–954 mm annual rainfall), and (ii) from corresponding Northern (more mesic) and Southern (more arid) hill slopes to assess the micro-climatic difference between contrasting exposures. Cytotypes were then determined via flow cytometry. Polyploid plants comprised 90% of all specimens and their proportion ranged between 0% and 100% per site. However, this proportion was not correlated with aridity along the large-scale gradient, nor were polyploids more frequently found on Southern exposures. Our results show for both spatial scales that increasing aridity is not the principal driver for the distribution of polyploids in B. distachyon s.l. in Israel. Notably, though, diploid plants were restricted essentially to four intermediate sites, while polyploids dominated the most arid and the most mesic sites. This, to some degree, clustered pattern suggests that the distribution of cytotypes is not entirely random and calls for future studies to assess further potential drivers.
Soil properties show high heterogeneity at different spatial scales and their correct characterization remains a crucial challenge over large areas. The aim of the study is to quantify the impact of different types of uncertainties that arise from the unresolved soil spatial variability on simulated hydrological states and fluxes. Three perturbation methods are presented for the characterization of uncertainties in soil properties. The methods are applied on the soil map of the upper Neckar catchment (Germany), as an example. The uncertainties are propagated through the distributed mesoscale hydrological model (mHM) to assess the impact on the simulated states and fluxes. The model outputs are analysed by aggregating the results at different spatial and temporal scales. These results show that the impact of the different uncertainties introduced in the original soil map is equivalent when the simulated model outputs are analysed at the model grid resolution (i.e. 500 m). However, several differences are identified by aggregating states and fluxes at different spatial scales (by subcatchments of different sizes or coarsening the grid resolution). Streamflow is only sensitive to the perturbation of long spatial structures while distributed states and fluxes (e.g. soil moisture and groundwater recharge) are only sensitive to the local noise introduced to the original soil properties. A clear identification of the temporal and spatial scale for which finer-resolution soil information is (or is not) relevant is unlikely to be universal. However, the comparison of the impacts on the different hydrological components can be used to prioritize the model improvements in specific applications, either by collecting new measurements or by calibration and data assimilation approaches. In conclusion, the study underlines the importance of a correct characterization of uncertainty in soil properties. With that, soil maps with additional information regarding the unresolved soil spatial variability would provide strong support to hydrological modelling applications.
Objective: A key challenge in ancient DNA research is massive microbial DNA contamination from the deposition site which accumulates post mortem in the study organism’s remains. Two simple and cost-effective methods to enrich the relative endogenous fraction of DNA in ancient samples involve treatment of sample powder with either bleach or Proteinase K pre-digestion prior to DNA extraction. Both approaches have yielded promising but vary-ing results in other studies. Here, we contribute data on the performance of these methods using a comprehensive and systematic series of experiments applied to a single ancient bone fragment from a giant panda (Ailuropoda melanoleuca).Results: Bleach and pre-digestion treatments increased the endogenous DNA content up to ninefold. However, the absolute amount of DNA retrieved was dramatically reduced by all treatments. We also observed reduced DNA damage patterns in pre-treated libraries compared to untreated ones, resulting in longer mean fragment lengths and reduced thymine over-representation at fragment ends. Guanine–cytosine (GC) contents of both mapped and total reads are consistent between treatments and conform to general expectations, indicating no obvious biasing effect of the applied methods. Our results therefore confirm the value of bleach and pre-digestion as tools in palaeog-enomic studies, providing sufficient material is available.
Konzepte, nach denen sich die demokratische Mitwirkung der Bürger vornehmlich in Wahlen erschöpft, gehören spätestens seit „Stuttgart 21“ der Vergangenheit an. Indes ist die Bürgerbeteiligung auch jenseits solcher Großprojekte längst zu einem beherrschenden Thema der Zeit herangewachsen. Das gilt zumal für die kommunale Ebene. Dort werden traditionsreiche Partizipationsformen nicht nur intensiv genutzt, sondern zunehmend um neue Beteiligungsvarianten ergänzt und in innovativen Modellprojekten fortentwickelt. Dabei treten zwei Antriebskräfte besonders hervor. Zum einen fordern die Bürger nach den Maximen „Mitmachen, Mitwirken, Mitentscheiden“ deutlich verbesserte Partizipationsmöglichkeiten ein. Zum anderen setzen die Kommunen verstärkt auf bürgerschaftliches Engagement zur Erschließung Ressourcen privater Akteure für die Bereitstellung öffentlicher Leistungen. Übergreifende Perspektive ist die Ausbildung einer Neuen Partizipationskultur in der Bürgerkommune zur Optimierung des Gemeinwohls.
Für die kommunale Praxis ist das partizipationsgestützte Miteinander von Verwaltung. Politik und Bürgerschaft in Systementwürfen, Leitbildern, Organisations- und Verfahrensmodellen sowie lokalen Beteiligungsformaten konkretisiert. Doch verbinden sich mit den alten und neuen Ansätzen der Bürgerbeteiligung noch eine ganze Reihe offener Fragen – so etwa nach den rechtlichen Möglichkeiten und Grenzen der neuen kommunalen Beteiligungskultur, nach Erfolgsbedingungen und konkreten Erfahrungen mit der Umsetzung von Partizipationsmodellen.
Auf der 21. Fachtagung des Kommunalwissenschaftlichen Instituts (KWI) der Universität Potsdam wurden Schlüsselthemen der Neuen Partizipationskultur in der Bürgerkommune, namentlich der normativen Rahmenbedingungen und politischen Direktiven, Modernisierungsimpulse und Aktivierungsstrategien, Erfolgsbedingungen und spezifische Problemlagen einschließlich der Fallstricke in der Praxis und nicht zuletzt ausgewählter Einsatzfelder mit den dazugehörigen Erfahrungen diskutiert.
Temperature is a key factor controlling plant growth and vitality in the temperate climates of the mid-latitudes like in vast parts of the European continent. Beyond the effect of average conditions, the timings and magnitudes of temperature extremes play a particularly crucial role, which needs to be better understood in the context of projected future rises in the frequency and/or intensity of such events. In this work, we employ event coincidence analysis (ECA) to quantify the likelihood of simultaneous occurrences of extremes in daytime land surface temperature anomalies (LSTAD) and the normalized difference vegetation index (NDVI). We perform this analysis for entire Europe based upon remote sensing data, differentiating between three periods corresponding to different stages of plant development during the growing season. In addition, we analyze the typical elevation and land cover type of the regions showing significantly large event coincidences rates to identify the most severely affected vegetation types. Our results reveal distinct spatio-temporal impact patterns in terms of extraordinarily large co-occurrence rates between several combinations of temperature and NDVI extremes. Croplands are among the most frequently affected land cover types, while elevation is found to have only a minor effect on the spatial distribution of corresponding extreme weather impacts. These findings provide important insights into the vulnerability of European terrestrial ecosystems to extreme temperature events and demonstrate how event-based statistics like ECA can provide a valuable perspective on environmental nexuses.
Aufgrund verschiedener wissenschaftlicher Erkenntnisse wird jungen Sporttreibenden vom Gebrauch von Nahrungsergänzungsmitteln (NEM) abgeraten. Diese Dissertation verfolgt vor dem Hintergrund der Theorie der Zielsysteme (TDZ) das Ziel der Erstellung anwendungsorientieren Handlungswissens, anhand dessen Interventionsempfehlungen zur Reduzierung des prävalenten NEM-Konsums im Nachwuchssport ableitbar sind. Insgesamt wurden sechs Untersuchungen durchgeführt. Die Versuchsteilnehmenden absolvierten in sämtlichen Studien eine Variante der lexikalischen Entscheidungsaufgabe. Diese Aufgabe diente der Operationalisierung von automatisch aktivier- und abrufbaren nahrungsergänzungsmittelbezogenen Ziel-Mittel-Relationen.
In einer Stichprobe von Sportstudierenden zeigte sich, dass NEM mit dem Ziel Leistung assoziiert sind (Studie 1). Unter Berücksichtigung des NEM-Konsums wurde dieses Ergebnis für Nachwuchsathletinnen und -athleten aus dem Breitensport repliziert (Studie 2). Zusätzlich konnte in beiden Studien die Bedeutung dieser Ziel-Mittel-Relationen für das Verhalten nachgewiesen werden. In den nachfolgenden Untersuchungen wurden spezifische Veränderungsmechanismen der verhaltensleitenden Ziel-Mittel-Relation aus Leistung und NEM zunächst an Sportstudierenden experimentell evaluiert. Durch das Herausstellen der fehlenden leistungssteigernden Wirkung von NEM konnte diese Zielassoziation nicht modifiziert werden (Studie 3). Das Betonen gesundheitsschädigender Konsequenzen (Studie 4) und das Akzentuieren einer gesunden Ernährung (Studie 5) erwiesen sich demgegenüber als geeignet zur Veränderung der Ziel-Mittel-Relation. Das Herausstellen einer gesunden Ernährung führte deskriptiv bei Nachwuchsathletinnen und -athleten ebenfalls zur Modifikation der Zielassoziation (Studie 6). Die inferenzstatistische Bestätigung der Ergebnisse dieser Studie steht aufgrund der geringen Teststärke der Untersuchung noch aus.
Insgesamt verdeutlichen die Ergebnisse, dass die auf Ebene automatischer Kognitionen bestehende und verhaltensleitende Assoziation des Gebrauchs von NEM mit Leistung durch die Akzentuierung gesundheitlicher Perspektiven experimentell verändert werden kann. Abschließend wird die theoretische und praktische Bedeutung des erstellten Handlungswissen für künftige Interventionsempfehlungen zur Reduzierung des Gebrauchs von NEM diskutiert.
Genome-wide association studies of birth weight have focused on fetal genetics, whereas relatively little is known about the role of maternal genetic variation. We aimed to identify maternal genetic variants associated with birth weight that could highlight potentially relevant maternal determinants of fetal growth. We meta-analysed data on up to 8.7 million SNPs in up to 86 577 women of European descent from the Early Growth Genetics (EGG) Consortium and the UK Biobank. We used structural equation modelling (SEM) and analyses of mother–child pairs to quantify the separate maternal and fetal genetic effects. Maternal SNPs at 10 loci (MTNR1B, HMGA2, SH2B3, KCNAB1, L3MBTL3, GCK, EBF1, TCF7L2, ACTL9, CYP3A7) were associated with offspring birth weight at P < 5 Â 10 À8 . In SEM analyses, at least 7 of the 10 associations were consistent with effects of the maternal genotype acting via the intrauterine environment, rather than via effects of shared alleles with the fetus. Variants, or correlated proxies, at many of the loci had been previously associated with adult traits, including fasting glucose (MTNR1B, GCK and TCF7L2) and sex hormone levels (CYP3A7), and one (EBF1) with gestational duration. The identified associations indicate that genetic effects on maternal glucose, cytochrome P450 activity and gestational duration, and potentially on maternal blood pressure and immune function, are relevant for fetal growth. Further characterization of these associations in mechanistic and causal analyses will enhance understanding of the potentially modifiable maternal determinants of fetal growth, with the goal of reducing the morbidity and mortality associated with low and high birth weights.
Aus dem Inhalt:
- Themenschwerpunkt: „Gefährdungen der Menschenrechte und Demokratie am Beispiel von TTIP“
◦ TTIP und die Funktionsbedingungen moralisch rechtfertigbarer Märkte
◦ Ist TTIP alternativlos? Ein Problemaufriss aus sozialliberaler Perspektive
◦ Freihandelsabkommen und Steuergerechtigkeit: eine menschenrechtliche Perspektive
- Die Europäische Union im Menschenrechtsrat der Vereinten Nationen
Im Rahmen dieser Arbeit wurden zum einen erste Oligospiro(thio)ketal (OS(T)K)-basierte Modellsysteme (molekulare Sonden) für abstandsabhängige Messungen mittels Förster-Resonanz-Energietransfer (FRET) und zum anderen Sensorfluorophore, basierend auf einem DBD-Fluorophor und BAPTA, zur Messung der intrazellulären Calcium-Konzentration dargestellt.
Für die Synthese von molekularen Sonden für abstandsabhängige Messungen wurden verschiedenste einfach- und doppelt-markierte OS(T)K-Stäbe entwickelt und spektroskopisch untersucht. Die OS(T)K-Stäbe, sogenannte molekulare Stäbe, dienten als starre Abstandshalter zwischen den Fluorophoren. Als Fluorophore wurden Derivate von 6,7-Dihydroxy-4-methylcoumarin (Donor) und Acyl-DBD (Akzeptor) verwendet, die zusammen ein FRET-Paar bilden. Die Fluorophore wurden so funktionalisiert, dass sie sowohl unbeweglich bzw. „starr“, als auch beweglich bzw. „flexibel“ an den OS(T)K-Stab gebunden werden konnten. Für die Synthese der OS(T)K-Stäbe wurden ebenfalls eine Reihe an unterschiedlich langen und kurzen Stabbausteinen synthetisiert. Auf diese Weise wurden eine Vielzahl an verschiedensten einfach- und doppelt-markierten OS(T)K-Stäben dargestellt, deren Fluorophore sowohl „starr“ als auch „flexibel“ gebunden sind. Die dargestellten Stäbe wurden in verschiedensten Lösungsmitteln spektroskopisch untersucht, um anschließend das Verhalten in Vesikel, die eine biomimetische Umgebung darstellen, zu beurteilen. Es wurde festgestellt, dass sich die Stäbe erfolgreich in die Vesikelmembran einlagerten und hohe FRET-Effizienzen aufweisen.
Des Weiteren wurde ein FRET-Paar dargestellt, das sich durch 2-Photonenabsorpion im NIR-Bereich anregen lässt. Es wurde in den lebenden Zellen mittels Fluoreszenzlebenszeitmikroskopie (FLIM) untersucht.
Zur Untersuchung von intrazellulärem Calcium wurden zwei verschiedene DBD-Fluorophore über einen kurzen Linker mit dem Calcium-Chelator BAPTA verknüpft. Die dargestellten Fluorophore wurden sowohl in vitro als auch in vivo auf ihre Calcium-Sensitivität überprüft. Mittels FLIM wurden in lebenden Zellen die Fluoreszenzlebenszeitverteilungen der Fluorophore nach Calcium-Konzentrationsänderungen detektiert.
The work done during the PhD studies has been focused on measurements of distribution functions of rotating galaxies using integral field spectroscopy observations.
Throughout the main body of research presented here we have been using CALIFA (Calar Alto Legacy Integral Field Area) survey stellar velocity fields to obtain robust measurements of circular velocities for rotating galaxies of all morphological types. A crucial part of the work was enabled by well-defined CALIFA sample selection criteria: it enabled reconstructing sample-independent distributions of galaxy properties.
In Chapter 2, we measure the distribution in absolute magnitude - circular velocity space for a well-defined sample of 199 rotating CALIFA galaxies using their stellar kinematics. Our aim in this analysis is to avoid subjective selection criteria and to take volume and large-scale structure factors into account. Using stellar velocity fields instead of gas emission line kinematics allows including rapidly rotating early type galaxies. Our initial sample contains 277 galaxies with available stellar velocity fields and growth curve r-band photometry. After rejecting 51 velocity fields that could not be modelled due to the low number of bins, foreground contamination or significant interaction we perform Markov Chain Monte Carlo (MCMC) modelling of the velocity fields, obtaining the rotation curve and kinematic parameters and their realistic uncertainties. We perform an extinction correction and calculate the circular velocity v_circ accounting for pressure support a given galaxy has. The resulting galaxy distribution on the M_r - v_circ plane is then modelled as a mixture of two distinct populations, allowing robust and reproducible rejection of outliers, a significant fraction of which are slow rotators. The selection effects are understood well enough that the incompleteness of the sample can be corrected and the 199 galaxies can be weighted by volume and large-scale structure factors enabling us to fit a volume-corrected Tully-Fisher relation (TFR). More importantly, we also provide the volume-corrected distribution of galaxies in the M_r - v_circ plane, which can be compared with cosmological simulations. The joint distribution of the luminosity and circular velocity space densities, representative over the range of -20 > M_r > -22 mag, can place more stringent constraints on the galaxy formation and evolution scenarios than linear TFR fit parameters or the luminosity function alone.
In Chapter 3, we measure one of the marginal distributions of the M_r - v_circ distribution: the circular velocity function of rotating galaxies. The velocity function is a fundamental observable statistic of the galaxy population, being of a similar importance as the luminosity function, but much more difficult to measure. We present the first directly measured circular velocity function that is representative between 60 < v_circ < 320 km s^-1 for galaxies of all morphological types at a given rotation velocity. For the low mass galaxy population 60 < v_circ < 170 km s^-1, we use the HIPASS velocity function. For the massive galaxy population 170 < v_circ < 320 km s^-1, we use stellar circular velocities from CALIFA. The CALIFA velocity function includes homogeneous velocity measurements of both late and early-type rotation-supported galaxies. It has the crucial advantage of not missing gas-poor massive ellipticals that HI surveys are blind to. We show that both velocity functions can be combined in a seamless manner, as their ranges of validity overlap. The resulting observed velocity function is compared to velocity functions derived from cosmological simulations of the z = 0 galaxy population. We find that dark matter-only simulations show a strong mismatch with the observed VF. Hydrodynamic Illustris simulations fare better, but still do not fully reproduce observations.
In Chapter 4, we present some other work done during the PhD studies, namely, a method that improves the precision of specific angular measurements by combining simultaneous Markov Chain Monte Carlo modelling of ionised gas 2D velocity fields and HI linewidths. To test the method we use a sample of 25 galaxies from the Sydney-AAO Multi-object Integral field (SAMI) survey that had matching ALFALFA HI linewidths. Such a method allows constraining the rotation curve both in the inner regions of a galaxy and in its outskirts, leading to increased precision of specific angular momentum measurements. It could be used to further constrain the observed relation between galaxy mass, specific angular momentum and morphology (Obreschkow & Glazebrook 2014).
Mathematical and computational methods are presented in the appendices.
I. Einleitung
II. Soziale Sicherung als Bestandteil entwicklungspolitischer Agenden – Eine internationale Perspektive
III. Internationale Politikdiffusion und nationaler Politikwandel – Konzeptionelle Grundlagen
IV. Die Rolle internationaler Politikdiffusion für den Wandel sozialer Sicherungssysteme
– Empirische Evidenz
V. Schlussfolgerungen
We introduce an abstract concept of quantum field theory on categories fibered in groupoids over the category of spacetimes. This provides us with a general and flexible framework to study quantum field theories defined on spacetimes with extra geometric structures such as bundles, connections and spin structures. Using right Kan extensions, we can assign to any such theory an ordinary quantum field theory defined on the category of spacetimes and we shall clarify under which conditions it satisfies the axioms of locally covariant quantum field theory. The same constructions can be performed in a homotopy theoretic framework by using homotopy right Kan extensions, which allows us to obtain first toy-models of homotopical quantum field theories resembling some aspects of gauge theories.
Menschen mit chronisch entzündlichen Darmerkrankungen (CED) leiden unter vielfältigen körperlichen und psychosozialen Einschränkungen. Wie auch bei anderen chronischen Erkrankungen könnten Patientenschulungen ihr psychisches Befinden verbessern (z.B. De Ridder & Schreurs, 2001; Faller, Reusch & Meng, 2011a; Küver, Becker & Ludt, 2008; Schüssler, 1998; Warsi, Wang, LaValley, Avorn & Solomon, 2004). Für CED liegen jedoch nur wenige Schulungsevaluationen vor (z.B. Bregenzer et al., 2005; Mussell, Böcker, Nagel, Olbrich & Singer, 2003; Oxelmark, Magnusson, Löfberg & Hillerås, 2007), deren Aussagekraft i.d.R. durch methodische Mängel eingeschränkt ist. Daher ist die Bedeutung von Schulungsprogrammen für CED-Betroffene weiterhin offen. Überdies gibt es für den deutschen Sprachraum noch keine Schulung, die zu psychischen Verbesserungen führt. Aus diesem Grunde wurde ein 1,5-tägiges Wochenend-Seminar mit medizinischen und psychologischen Inhalten konzeptionalisiert, manualisiert und in der vorliegenden Studie evaluiert.
Zur summativen Evaluation nahmen 181 ambulante CED-Patienten an einer prospektiven, multizentrischen, randomisierten, kontrollierten Studie mit vier Messzeitpunkten teil: vor (T1), zwei Wochen (T2) und drei Monate (T3) nach dem Seminar. Zur 12-Monatskatamnese (T4EG) wurde die Stabilität der Effekte in der Experimentalgruppe (EG; n = 86) überprüft. Die Wartekontrollgruppe (n = 95) erhielt zunächst die Standardbehandlung, also keine Patientenschulung, und konnte an dieser nach der dritten Datenerhebung ebenfalls teilnehmen. Kovarianzanalysen (ANCOVAs) mit Kontrolle für die jeweilige Ausgangslage wurden durchgeführt. Weitere Analysen legten eine Adjustierung für die Krankheitsaktivität zu T1 nahe, weshalb diese als zusätzliche Kovariate in die ANCOVAs aufgenommen wurde. Krankheitsbezogene Ängste und Sorgen (PS-CEDE Gesamtwert zu T3; Krebs, Kachel & Faller, 1998) fungierten als primärer Zielparameter. Zu den sekundären Zielkriterien gehörten Progredienzangst und Angstbewältigung (PA-F-KF und PA-F; Mehnert, Herschbach, Berg, Henrich & Koch, 2006 bzw. Dankert et al., 2003; Herschbach et al., 2005) sowie die Gesundheitskompetenzen Positive Grundhaltung, Aktive Lebensgestaltung und Erwerb von Fertigkeiten und Handlungsstrategien (heiQ; Osborne, Elsworth & Whitfield, 2007; Schuler et al., 2013). Weitere sekundäre Zielparameter waren gesundheitsbezogene Lebensqualität (SF-12; Bullinger & Kirchberger, 1998), Symptome einer Angststörung oder Depression (PHQ-4; Kroenke, Spitzer, Williams & Löwe, 2009; Löwe et al., 2010), Wissen, der Umgang mit der CED bzw. von ihr ausgelösten negativen Gefühlen sowie die Zufriedenheit der Teilnehmenden mit dem Seminar. Von Interesse war außerdem, ob Geschlecht, Alter, Art, Dauer oder Aktivität der Erkrankung vor der Schulung einen Einfluss auf die genannten Variablen hatten und ob für sie differentielle Wirksamkeitseffekte bestanden. Darüber hinaus wurden krankheitsbezogene Ängste und Sorgen von ungeschulten Studienteilnehmern untersucht.
Zwei Wochen und drei Monate nach der Schulung ließen sich im Vergleich von Experimental- und Kontrollgruppe signifikante, mittlere bis große Effekte auf krankheitsbezogene Ängste und Sorgen, Progredienzangst und deren Bewältigung sowie eine Positive Grundhaltung der CED gegenüber erzielen (stets p ≤ .001). Außerdem kam es zu beiden Messzeitpunkten zu signifikanten, großen Interventionseffekten auf den Erwerb von Fertigkeiten und Handlungsstrategien im Umgang mit der Erkrankung, das Wissen um sie und den Umgang mit ihr (stets p < .001) sowie zu moderaten Effekten auf den Umgang mit CED-bedingten negativen Gefühlen (T2: p = .001; T3: p = .008). Alle beschriebenen Effekte waren auch nach zwölf Monaten noch stabil. Für Aktive Lebensgestaltung, gesundheitsbezogene Lebensqualität sowie Angst- und Depressionssymptomatik konnten keine Schulungseffekte nachgewiesen werden.
Die zusätzliche Kontrolle für die Krankheitsaktivität zu T1 führte zu keinen wesentlichen Änderungen in den Ergebnissen. Auch bei den Subgruppenanalysen hatte die Krankheitsaktivität keinen relevanten Einfluss auf die Wirksamkeit der Schulung. Gleiches gilt für Geschlecht, Alter, Art und Dauer der CED. Mit Ausnahme der Krankheitsaktivität deuteten dies bereits die zur Baseline durchgeführten t-Tests an, bei denen insgesamt nur sehr wenige signifikante, höchstens moderate Unterschiede zwischen den einzelnen Subgruppen auftraten.
Sowohl bei der formativen als auch der summativen Evaluation zeigte sich überdies die hohe Zufriedenheit der Teilnehmenden mit der Schulung. Neben der Akzeptanz konnte außerdem die Durchführbarkeit bestätigt werden. Die Auswertung der Ängste und Sorgen der Studienteilnehmenden lieferte zudem Hinweise für die Entwicklung und Modifikation von Interventionen für CED-Betroffene.
Es lässt sich festhalten, dass für die hier evaluierte Schulung für CED-Patienten ein Wirksamkeitsnachweis erbracht werden konnte und sie sehr positiv von den Teilnehmenden bewertet wurde. Sie führte sowohl kurz-, mittel- als auch langfristig zu substantiellen Verbesserungen in psychischer Belastung, Selbstmanagement-Fähigkeiten, der Bewältigung der Erkrankung sowie im Wissen und war gleichermaßen wirksam bei Betroffenen, die sich in Geschlecht, Alter, Art, Dauer oder Aktivität ihrer CED unterschieden.
Region – Sprache – Literatur
(2017)
Mit dem neuen Rahmenlehrplan für die Länder Brandenburg und Berlin wird der Kompetenzentwicklung der Schülerinnen und Schüler unter den Bedingungen lebensweltlicher Erfahrungen ein besonderer Stellenwert beigemessen. Der Sammelband enthält Beiträge, in denen den Lehrerinnen und Lehrern vielfältige Unterrichtsmaterialien und didaktische Anregungen für einen praxisnahen, entdeckenden Unterricht in der Primar- und Sekundarstufe für den Deutschunterricht vorgestellt werden. Diese reichen von theoretischen Grundlagen, über einzelne Unterrichtssequenzen und Projekte bis zur Darstellung einer Lernspirale für die Jahrgangsstufen 1 bis 10. Vielfältige, auch multimediale Zugänge bis zum spielerischen Umgang mit der Sprache zeigen, dass Sprache kein „trockener“ Lerngegenstand sein muss. Die Beiträge geben darüber hinaus Einblicke in die fachlichen Hintergründe, die helfen sollen, den Zugang zu den einzelnen Gegenständen zu erleichtern. Das thematische Zentrum „Region“ bildet den Ausgangspunkt für die Einbeziehung des Niederdeutschen, Sorbischen, Berlinischen, Kiezdeutschen sowie der Dialekte. Dabei werden sowohl literarische als auch Sachtexte berücksichtigt.
In Zeiten eines sich schnell ändernden und vielseitigen Energiemarktes müssen Kohlenstoffmaterialien für verschiedene Anforderungen einsetzbar sein. Dies erfordert flexibel synthetisierbare Kohlenstoffmaterialien bevorzugt aus günstigen und nachhaltigen Kohlenstoffquellen. Es ist allerdings nicht leicht Vorläuferverbindungen auszumachen, welche sich einerseits für verschiedene Herstellungsverfahren eignen und deren Kohlenstoffprodukte andererseits in spezifischen Eigenschaften, wie der Struktur, des Stickstoffanteils, der Oberfläche und der Porengrößen, eingestellt werden können. In diesem Zusammenhang können natürliche Polyphenole, etwa überschüssige Tannine aus der Weinproduktion, eine neue Welt zu hoch funktionalen und vielseitig einstellbaren Kohlenstoffmaterialien mit hohen Ausbeuten öffnen.
Das Hauptziel dieser vorliegenden Thesis war es neue funktionale, einstellbare und skalierbare nanostrukturierte Kohlenstoffmaterialien aus Tanninen (insbesondere Tanninsäure) für unterschiedliche elektrochemische Zwecke zu synthetisieren und zu charakterisieren. Ermöglicht wurde dies durch unterschiedliche synthetische Herangehensweisen, wie etwa der polymeren Strukturdirektion, dem ionothermalen Templatieren und der weichen Templatierung. An Stelle des weitläufig gebräuchlichen, aber kanzerogenen Vernetzungsagens Formaldehyd wurden bei den vorgestellten Synthesen Harnstoff und Thioharnstoff gewählt, um zugleich die synthetisierten Kohlenmaterialien variabel dotieren zu können.
Daher wurden im ersten Teil der Arbeit die Wechselwirkungen, Reaktionen und thermischen Verhaltensweisen von Tanninsäure und Mixturen von Tanninsäure und Harnstoff bzw. Thioharnstoff untersucht, um daraus wichtige Erkenntnisse für die verschiedenen Kohlenstoffsynthesen zu gewinnen.
Durch die Verwendung eines polymeren Strukturierungsagenz Pluronic P123 konnten in einer ersten Kohlenstoffsynthese nachhaltige und dotierbare Kohlenstoffpartikel mit Durchmessern im Nanometerbereich aus Tanninsäure und Harnstoff hergestellt werden. Es konnte dabei gezeigt werden, dass durch die Modifikation der verschiedenen Syntheseparameter die Kohlenstoffnanopartikel gemäß ihres gemittelten Partikeldurchmessers, ihrer BET-Oberfläche, ihrer Komposition, ihrer Leitfähigkeit und ihrer chemischen Stabilität einstellbar sind. Dies eröffnete die Möglichkeit diese Kohlenstoffpartikel als alternatives und nachhaltiges Rußmaterial einzusetzen.
Weiterhin war es durch die ionothermale Templatierung möglich poröse, dotierte und kontrollierbare Kohlenstoffpartikel mit hohen spezifischen Oberflächen aus den gewählten Präkursorverbindungen zu synthetisieren, die sich für den Einsatz in Superkondensatoren eignen.
Auf diesen Erkenntnissen aufbauend konnten mittels der Rotationsbeschichtung poröse binderfreie und strukturierte Kohlenstofffilme synthetisiert werden, die eine spinodale Struktur aufwiesen. Anhand der Modifikation der Stammlösungskonzentration, der Rotationsgeschwindigkeit und der verwendeten Substrate konnten die Filmdicke (100-1000 nm), die Morphologie und Gesamtoberfläche gezielt beeinflusst werden. Die erweiterte elektrochemische Analyse zeigte außerdem ein sehr gut zugängliches Porensystem der porösen Kohlenstofffilme.
Allumfassend konnten demnach verschiedene Synthesewege für Kohlenstoffmaterialien aus Tanninen aufgezeigt werden, die verschiedenartig strukturiert und kontrolliert werden können und sich für diverse Anwendungsgebiete eignen.
Nowadays, graph data models are employed, when relationships between entities have to be stored and are in the scope of queries. For each entity, this graph data model locally stores relationships to adjacent entities. Users employ graph queries to query and modify these entities and relationships. These graph queries employ graph patterns to lookup all subgraphs in the graph data that satisfy certain graph structures. These subgraphs are called graph pattern matches. However, this graph pattern matching is NP-complete for subgraph isomorphism. Thus, graph queries can suffer a long response time, when the number of entities and relationships in the graph data or the graph patterns increases.
One possibility to improve the graph query performance is to employ graph views that keep ready graph pattern matches for complex graph queries for later retrieval. However, these graph views must be maintained by means of an incremental graph pattern matching to keep them consistent with the graph data from which they are derived, when the graph data changes. This maintenance adds subgraphs that satisfy a graph pattern to the graph views and removes subgraphs that do not satisfy a graph pattern anymore from the graph views.
Current approaches for incremental graph pattern matching employ Rete networks. Rete networks are discrimination networks that enumerate and maintain all graph pattern matches of certain graph queries by employing a network of condition tests, which implement partial graph patterns that together constitute the overall graph query. Each condition test stores all subgraphs that satisfy the partial graph pattern. Thus, Rete networks suffer high memory consumptions, because they store a large number of partial graph pattern matches. But, especially these partial graph pattern matches enable Rete networks to update the stored graph pattern matches efficiently, because the network maintenance exploits the already stored partial graph pattern matches to find new graph pattern matches. However, other kinds of discrimination networks exist that can perform better in time and space than Rete networks. Currently, these other kinds of networks are not used for incremental graph pattern matching.
This thesis employs generalized discrimination networks for incremental graph pattern matching. These discrimination networks permit a generalized network structure of condition tests to enable users to steer the trade-off between memory consumption and execution time for the incremental graph pattern matching. For that purpose, this thesis contributes a modeling language for the effective definition of generalized discrimination networks. Furthermore, this thesis contributes an efficient and scalable incremental maintenance algorithm, which updates the (partial) graph pattern matches that are stored by each condition test. Moreover, this thesis provides a modeling evaluation, which shows that the proposed modeling language enables the effective modeling of generalized discrimination networks. Furthermore, this thesis provides a performance evaluation, which shows that a) the incremental maintenance algorithm scales, when the graph data becomes large, and b) the generalized discrimination network structures can outperform Rete network structures in time and space at the same time for incremental graph pattern matching.
Research in legal decision making has demonstrated the tendency to blame the victim and exonerate the perpetrator of sexual assault. This study examined the hypothesis of a special leniency bias in rape cases by comparing them to cases of robbery. N = 288 participants received descriptions of rape and robbery of a female victim by a male perpetrator and made ratings of victim and perpetrator blame. Case scenarios varied with respect to the prior relationship (strangers, acquaintances, ex-partners) and coercive strategy (force vs. exploiting victim intoxication). More blame was attributed to the victim and less blame was attributed to the perpetrator for rape than for robbery. Information about a prior relationship between victim and perpetrator increased ratings of victim blame and decreased perceptions of perpetrator blame in the rape cases, but not in the robbery cases. The findings support the notion of a special leniency bias in sexual assault cases.
This study aimed to determine the relative and absolute reliability of ultrasound (US) measurements of the thickness and echogenicity of the plantar fascia (PF) at different measurement stations along its length using a standardized protocol. Twelve healthy subjects (24 feet) were enrolled. The PF was imaged in the longitudinal plane. Subjects were assessed twice to evaluate the intra-rater reliability. A quantitative evaluation of the thickness and echogenicity of the plantar fascia was performed using Image J, a digital image analysis and viewer software. A sonography evaluation of the thickness and echogenicity of the PF showed a high relative reliability with an Intra class correlation coefficient of 0.88 at all measurement stations. However, the measurement stations for both the PF thickness and echogenicity which showed the highest intraclass correlation coefficient (ICCs) did not have the highest absolute reliability. Compared to other measurement stations, measuring the PF thickness at 3 cm distal and the echogenicity at a region of interest 1 cm to 2 cm distal from its insertion at the medial calcaneal tubercle showed the highest absolute reliability with the least systematic bias and random error. Also, the reliability was higher using a mean of three measurements compared to one measurement. To reduce discrepancies in the interpretation of the thickness and echogenicity measurements of the PF, the absolute reliability of the different measurement stations should be considered in clinical practice and research rather than the relative reliability with the ICC.
There is growing evidence to support change in the rehabilitation strategy of patellofemoral pain syndrome (PFPS) from traditional quadriceps strengthening exercises to inclusion of hip musculature strengthening in individuals with PFPS. Several studies have evaluated effects of quadriceps and hip musculature strengthening on PFPS with varying outcomes on pain and function. This systematic review and meta-analysis aims to synthesize outcomes of pain and function post-intervention and at follow-up to determine whether outcomes vary depending on the exercise strategy in both the short and long term. Electronic databases including MEDLINE, EMBASE, CINAHL, Web of Science, PubMed, Pedro database, Proquest, Science direct, and EBscoHost databases were searched for randomized control trials published between 1st of January 2005 and 31st of June 2015, comparing the outcomes of pain and function following quadriceps strengthening and hip musculature strengthening exercises in patients with PFPS. Two independent reviewers assessed each paper for inclusion and quality. Means and SDs were extracted from each included study to allow effect size calculations and comparison of results. Six randomized control trials met the inclusion criteria. Limited to moderate evidence indicates that hip abductor strengthening was associated with significantly lower pain post-intervention (SMD −0.88, −1.28 to −0.47 95% CI), and at 12 months (SMD −3.10, −3.71 to −2.50 95% CI) with large effect sizes (greater than 0.80) compared to quadriceps strengthening. Our findings suggest that incorporating hip musculature strengthening in management of PFPS tailored to individual ability will improve short-term and long-term outcomes of rehabilitation. Further research evaluating the effects of quadriceps and hip abductors strengthening focusing on reduction in anterior knee pain and improvement in function in management of PFPS is needed.
In der vorliegenden Arbeit wurden verschiedene Polymere hergestellt, die bestimmte funktionelle Gruppen beinhalten. Diese Gruppen werden zum Teil durch Alkylketten geschützt, zum Teil liegen sie ungeschützt im Polymer vor. Mit diesen Polymeren wurden Untersuchungen mit knochenähnlichen Materialien sogenanntem Calciumphosphat durchgeführt. Es wurde der Einfluss der verschiedenen Polymere auf die Bildung dieser knochenähnlichen Substanzen untersucht und auch der Einfluss auf die Stabilität und das Auflösungsverhalten der Calciumphosphate. Dabei sollte ein besonderes Augenmerk auf die funktionellen Gruppen, sogenannte Phosphonsäuren und deren Ester, die die Phosphonsäuren schützen, gesetzt werden. Es stellte sich heraus, dass bei der Bildung der knochenähnlichen Materialien die Polymere mit Estergruppen eine leichte Förderung der Calciumphosphat-Bildung verursachen, während die ungeschützten Polymere die Bildung des „Knochenmaterials“ sehr stark verzögern. Dieser Effekt verstärkt sich noch, wenn eine weitere bestimmte Komponente zum Polymer hinzukommt und somit ein Copolymer gebildet wird. Diese Copolymere beschleunigen bzw. verlangsamen die Calciumphosphatbildung noch stärker. Werden Polymere mit einem anderen Polymergerüst aber den gleichen Phosphonsäuresetern in den Seitenketten verwendet, ändert sich der Einfluss der Calciumphosphat-Bildung wenig. Verglichen mit Polymeren ohne solche Phosphonsäuregruppen wird erkennbar, dass es weniger die Phosphonsäuregruppe ist, die die Mineralisation beeinflusst, sondern es eher eine Folge der Säure im Polymer ist.
Wird die Stabilisierung und Auflösung der Knochenähnlichen Substanzen betrachtet, fällt auf, dass auch hier wieder die Säuren den größten Effekt ausüben. Die Phosphonsäuregruppen scheinen dabei jedoch tatsächlich einen besonderen Effekt auszuüben, da bei diesen die Stabilisierung und auch das Auflösungsvermögen von Calciumphospaht von allen untersuchten Polymeren am größten sind.
In der Arbeit konnte außerdem gezeigt werden, dass die Polymere und Copolymere mit Phosphonsäuregruppen einen leicht positiven Effekt auf die Zahngesundheit zeigen. Die Zahl von Bakterien auf der Zahnoberfläche konnte reduziert werden und bei der Untersuchung der Zahnauflösung wurde eine glattere Zahnoberfläche erhalten, jedoch wurde auch mit den untersuchten Polymeren der Zahn im Inneren angegriffen. Weitere Untersuchungen können hier noch genaueren Aufschluss geben. Außerdem sollten auch die Polymere mit dem unterschiedlichen Polymergerüst und Phosphonsäureestergruppen untersucht werden.
Letztere Polymere wurden verwendet, um festere “gelartige“ Polymernetzwerke herzustellen und deren Einfluss auf die Calciumphosphatmineralisation zu untersuchen. Es stellte sich heraus, dass ohne das Einbetten einiger Calciumphosphatteilchen keine Bildung von Calciumphospaht an den Materialien ausgelöst wurde, wurden die sogenannten Hydrogele jedoch mit Calciumphosphatpartikeln geimpft, konnte deutliches weiteres Calciumphosphatwachstum beobachtet werden. Das Material lässt sich auch in verschiedene Formen bringen. Somit könnte das System nach weiteren Untersuchungen zur Verträglichkeit mit Zellen oder Geweben ein mögliches Material für Implantate darstellen, mit denen gezielt Knochenwachstum eingeleitet werden könnte.
Accurate time series representation of paleoclimatic proxy records is challenging because such records involve dating errors in addition to proxy measurement errors. Rigorous attention is rarely given to age uncertainties in paleoclimatic research, although the latter can severely bias the results of proxy record analysis. Here, we introduce a Bayesian approach to represent layer-counted proxy records - such as ice cores, sediments, corals, or tree rings - as sequences of probability distributions on absolute, error-free time axes. The method accounts for both proxy measurement errors and uncertainties arising from layer-counting-based dating of the records. An application to oxygen isotope ratios from the North Greenland Ice Core Project (NGRIP) record reveals that the counting errors, although seemingly small, lead to substantial uncertainties in the final representation of the oxygen isotope ratios. In particular, for the older parts of the NGRIP record, our results show that the total uncertainty originating from dating errors has been seriously underestimated. Our method is next applied to deriving the overall uncertainties of the Suigetsu radiocarbon comparison curve, which was recently obtained from varved sediment cores at Lake Suigetsu, Japan. This curve provides the only terrestrial radiocarbon comparison for the time interval 12.5-52.8 kyr BP. The uncertainties derived here can be readily employed to obtain complete error estimates for arbitrary radiometrically dated proxy records of this recent part of the last glacial interval.
Die klassische Physik/Chemie unterscheidet zwischen drei Bindungstypen: Der kovalenten Bindung, der ionischen Bindung und der metallischen Bindung. Moleküle untereinander werden hingegen durch schwache Wechselwirkungen zusammen gehalten, sie sind trotz ihrer schwachen Kräfte weniger verstanden, aber dabei nicht weniger wichtig. In zukunftsweisenden Gebieten wie der Nanotechnologie, der Supramolekularen Chemie und Biochemie sind sie von elementarer Bedeutung.
Um schwache, intermolekulare Wechselwirkungen zu beschreiben, vorauszusagen und zu verstehen, sind sie zunächst theoretisch zu erfassen. Hierzu gehören verschiedene quantenchemische Methoden, die in dieser Arbeit vorgestellt, verglichen, weiterentwickelt und schließlich auch exemplarisch auf Problemstellungen in der Chemie angewendet werden. Aufbauend auf einer Hierarchie von Methoden unterschiedlicher Genauigkeit werden sie für diese Ziele eingesetzt, ausgearbeitet und kombiniert.
Berechnet wird die Elektronenstruktur, also die Verteilung und Energie von Elektronen, die im Wesentlichen die Atome zusammen halten. Da Ungenauigkeiten von der Beschreibung der Elektronenstruktur von den verwendeten Methoden abhängen, kann man die Effekte detailliert untersuchen, sie beschreiben und darauf aufbauend weiter entwickeln, um sie anschließend an verschiedenen Modellen zu testen. Die Geschwindigkeit der Berechnungen mit modernen Computern ist eine wesentliche, zu berücksichtigende Komponente, da im Allgemeinen die Genauigkeit mit der Rechenzeit exponentiell steigt, und die damit an die Grenzen der Möglichkeiten stoßen muss.
Die genaueste der verwendeten Methoden basiert auf der Coupled-Cluster-Theorie, die sehr gute Voraussagen ermöglicht. Für diese wird eine sogenannte spektroskopische Genauigkeit mit Abweichungen von wenigen Wellenzahlen erzielt, was Vergleiche mit experimentellen Daten zeigen. Eine Möglichkeit zur Näherung von hochgenauen Methoden basiert auf der Dichtefunktionaltheorie: Hier wurde das „Boese-Martin for Kinetics“ (BMK)-Funktional entwickelt, dessen Funktionalform sich in vielen nach 2010 veröffentlichten Dichtefunktionalen wiederfindet.
Mit Hilfe der genaueren Methoden lassen sich schließlich semiempirische Kraftfelder zur Beschreibung intermolekularer Wechselwirkungen für individuelle Systeme parametrisieren, diese benötigen weit weniger Rechenzeit als die Methoden, die auf der genauen Berechnung der Elektronenstruktur von Molekülen beruhen.
Für größere Systeme lassen sich auch verschiedene Methoden kombinieren. Dabei wurden Einbettungsverfahren verfeinert und mit neuen methodischen Ansätzen vorgeschlagen. Sie verwenden sowohl die symmetrieadaptierte Störungstheorie als auch die quantenchemische Einbettung von Fragmenten in größere, quantenchemisch berechnete Systeme.
Die Entwicklungen neuer Methoden beziehen ihren Wert im Wesentlichen durch deren Anwendung:
In dieser Arbeit standen zunächst die Wasserstoffbrücken im Vordergrund. Sie zählen zu den stärkeren intermolekularen Wechselwirkungen und sind nach wie vor eine Herausforderung. Im Gegensatz dazu sind van-der-Waals Wechselwirkungen relativ einfach durch Kraftfelder zu beschreiben. Deshalb sind viele der heute verwendeten Methoden für Systeme, in denen Wasserstoffbrücken dominieren, vergleichsweise schlecht.
Eine Untersuchung molekularer Aggregate mit Auswirkungen intermolekularer Wechselwirkungen auf die Schwingungsfrequenzen von Molekülen schließt sich an. Dabei wird auch über die sogenannte starrer-Rotor-harmonischer-Oszillator-Näherung hinausgegangen.
Eine weitreichende Anwendung behandelt Adsorbate, hier die von Molekülen auf ionischen/metallischen Oberflächen. Sie können mit ähnlichen Methoden behandelt werden wie die intermolekularen Wechselwirkungen, und sind mit speziellen Einbettungsverfahren sehr genau zu beschreiben. Die Resultate dieser theoretischen Berechnungen stimulierten eine Neubewertung der bislang bekannten experimentellen Ergebnisse.
Molekulare Kristalle sind ein äußerst wichtiges Forschungsgebiet. Sie werden durch schwache Wechselwirkungen zusammengehalten, die von van-der-Waals Kräften bis zu Wasserstoffbrücken reichen. Auch hier wurden neuentwickelte Methoden eingesetzt, die eine interessante, mindestens ebenso genaue Alternative zu den derzeit gängigen Methoden darstellen.
Von daher sind die entwickelten Methoden, als auch deren Anwendung äußerst vielfältig. Die behandelten Berechnungen der Elektronenstruktur erstrecken sich von den sogenannten post-Hartree-Fock-Methoden über den Einsatz der Dichtefunktionaltheorie bis zu semiempirischen Kraftfeldern und deren Kombinationen. Die Anwendung reicht von einzelnen Molekülen in der Gasphase über die Adsorption auf Oberflächen bis zum molekularen Festkörper.
High precipitation quantiles tend to rise with temperature, following the so-called Clausius–Clapeyron (CC) scaling. It is often reported that the CC-scaling relation breaks down and even reverts for very high temperatures. In our study, we investigate this reversal using observational climate data from 142 stations across Germany. One of the suggested meteorological explanations for the breakdown is limited moisture supply. Here we argue that, instead, it could simply originate from undersampling. As rainfall frequency generally decreases with higher temperatures, rainfall intensities as dictated by CC scaling are less likely to be recorded than for moderate temperatures. Empirical quantiles are conventionally estimated from order statistics via various forms of plotting position formulas. They have in common that their largest representable return period is given by the sample size. In small samples, high quantiles are underestimated accordingly. The small-sample effect is weaker, or disappears completely, when using parametric quantile estimates from a generalized Pareto distribution (GPD) fitted with L moments. For those, we obtain quantiles of rainfall intensities that continue to rise with temperature.
The aim was to analyze the risk of hip fracture in German primary care patients with dementia. This study included patients aged 65-90 from 1072 primary care practices who were first diagnosed with dementia between 2010 and 2013. Controls were matched (1:1) to cases for age, sex, and type of health insurance. The primary outcome was the diagnosis of hip fracture during the three-year follow-up period. A total of 53,156 dementia patients and 53,156 controls were included. A total of 5.3% of patients and 0.7% of controls displayed hip fracture after three years. Hip fracture occurred more frequently in dementia subjects living in nursing homes than in those living at home (9.2% versus 4.3%). Dementia, residence in nursing homes, and osteoporosis were risk factors for fracture development. Antidementia, antipsychotic, and antidepressant drugs generally had no significant impact on hip fracture risk when prescribed for less than six months. Dementia increased hip fracture risk in German primary care practices.
Earth observation data have become an outstanding basis for analyzing environmental
aspects. The increasing availability of remote sensing data is accompanied
by an increasing user demand. Within the scope of the COOPERNICUS-initiative,
the automatic processing of remote sensing data is important for supplying value-
added-information products. The use of additional data like land-water-masks
in the context of deriving value-added information products can stabilize and
improve the product quality of information products.
The authors of this contribution would like to discuss different automated
processing algorithms which are based on land-water masks for value-added
data interpretation. These developments were supported or accompanied by Prof.
Hartmut Asche.
Einleitung
(2017)
Einleitung
(2017)
Sprache im Musikunterricht
(2017)
Mit dem vorliegenden Band 5 der Potsdamer Schriftenreihe zur Musikpädagogik wird die bildungspolitische Diskussion um den Stellenwert bewussten Sprachhandelns im Fach aufgegriffen. Ausgehend vom aktuellen Forschungsstand zum Thema „Sprache und Sprechen im Musikunterricht“ werden Forschungsarbeiten vorgestellt, die in diesem Kontext zwischen 2013 und 2016 am Lehrstuhl für Musikpädagogik und Musikdidaktik der Universität Potsdam entstanden sind. Die Beiträge skizzieren sowohl Möglichkeiten zur Umsetzung eines sprachbildenden Fachunterrichts Musik als auch soziale Aspekte sprachlichen Lehrerhandelns und setzen damit neue Impulse im musikpädagogischen Diskurs.
Die Veröffentlichung der vorliegenden Forschungsergebnisse wurde durch die Unterstützung des Ministeriums für Arbeit, Soziales, Gesundheit, Frauen und Familie des Landes Brandenburg und der Integrationsbeauftragten sowie durch die Universitätsgesellschaft Potsdam e. V. ermöglicht.
Die zweiteilige Publikation „Musikarbeit im Kontext von Inklusion und Integration“ der Potsdamer Schriftenreihe zur Musikpädagogik beinhaltet Erträge aus Veranstaltungen und Qualifikationsarbeiten mehrerer Jahre, die am Lehrstuhl für Musikpädagogik und Musikdidaktik der Universität Potsdam entstanden sind. Beide Bände enthalten neben theoretischen Beiträgen auch Beiträge aus Praxis und Ausbildung in verschiedenen Berufsfeldern, die das besondere Potenzial musikalischer Betätigung für Inklusion und Integration anhand von best-practise-Beispielen darstellen und sind somit als umfassendes Studienmaterial konzipiert.
Der erste Band legt den Schwerpunkt auf die Dokumentation der am Lehrstuhl für Musikpädagogik und Musikdidaktik durchgeführten internationalen Fachtagung „Musik in sozialen Feldern und Inklusionskontexten“ sowie auf Qualifikationsarbeiten, die im Anschluss an die Tagung entstanden sind.
Die Veröffentlichung der vorliegenden Arbeits- und Forschungsergebnisse wurde durch die Unterstützung des Ministeriums für Arbeit, Soziales, Gesundheit, Frauen und Familie des Landes Brandenburg und der Integrationsbeauftragten sowie durch die Universitätsgesellschaft Potsdam e. V. ermöglicht.
The valorization of carbohydrates is one of the most promising fields in green chemistry, as it enables to produce bulk chemicals and fuels out of renewable and abundant resources, instead of further exploiting fossil feedstocks. The focus in this thesis is the conversion of fructose, using dehydration and hydrodeoxygenation reactions. The main goal is to find an easy continuous process, including the solubility of the sugar in a green solvent, the conversion over a solid acid as well as over a metal@tungsten carbide catalyst.
At the beginning of this thesis, solid acid catalysts are synthesized by using carbohydrate material like glucose and starch at high temperatures (up to 600 °C). Additionally a third carbon is synthesized, using an activation method based on Ca(OH)2. After carbonization and further sulfonation, using fuming sulfuric acid, the three resulting catalysts are characterized together with sulfonated carbon black and Amberlyst 15 as references. In order to test all solid acid catalysts in reaction, a 250 mm x 4.6 mm stainless steel column is used as a fixed-bed continuous reactor. The temperature (110 °C to 250 °C) and residence time (2 to 30 minutes) is varied, and a direct relationship between contact time and selectivity is determined. The reaction mechanism, as well as the product distribution is showing a dehydration step of fructose towards 5-hydroxymethylfurfural (HMF). These furan-ring molecules are considered as “sleeping giants”, due to the possibility of using them as fuel, but also for upgrading them to chemicals like terephthalic acid or p-xylene. Consecutive reactions are producing levulinic acid, as well as condensation products with ethanol and formic acid. The activated carbon is additionally showing a 2 % yield of 2,5-Dimethylfuran (DMF) production, pointing towards the extraordinary properties of this catalyst. Without a metal catalyst present, what is normally necessary for hydrogenation reactions, a transferhydrogenation (with formic acid) is observed. The active catalyst was therefore carbon itself, what activated the hydrogen on its surface. This phenomenon was just very rarely observed so far. Expensive noble metals are the material of choice, when it comes to hydrogenation reactions nowadays and cheaper alternatives are necessary.
By postulating a similar electronic structure of tungsten carbide (WC) to platinum by Lewy and Boudart, research is focusing on the replacement of Pt. The production of nano-sized tungsten carbide particles (7.5 ± 2.5 nm, 70 m2 g-1) is enabled by the so called “urea glass route” and its catalytic performances are compared to commercial material. It is shown, that the activity is strongly dependent on the size of the particles as well as the surface area. Nano-sized tungsten carbide is showing activity for hydrogenation reactions under mild conditions (maximum 150 °C, 30 bar). This material therefore opens up new possibilities for replacing the rare and expensive platinum with tungsten carbide based catalysts.
Additionally different metal nanoparticles of palladium, copper and nickel are deposited on top of WC to further promote its reactivity. The nickel nanoparticles are strongly connected to WC and showed the best activity as well as selectivity for upgrading HMF with hydrodeoxygenation. The Ni@WC is not leaching and is showing very good hydrodeoxygenation properties with DMF yields up to 90 percent. Copper@WC is not showing good activity and palladium@WC enables undesired consecutive reactions, hydrogenating the furan ring system.
In order to enable the upgrade of fructose to DMF directly in a continuous system, the current H CUBE Pro TM hydrogenation system is customized with a second reaction column. A 250 mm x 4.6 mm stainless steel reactor column is connected ahead of the hydrogen insertion, enabling the dehydration of fructose to HMF derivatives, before pumping these products into the second column for hydrogenation. The overall residence time in the two column reactor system is 14 minutes. The overall results are an almost full conversion with a yield of 38.5 % DMF and 47 % yield of EL. The main disadvantage is the formation of higher mass products, so called humins, which start depositing on top of the catalysts, blocking their active sites.
In general it can be stated, that a two column system goes along with a higher investment as well as more maintenance costs, compared to a one column catalytic approach. To develop a catalyst, which is on the one hand able to dehydrate as well as hydrodeoxygenate the reactants, is aimed for at the last part of the thesis. The activated carbon however shows already activity for hydrodeoxygenation without any metal present and offers itself therefore as an alternative to overcome the temperature instability of Amberlyst 15 (max. 120 °C) for a combined DMF production directly from fructose. The activity for the upgrade to DMF is increased from 2 % to 12 % DMF yield in one mixed continuous column.
In order to scale up the entire one column approach, an 800 mm x 28.5 mm inner diameter column was planned and manufactured. The system is scaled up and assembled, whereas this flow reactor system is able to be run with 50 mL min-1 maximum flow rate, to stand a pressure of maximum 100 bar and be heated to around 500 °C. The tubing and connections, as well as the used devices are planned according to be safe and easy in use. The scaled-up approach offers a reaction column 120 times bigger (510 ml) then the first extension of the commercial system. This further extension offers the possibility of ranging between 1 and 1000 mL min-1, making it possible to use the approach in pilot plant applications.
According to the classical plume hypothesis, mantle plumes are localized upwellings of hot, buoyant material in the Earth’s mantle. They have a typical mushroom shape, consisting of a large plume head, which is associated with the formation of voluminous flood basalts (a Large
Igneous Province) and a narrow plume tail, which generates a linear, age-progressive chain of volcanic edifices (a hotspot track) as the tectonic plate migrates over the relatively stationary plume. Both plume heads and tails reshape large areas of the Earth’s surface over many tens of millions of years.
However, not every plume has left an exemplary record that supports the classical hypothesis. The main objective of this thesis is therefore to study how specific hotspots have created the crustal thickness pattern attributed to their volcanic activities. Using regional geodynamic
models, the main chapters of this thesis address the challenge of deciphering the three individual (and increasingly complex) Réunion, Iceland, and Kerguelen hotspot histories, especially focussing on the interactions between the respective plume and nearby spreading ridges.
For this purpose, the mantle convection code ASPECT is used to set up three-dimensional numerical models, which consider the specific local surroundings of each plume by prescribing time-dependent boundary conditions for temperature and mantle flow. Combining reconstructed plate boundaries and plate motions, large-scale global flow velocities and an inhomogeneous lithosphere thickness distribution together with a dehydration rheology represents a novel setup for regional convection models.
The model results show the crustal thickness pattern produced by the plume, which is compared to present-day topographic structures, crustal thickness estimates and age determinations of volcanic provinces associated with hotspot activity. Altogether, the model results agree well
with surface observations. Moreover, the dynamic development of the plumes in the models provide explanations for the generation of smaller, yet characteristic volcanic features that were previously unexplained. Considering the present-day state of a model as a prediction for the
current temperature distribution in the mantle, it cannot only be compared to observations on the surface, but also to structures in the Earth’s interior as imaged by seismic tomography.
More precisely, in the case of the Réunion hotspot, the model demonstrates how the distinctive gap between the Maldives and Chagos is generated due to the combination of the ridge geometry and plume-ridge interaction. Further, the Rodrigues Ridge is formed as the surface expression
of a long-distance sublithospheric flow channel between the upwelling plume and the closest ridge segment, confirming the long-standing hypothesis of Morgan (1978) for the first time in a dynamic context. The Réunion plume has been studied in connection with the seismological
RHUM-RUM project, which has recently provided new seismic tomography images that yield an excellent match with the geodynamic model.
Regarding the Iceland plume, the numerical model shows how plume material may have accumulated in an east-west trending corridor of thin lithosphere across Greenland and resulted in simultaneous melt generation west and east of Greenland. This provides an explanation for the
extremely widespread volcanic material attributed to magma production of the Iceland hotspot and demonstrates that the model setup is also able to explain more complicated hotspot histories. The Iceland model results also agree well with newly derived seismic tomographic images.
The Kerguelen hotspot has an extremely complex history and previous studies concluded that the plume might be dismembered or influenced by solitary waves in its conduit to produce the reconstructed variable melt production rate. The geodynamic model, however, shows that a constant plume influx can result in a variable magma production rate if the plume interacts with nearby mid-ocean ridges. Moreover, the Ninetyeast Ridge in the model is created by on-ridge activities, while the Kerguelen plume was located beneath the Australian plate. This is also a contrast to earlier studies, which described the Ninetyeast Ridge as the result of the Indian plate passing over the plume. Furthermore, the Amsterdam-Saint Paul Plateau in the model is the result of plume material flowing from the upwelling toward the Southeast Indian Ridge, whereas previous geochemical studies attributed that volcanic province to a separate deep plume.
In summary, the three case studies presented in this thesis consistently highlight the importance of plume-ridge interaction in order to reconstruct the overall volcanic hotspot record as well as specific smaller features attributed to a certain hotspot. They also demonstrate that it is not necessary to attribute highly complicated properties to a specific plume in order to account for complex observations. Thus, this thesis contributes to the general understanding of plume dynamics and extends the very specific knowledge about the Réunion, Iceland, and Kerguelen mantle plumes.
Background
Much of the organismal variation we observe in nature is due to differences in organ size. The observation that even closely related species can show large, stably inherited differences in organ size indicates a strong genetic component to the control of organ size. Despite recent progress in identifying factors controlling organ growth in plants, our overall understanding of this process remains limited, partly because the individual factors have not yet been connected into larger regulatory pathways or networks. To begin addressing this aim, we have studied the upstream regulation of expression of BIG BROTHER (BB), a central growth-control gene in Arabidopsis thaliana that prevents overgrowth of organs. Final organ size and BB expression levels are tightly correlated, implying the need for precise control of its expression. BB expression mirrors proliferative activity, yet the gene functions to limit proliferation, suggesting that it acts in an incoherent feedforward loop downstream of growth activators to prevent over-proliferation.
Results
To investigate the upstream regulation of BB we combined a promoter deletion analysis with a phylogenetic footprinting approach. We were able to narrow down important, highly conserved, cis-regulatory elements within the BB promoter. Promoter sequences of other Brassicaceae species were able to partially complement the A. thaliana bb-1 mutant, suggesting that at least within the Brassicaceae family the regulatory pathways are conserved.
Conclusions
This work underlines the complexity involved in precise quantitative control of gene expression and lays the foundation for identifying important upstream regulators that determine BB expression levels and thus final organ size.
The German sibilant /integral/ is produced with a constriction in the postalveolar region and often with protruded lips. By covarying horizontal lip and tongue position speakers can keep a similar acoustic output even if the articulation varies. This study investigates whether during two weeks of adaptation to an artificial palate speakers covary these two articulatory parameters, whether tactile landmarks have an influence on the covariation and to what extent speakers can foresee the acoustic result of the covariation without auditory feedback. Six German speakers were recorded with EMA. Four of them showed a covariation of lip and tongue, which is consistent with the motor equivalence hypothesis. The acoustic output, however, does not stay entirely constant but varies with the tongue position. The role of tactile landmarks is negligible. To a certain extent, speakers are able to adapt even without auditory feedback.