Refine
Has Fulltext
- yes (13211) (remove)
Year of publication
Document Type
- Article (3990)
- Postprint (3294)
- Doctoral Thesis (2508)
- Monograph/Edited Volume (967)
- Review (558)
- Preprint (446)
- Part of Periodical (418)
- Master's Thesis (261)
- Conference Proceeding (245)
- Working Paper (242)
Language
- German (6955)
- English (5956)
- Spanish (80)
- French (75)
- Multiple languages (62)
- Russian (62)
- Hebrew (9)
- Italian (6)
- Portuguese (2)
- Hungarian (1)
Keywords
- Germany (118)
- Deutschland (106)
- climate change (78)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Nachhaltigkeit (61)
- European Union (59)
- Europäische Union (58)
- Klimawandel (57)
Institute
- Extern (1367)
- MenschenRechtsZentrum (943)
- Institut für Physik und Astronomie (711)
- Institut für Biochemie und Biologie (706)
- Wirtschaftswissenschaften (582)
- Institut für Chemie (552)
- Institut für Mathematik (519)
- Institut für Romanistik (508)
- Institut für Geowissenschaften (506)
- Mathematisch-Naturwissenschaftliche Fakultät (489)
Materials derived from renewable resources are highly desirable in view of more sustainable manufacturing. Among the available natural materials, wood is one of the key candidates, because of its excellent mechanical properties. However, wood and wood-based materials in engineering applications suffer from various restraints, such as dimensional instability upon humidity changes. Several wood modification treatments increase water repellence, but the insertion of hydrophobic polymers can result in a composite material which cannot be considered as renewable anymore. In this study, we report on the grafting of the fully biodegradable poly(ε-caprolactone) (PCL) inside the wood cell walls by Sn(Oct)2 catalysed ring-opening polymerization (ROP). The presence of polyester chains within the wood cell wall structure is monitored by confocal Raman imaging and spectroscopy as well as scanning electron microscopy. Physical tests reveal that the modified wood is more hydrophobic due to the bulking of the cell wall structure with the polyester chains, which results in a novel fully biodegradable wood material with improved dimensional stability.
As an engineering material derived from renewable resources, wood possesses excellent mechanical properties in view of its light weight but also has some disadvantages such as low dimensional stability upon moisture changes and low durability against biological attack. Polymerization of hydrophobic monomers in the cell wall is one of the potential approaches to improve the dimensional stability of wood. A major challenge is to insert hydrophobic monomers into the hydrophilic environment of the cell walls, without increasing the bulk density of the material due to lumen filling. Here, we report on an innovative and simple method to insert styrene monomers into tosylated cell walls (i.e. –OH groups from natural wood polymers are reacted with tosyl chloride) and carry out free radical polymerization under relatively mild conditions, generating low wood weight gains. In-depth SEM and confocal Raman microscopy analysis are applied to reveal the distribution of the polystyrene in the cell walls and the lumen. The embedding of polystyrene in wood results in reduced water uptake by the wood cell walls, a significant increase in dimensional stability, as well as slightly improved mechanical properties measured by nanoindentation.
Wood is used for many applications because of its excellent mechanical properties, relative abundance and as it is a renewable resource. However, its wider utilization as an engineering material is limited because it swells and shrinks upon moisture changes and is susceptible to degradation by microorganisms and/or insects. Chemical modifications of wood have been shown to improve dimensional stability, water repellence and/or durability, thus increasing potential service-life of wood materials. However current treatments are limited because it is difficult to introduce and fix such modifications deep inside the tissue and cell wall. Within the scope of this thesis, novel chemical modification methods of wood cell walls were developed to improve both dimensional stability and water repellence of wood material. These methods were partly inspired by the heartwood formation in living trees, a process, that for some species results in an insertion of hydrophobic chemical substances into the cell walls of already dead wood cells, In the first part of this thesis a chemistry to modify wood cell walls was used, which was inspired by the natural process of heartwood formation. Commercially available hydrophobic flavonoid molecules were effectively inserted in the cell walls of spruce, a softwood species with low natural durability, after a tosylation treatment to obtain “artificial heartwood”. Flavonoid inserted cell walls show a reduced moisture absorption, resulting in better dimensional stability, water repellency and increased hardness. This approach was quite different compared to established modifications which mainly address hydroxyl groups of cell wall polymers with hydrophilic substances. In the second part of the work in-situ styrene polymerization inside the tosylated cell walls was studied. It is known that there is a weak adhesion between hydrophobic polymers and hydrophilic cell wall components. The hydrophobic styrene monomers were inserted into the tosylated wood cell walls for further polymerization to form polystyrene in the cell walls, which increased the dimensional stability of the bulk wood material and reduced water uptake of the cell walls considerably when compared to controls. In the third part of the work, grafting of another hydrophobic and also biodegradable polymer, poly(ɛ-caprolactone) in the wood cell walls by ring opening polymerization of ɛ-caprolactone was studied at mild temperatures. Results indicated that polycaprolactone attached into the cell walls, caused permanent swelling of the cell walls up to 5%. Dimensional stability of the bulk wood material increased 40% and water absorption reduced more than 35%. A fully biodegradable and hydrophobized wood material was obtained with this method which reduces disposal problem of the modified wood materials and has improved properties to extend the material’s service-life. Starting from a bio-inspired approach which showed great promise as an alternative to standard cell wall modifications we showed the possibility of inserting hydrophobic molecules in the cell walls and supported this fact with in-situ styrene and ɛ-caprolactone polymerization into the cell walls. It was shown in this thesis that despite the extensive knowledge and long history of using wood as a material there is still room for novel chemical modifications which could have a high impact on improving wood properties.
Precision agriculture (PA) strongly relies on spatially differentiated sensor information. Handheld instruments based on laser-induced breakdown spectroscopy (LIBS) are a promising sensor technique for the in-field determination of various soil parameters. In this work, the potential of handheld LIBS for the determination of the total mass fractions of the major nutrients Ca, K, Mg, N, P and the trace nutrients Mn, Fe was evaluated. Additionally, other soil parameters, such as humus content, soil pH value and plant available P content, were determined. Since the quantification of nutrients by LIBS depends strongly on the soil matrix, various multivariate regression methods were used for calibration and prediction. These include partial least squares regression (PLSR), least absolute shrinkage and selection operator regression (Lasso), and Gaussian process regression (GPR). The best prediction results were obtained for Ca, K, Mg and Fe. The coefficients of determination obtained for other nutrients were smaller. This is due to much lower concentrations in the case of Mn, while the low number of lines and very weak intensities are the reason for the deviation of N and P. Soil parameters that are not directly related to one element, such as pH, could also be predicted. Lasso and GPR yielded slightly better results than PLSR. Additionally, several methods of data pretreatment were investigated.
Die Entwicklung nachhaltiger Bewirtschaftungs- und Produktionsmethoden ist eine der zentralen Fragestellungen der modernen Agrarwirtschaft. Die vorliegende Arbeit beschäftigt sich mit zwei Forschungsthemen, die das Konzept Nachhaltigkeit beinhalten. In beiden Fällen werden analytische Grundlagen für die Entwicklung entsprechender landwirtschaftlicher Arbeitsmethoden gelegt.
Das erste Thema ist an den sogenannten Präzisionsackerbau angelehnt. Bei diesem wird die Bearbeitung von Agrarflächen ortsabhängig ausgeführt. Das heißt, die Ausbringung von Saatgut, Dünger, Bewässerung usw. richtet sich nach den Eigenschaften des jeweiligen Standortes und wird nicht pauschal gleichmäßig über ein ganzes Feld verteilt. Voraussetzung hierfür ist eine genaue Kenntnis der Bodeneigenschaften. In der vorliegenden Arbeit sollten diese Parameter mittels der analytischen Technik der Laser-induzierten Breakdown Spektroskopie (LIBS), die eine Form der Elementaranalyse darstellt, bestimmt werden. Bei den hier gesuchten Bodeneigenschaften handelte es sich um die Gehalte von Nährstoffen sowie einige sekundäre Parameter wie den Humusanteil, den pH-Wert und den pflanzenverfügbaren Anteil einzelner Nährstoffe. Diese Eigenschaften wurden durch etablierte Referenzanalysen bestimmt. Darauf aufbauend wurden die Messergebnissen der LIBS-Untersuchungen durch verschiedene Methoden der sogenannten multivariaten Datenanalyse (MVA) ausgewertet. Daraus sollten Modelle zur Vorhersage der Bodenparameter in zukünftigen LIBS-Messungen erarbeitet werden. Die Ergebnisse dieser Arbeit zeigten, dass mit der Kombination von LIBS und MVA sämtliche Bodenparameter erfolgreich vorhergesagt werden konnten. Dies beinhaltete sowohl die tatsächlich messbaren Elemente als auch die sekundären Eigenschaften, welche durch die MVA mit den Elementgehalten in Zusammenhang gebracht wurden.
Das zweite Thema beschäftigt sich mit der Vermeidung von Verlusten durch Schädlingsbefall bei der Getreidelagerung. Hier sollten mittels der Ionenmobilitätsspektrometrie (IMS) Schimmelpilzkontaminationen detektiert werden. Dabei wurde nach den flüchtigen Stoffwechselprodukten der Pilze gesucht. Die durch Referenzmessungen mit Massenspektrometern identifizierten Substanzen konnten durch IMS im Gasvolumen über den Proben, dem sogenannten Headspace, nachgewiesen werden. Dabei wurde nicht nur die Anwesenheit einer Kontamination festgestellt, sondern diese auch charakterisiert. Die freigesetzten Substanzen bildeten spezifische Muster, anhand derer die Pilze identifiziert werden konnten. Hier wurden sowohl verschiedene Gattungen als auch einzelne Arten unterschieden. Die Messungen fanden auf verschiedenen Nährböden statt um den Einfluss dieser auf die Stoffwechselprodukte zu beobachten. Auch die sekundären Stoffwechselprodukte der Schimmelpilze, die Mykotoxine, konnten durch IMS detektiert werden.
Beide in dieser Arbeit vorgestellten Forschungsthemen konnten erfolgreich abgeschlossen werden. Sowohl LIBS als auch IMS erwiesen sich für den Nachweis der jeweiligen Analyten als geeignet, und der Einsatz moderner computergestützter Auswertemethoden ermöglichte die genaue Charakterisierung der gesuchten Parameter. Beide Techniken können in Form von mobilen Geräten verwendet werden und zeichnen sich durch eine schnelle und sichere Analyse aus. In Kombination mit entsprechenden Modellen der MVA sind damit alle Voraussetzungen für Vor-Ort-Untersuchungen und damit für den Einsatz in der Landwirtschaft erfüllt.
Zwischenbericht
(2022)
In Deutschland leben aktuell rund 1,8 Mio. als schutzsuchend registrierte Menschen mit Fluchterfahrung, deren Integration eine gesamtgesellschaftliche Aufgabe darstellt. Viele dieser Personen sind hoch qualifiziert und arbeiteten in ihrem Herkunftsland als Lehrkräfte. Das Qualifizierungsprogramm Lehrkräfte Plus ermöglicht migrierten Lehrkräften den beruflichen Wiedereinstieg in Deutschland zu erlangen. Da bislang wenig wissenschaftliche Evidenz zur Wirksamkeit solcher Qualifizierungsprogramme vorliegt, wird das Programm Lehrkräfte Plus durch ein Forschungsvorhaben der Universität Potsdam untersucht. In dem vorliegenden Zwischenbericht werden erste Ergebnisse der wissenschaftlichen Begleitforschung auf Basis der ersten Erhebungen vorgestellt.
The reliance on fossil fuels has resulted in an abnormal increase in the concentration of greenhouse gases, contributing to the global climate crisis. In response, a rapid transition to renewable energy sources has begun, particularly lithium-ion batteries, playing a crucial role in the green energy transformation. However, concerns regarding the availability and geopolitical implications of lithium have prompted the exploration of alternative rechargeable battery systems, such as sodium-ion batteries. Sodium is significantly abundant and more homogeneously distributed in the crust and seawater, making it easier and less expensive to extract than lithium. However, because of the mysterious nature of its components, sodium-ion batteries are not yet sufficiently advanced to take the place of lithium-ion batteries. Specifically, sodium exhibits a more metallic character and a larger ionic radius, resulting in a different ion storage mechanism utilized in lithium-ion batteries. Innovations in synthetic methods, post-treatments, and interface engineering clearly demonstrate the significance of developing high-performance carbonaceous anode materials for sodium-ion batteries. The objective of this dissertation is to present a systematic approach for fabricating efficient, high-performance, and sustainable carbonaceous anode materials for sodium-ion batteries. This will involve a comprehensive investigation of different chemical environments and post-modification techniques as well.
This dissertation focuses on three main objectives. Firstly, it explores the significance of post-synthetic methods in designing interfaces. A conformal carbon nitride coating is deposited through chemical vapor deposition on a carbon electrode as an artificial solid-electrolyte interface layer, resulting in improved electrochemical performance. The interaction between the carbon nitride artificial interface and the carbon electrode enhances initial Coulombic efficiency, rate performance, and total capacity. Secondly, a novel process for preparing sulfur-rich carbon as a high-performing anode material for sodium-ion batteries is presented. The method involves using an oligo-3,4-ethylenedioxythiophene precursor for high sulfur content hard carbon anode to investigate the sulfur heteroatom effect on the electrochemical sodium storage mechanism. By optimizing the condensation temperature, a significant transformation in the materials’ nanostructure is achieved, leading to improved electrochemical performance. The use of in-operando small-angle X-ray scattering provides valuable insights into the interaction between micropores and sodium ions during the electrochemical processes. Lastly, the development of high-capacity hard carbon, derived from 5-hydroxymethyl furfural, is examined. This carbon material exhibits exceptional performance at both low and high current densities. Extensive electrochemical and physicochemical characterizations shed light on the sodium storage mechanism concerning the chemical environment, establishing the material’s stability and potential applications in sodium-ion batteries.
Adhesion of biological cells to their environment is mediated by two-dimensional clusters of specific adhesion molecules which are assembled in the plasma membrane of the cells. Due to the activity of the cells or external influences, these adhesion sites are usually subject to physical forces. In recent years, the influence of such forces on the stability of cellular adhesion clusters was increasingly investigated. In particular, experimental methods that were originally designed for the investigation of single bond rupture under force have been applied to investigate the rupture of adhesion clusters. The transition from single to multiple bonds, however, is not trivial and requires theoretical modelling. Rupture of biological adhesion molecules is a thermally activated, stochastic process. In this work, a stochastic model for the rupture and rebinding dynamics of clusters of parallel adhesion molecules under force is presented. In particular, the influence of (i) a constant force as it may be assumed for cellular adhesion clusters is investigated and (ii) the influence of a linearly increasing force as commonly used in experiments is considered. Special attention is paid to the force-mediated cooperativity of parallel adhesion bonds. Finally, the influence of a finite distance between receptors and ligands on the binding dynamics is investigated. Thereby, the distance can be bridged by polymeric linker molecules which tether the ligands to a substrate.
Wahrnehmung und Heterogenität von Fach- und Lehramtsstudierenden im Kontext von Lehrveranstaltungen
(2017)
College+
(2019)
The paper aims at considering characteristics from one field of contemporary visual studies that has for a long time been neglected in academic research: Pictorial signs on Social Network Sites (SNS) are an outstanding class of semiotic resources that is greatly shaped by processes of technological and collective sign production and distribution. A brief examination of the scholarly research on the pragmatics and semiotics of pictorial signs on SNS shows that the heterogeneity of visual signs is often neglected and that it mostly concentrates on one aspect of these pictorial signs: their technological production or their purpose for individual self-disclosure. The paper therefore considers the semiosis of pictorial signs on SNS in a holistic perspective as one the one hand produced by individual and collective meaning making as well as on the other hand a product of technological framing. It therefore develops a techno-semiotic pragmatic account that takes into consideration both processes. Starting from a prominent class of pictorial signs on SNS during Tunisian Revolution, the Tunisian Flag graphics, the paper than shows that communicative and social interaction functions on the graphic interface of SNS (‘like’-function, sharing and commenting option) are not only directly inscribed into the pictorial frame, but also greatly influence the reading of a pictorial sign. The location of images on the SNS’ interface has an impact on its meaning and on the social functions of a pictorial sign, as profile pictures are directly linked to the online identity of the user. Through technological sign processing, the polysemy of the image is reduced. We therefore consider the images on the one hand as individual self-narratives and on the other as instances of SNS’ visual culture that brings out dominant visual codes but also allows social and political movements to spread.
Nachlassgeschichten
(2015)
Der Artikel schildert die Geschichte verschiedener Teile des Manuskriptnachlasses Alexander von Humboldts, die sich heute in der Staatsbibliothek zu Berlin – Preußischer Kulturbesitz (SBB) und in der Biblioteka Jagiellońska in Krakau (BJ) befinden. Dabei wird insbesondere auf den unterschiedlichen ‚Quellenwert‘ der drei großen Nachlassabteilungen – der amerikanischen Reisetagebücher, der Kollektaneen zum Kosmos (beide SBB) und dem sogenannten Nachlass Alexander von Humboldt (BJ) – eingegangen.
Alexander von Humboldts 1827/28 gehaltene Kosmos-Vorträge stellen ebenso einen kanonischen Bezugspunkt wie einen weißen Fleck in der Rezeption seines Schaffens dar. Zahlreiche Deutungen basieren auf lediglich zwei unkommentierten Leseausgaben von Collegheften anonym gebliebener Zuhörer Humboldts. Seine 2009 wiedergefundenen eigenhändigen Vorlesungsmanuskripte versprechen, diese schmale Quellenbasis zu erweitern. Alfred Dove hatte bereits 1872 auf ihre Existenz verwiesen und interpretierte sie damals als Nukleus der schriftlichen Ausarbeitung des Kosmos. Diese Sichtweise hat sich in der Rezeption gehalten, während die Materialien, die Dove beschrieb, in Vergessenheit gerieten. Der Artikel stellt anhand ausgewählter Beispiele die Vorlesungsmanuskripte Humboldts und Nachschriften seiner Zuhörer in ihrem Zusammenhang vor, entwickelt die These von der Eigenständigkeit der sogenannten Kosmos-Vorträge gegenüber dem fünfbändigen Kosmos und umreißt die wichtigsten Ziele und Inhalte der geplanten digitalen Edition.
Langmuir-Blodgett multilayers of hydrocarbon and fluorocarbon polymers with hydrophilic spacer, lipid-polyelectrolyte complexes and mesogenic polymers have been prepared. The thermal behaviour of the multilayers was studied by small angle X-ray scattering, IR and UV—visible spectroscopy. Good thermal stabilities were found for the various classes of polymers. In addition, for both complexed multilayers and mesogenic polymer films, reorientation processes were observed.
Continental rifts are key geodynamic regions where the complex interplay of magmatism and faulting activity can be studied to understand the driving forces of extension and the formation of new divergent plate boundaries. Well-preserved rift morphology can provide a wealth of information on the growth, interaction, and linkage of normal-fault systems through time. If rift basins are preserved over longer geologic time periods, sedimentary archives generated during extensional processes may mirror tectonic and climatic influences on erosional and sedimentary processes that have varied over time. Rift basins are furthermore strategic areas for hydrocarbon and geothermal energy exploration, and they play a central role in species dispersal and evolution as well as providing or inhibiting hydrologic connectivity along basins at emerging plate boundaries.
The Cenozoic East African rift system (EARS) is one of the most important continental extension zones, reflecting a range of evolutionary stages from an early rift stage with isolated basins in Malawi to an advanced stage of continental extension in southern Afar. Consequently, the EARS is an ideal natural laboratory that lends itself to the study of different stages in the breakup of a continent. The volcanically and seismically active eastern branch of the EARS is characterized by multiple, laterally offset tectonic and magmatic segments where adjacent extensional basins facilitate crustal extension either across a broad deformation zone or via major transfer faulting. The Broadly Rifted Zone (BRZ) in southern Ethiopia is an integral part of the eastern branch of the EARS; in this region, rift segments of the southern Ethiopian Rift (sMER) and northern Kenyan Rift (nKR) propagate in opposite directions in a region with one of the earliest manifestations of volcanism and extensional tectonism in East Africa. The basin margins of the Chew-Bahir Basin and the Gofa Province, characterized by a semi-arid climate and largely uniform lithology, provide ideal conditions for studying the tectonic and geomorphologic features of this complex kinematic transfer zone, but more importantly, this area is suitable for characterizing and quantifying the overlap between the propagating structures of the sMER and nKR and the resulting deformation patterns of the BRZ transfer zones.
In this study, I have combined data from thermochronology, thermal modeling, morphometry, paleomagnetic analysis, geochronology, and geomorphological field observations with information from published studies to reconstruct the spatiotemporal relationship between volcanism and fault activity in the BRZ and quantify the deformation patterns of the overlapping rift segments. I present the following results: (1) new thermochronological data from the en-échelon basin margins and footwall blocks of the rift flanks and morphometric results verified in the field to link different phases of magmatism and faulting during extension and infer geomorphological landscape features related to the current tectonic interaction between the nKR and the sMER; (2) temporally constrained paleomagnetic data from the BRZ overlap zone between the Ethiopian and Kenyan rifts to quantitatively determine block rotation between the two segments. Combining the collected data, time-temperature histories of thermal modeling results from representative samples show well-defined deformation phases between 25–20 Ma, 15–9Ma, and ~5 Ma to the present. Each deformation phase is characterized by the onset of rapid cooling (>2°C/Ma) of the crust associated with uplift or exhumation of the rift shoulder. After an initial, spatially very diffuse phase of extension, the rift has gradually evolved into a system of connected structures formed in an increasingly focused rift zone during the last 5 Ma. Regarding the morphometric analysis of the rift structures, it can be shown that normalized slope indices of the river courses, spatial arrangement of knickpoints in the river longitudinal profiles of the footwall blocks, local relief values, and the average maximum values of the slope of the river profiles indicate a gradual increase in the extension rate from north (Sawula basin: mature) to south (Chew Bahir: young). The complexity of the structural evolution of the BRZ overlap zone between nKR and sMER is further emphasized by the documentation of crustal blocks around a vertical axis. A comparison of the mean directions obtained for the Eo-Oligocene (Ds=352.6°, Is=-17.0°, N=18, α95=5.5°) and Miocene (Ds=2.9°, Is=0.9°, N=9, α95=12.4°) volcanics relative to the pole for stable South Africa and with respect to the corresponding ages of the analyzed units record a significant counterclockwise rotation of ~11.1°± 6.4° and insignificant CCW rotation of ~3.2° ± 11.5°, respectively.
Ellipsometrische Lichtstreuung als neue Methode zur Charakterisierung der Grenzfläche von Kolloiden
(2004)
Die ellipsometrische Lichtstreuung wird als eine neue, leistungsfähige Methode zur Charakterisierung von Schichten um kolloidale Partikel vorgestellt. Theoretische Grundlage der Methode ist die Mie-Theorie der Lichtstreuung. Experimentell wurde die Polarisationsoptik eines Null-Ellipsometers in den Strahlengang eines Lichtstreuaufbaus eingebaut. Wie in der Reflexionsellipsometrie um den Brewsterwinkel herum erhält man in der ellipsometrischen Streuung einen Winkelbereich, in dem die Methode empfindlich auf Schichten an der Oberfläche der Partikel ist. An verschiedenen Systemen wurde die Tauglichkeit der ellipsometrischen Streuung zur Charakterisierung von Schichten auf Partikeln demonstriert. So wurden Dicke und Brechungsindex einer thermosensitiven Schicht von Poly(N-isopropylacrylamid) auf einem Poly(methylmethacrylat)-Kern bestimmt. Damit ist es möglich, experimentell den Schichtbrechungsindex und damit den Quellungsgrad zu bestimmen. Des Weiteren wurde der Einfluss der NaCl-Konzentration auf die Polyelektrolythülle von Poly(methylmethacrylat)-Poly(styrolsulfonat)-Blockcopolymer-Partikeln untersucht. Die Polyelektrolytketten liegen im hier untersuchten Beispiel nicht gestreckt vor. Als drittes wurde die Verteilung von niedermolekularen Ionen um elektrostatisch stabilisierte Poly(styrol)-Latexpartikel in Wasser untersucht. Hier wurde gezeigt, dass die beobachteten Schichtdicken und Schichtbrechungsindizes viel größer sind, als nach der klassischen Poisson-Boltzmann-Theorie zu erwarten ist. Des Weiteren wurde die Doppelbrechung von unilamellaren Lipidvesikeln bestimmt. Außerdem wurden Messungen der dynamische Lichtstreuung im Intensitätsminimum der Ellipsometrie durchgeführt. Dabei wird ein Prozess mit einer Korrelationszeit, die unabhängig vom Streuvektor, aber abhängig von der verwendeten Wellenlänge ist, sichtbar. Die Natur dieses Prozesses konnte hier nicht vollständig geklärt werden.
Changes in species' distributions are classically projected based on their climate envelopes. For Siberian forests, which have a tremendous significance for vegetation-climate feedbacks, this implies future shifts of each of the forest-forming larch (Larix) species to the north-east. However, in addition to abiotic factors, reliable projections must assess the role of historical biogeography and biotic interactions. Here, we use sedimentary ancient DNA and individual-based modelling to investigate the distribution of larch species and mitochondrial haplotypes through space and time across the treeline ecotone on the southern Taymyr peninsula, which at the same time presents a boundary area of two larch species. We find spatial and temporal patterns, which suggest that forest density is the most influential driver determining the precise distribution of species and mitochondrial haplotypes. This suggests a strong influence of competition on the species' range shifts. These findings imply possible climate change outcomes that are directly opposed to projections based purely on climate envelopes. Investigations of such fine-scale processes of biodiversity change through time are possible using paleoenvironmental DNA, which is available much more readily than visible fossils and can provide information at a level of resolution that is not reached in classical palaeoecology.
A series of new fluorescent dye bearing monomers, including glycomonomers, based on maleamide and maleic esteramide was synthesized. The dye monomers were incorporated by radical copolymerization into thermo-responsive poly(N-vinyl-caprolactam) that displays a lower critical solution temperature (LCST) in aqueous solution. The effects of the local molecular environment on the polymers' luminescence, in particular on the fluorescence intensity and the extent of solvatochromism, were investigated below as well as above the phase transition. By attaching substituents of varying size and polarity in the close vicinity of the fluorophore, and by varying the spacer groups connecting the dyes to the polymer backbone, we explored the underlying structure-property relationships, in order to establish rules for successful sensor designs, e.g., for molecular thermometers. Most importantly, spacer groups of sufficient length separating the fluorophore from the polymer backbone proved to be crucial for obtaining pronounced temperature regulated fluorescence responses.
Ziel dieser Arbeit war die Synthese und Charakterisierung von neuartigen fluoreszierenden Copolymeren zur Analytdetektion in wässrigen Systemen. Das Detektionssystem sollte ein einfaches Schalten der Fluoreszenz bei Analytbindung „Aus“ bzw. Verdrängung „An“ ermöglichen. Dafür wurde die Synthese eines funktionalisierten Monomers so geplant, dass sich Fluorophor und Analyt innerhalb derselben Monomereinheit in direkter Nachbarschaft zueinander befinden. So sollten bei Erkennung des Analyten durch eine mit einem Fluoreszenzlöscher funktionalisierte Erkennungsstruktur Fluorophor und Löscher in einen vorgegebenen Abstand zueinander gezwungen und die Fluoreszenz des Fluorophors effizient gelöscht werden. Bei anschließender Verdrängung der Erkennungseinheit durch einen stärker bindenden Analyten sollte die Fluoreszenz wieder „angeschaltet“ werden. Eine weitere Zielstellung für das Detektionssystem war eine hohe Löslichkeit und Fluoreszenzintensität in Wasser. Da die Anwendung solcher Sensoren besonders in der Medizin und Biologie, z.B. für Schnellerkennungstest von Pathogenen, von Interesse ist, ist die Kompatibilität mit wässrigen Medien essentiell. Die funktionalisierten Monomere wurden frei radikalisch mit N Vinyl-pyrrolidon bzw. N Vinyl¬caprolactam zu wasserlöslichen, fluoreszierenden Copolymeren umgesetzt. In den N-Vinyl¬pyrrolidon-Polymeren (PNVP) wurde RhodaminB, in den thermoresponsiven N Vinyl¬caprolactam-Polymeren (PNVCL) ein Naphthalsäureimid als Fluorophor verwendet. Während Rhodamine eine hohe Fluoreszenzintensität, gute Quantenausbeuten und hohen Extinktionskoeffizienten in Wasser zeigen, sind Naphthalsäure¬imide umgebungssensitive Chromophore, die bei Änderung ihrer Lösungsmittelumgebung, wie z.B. beim Kollaps eines thermoresponsiven Polymers in Wasser, ihre Fluoreszenzintensität und Quantenausbeute drastisch ändern können. Der Vorteil der hier verwendeten Strategie der Monomersynthese liegt darin, dass bei jeder spezifischen Analytdetektion durch eine Erkennungseinheit die Fluoreszenz effizient gelöscht bzw. bei Verdrängung durch einen stärker bindenden Analyten wieder „angeschaltet“ wird. Dieses Prinzip wird bereits vielfach in der Biologie in sogenannten „Molecular Beacons“ ausgenutzt, wobei ein Fluorophor und ein Löscher durch spezifische DNA Basenpaarung in einen vorgegebenen Abstand zueinander gezwungen werden und so ein „Schalten“ der Fluoreszenz ermöglichen. Aufgrund der vorgegebenen Struktur der DNA Basensequenzen ist es jedoch nicht direkt auf andere Erkennungsreaktionen übertragbar. Daher wurde ein Modellsystem entwickelt, welches die Möglichkeit bietet Analyt, Erkennungseinheit und Signalgeber variabel, je nach Anforderungen des Systems, auszutauschen. So soll es möglich sein, den Sensor a priori für jede Erkennungs¬reaktion zu verwenden. Als Modell Bindungs¬paare wurden ß Cyclodextrin/Adamantan und Con¬cana¬valinA/Mannose ausgewählt. Adamantan bzw. Mannose wurde als Analyt zusammen mit dem Fluorophor in das Polymer eingebunden. ß Cyclo¬dextrin (ß CD) bzw. ConcanavalinA (ConA) wurde als Erkennungsstruktur an einem Fluoreszenzlöscher immobilisiert. Polymer-basierte Fluoreszenzsensoren sind in der Fachliteratur gut dokumentiert. In der Regel sind Signalgeber und Analyt jedoch statistisch im Polymer verteilt, da sie sich entweder in unterschiedlichen Monomereinheiten befinden oder die Funktionalisierung durch eine polymeranaloge Umsetzung erfolgt. Der gewählte Ansatz Fluorophor und Analyt innerhalb derselben Monomereinheit einzubinden, soll bei jeder Erkennungsreaktion des Analyten zu einer Änderung der Signalintensität des Fluorophors führen. Eine hohe Signalintensität bei Analytdetektion ist wünschenswert, insbesondere für Erkennungsreaktionen, die mit möglichst geringem apparativem Aufwand, am besten mit dem bloßen Auge zu verfolgen sein sollen. Des Weiteren ist es möglich den Fluorophorgehalt im Polymer genau einzustellen und so Selbstlöschung zu vermeiden. Die synthetisierten Polymere haben einen Fluorophorgehalt von 0,01 mol% bis 0,5 mol%. Für die RhodaminB haltigen Polymere zeigte sich, dass ein Fluorophorgehalt unterhalb 0,1 mol% im Polymer die höchsten Ausbeuten, Molmassen und Quantenausbeuten liefert. Für die Naphthalsäureimid haltigen Polymere hingegen wurden auch für einen Fluorophorgehalt von bis zu 1 mol% hohe Ausbeuten und Molmassen erreicht. Die Naphthalsäureimid haltigen Polymere haben jedoch in wässriger Lösungsmittelumgebung nur geringe Quantenausbeuten. Als Fluoreszenzlöscher wurden Goldnanopartikel synthetisiert, die mit den entsprechenden Erkennungsstrukturen (ß-CD oder ConA) für den verwendeten Analyten funktionalisiert wurden. Goldnanopartikel als Löscher bieten den Vorteil, dass ihre Dispergierbarkeit in einem Lösemittel durch Funktionalisierung ihrer Hülle gezielt gesteuert werden kann. Durch die hohe Affinität von Goldnanopartikeln zu Thiolen und Aminen konnten sie mit Hilfe einfacher Syntheseschritte mit Thio ß CD Derivaten bzw. ConA funktionalisiert werden. In der hier vorgelegten Arbeit sollte ein Modellsystem für einen solches fluoreszenz-basiertes Detektionssystem in Wasser entwickelt werden. Nachfolgend werden die zu erfüllenden strukturellen Voraussetzungen für die Synthese eines solchen Sensors nochmals zusammengefasst:
1. Verwendung eines Fluorophors, der eine hohe Signalintensität zeigt.
2. Analyt bzw. Erkennungseinheit soll sich im Abstand von wenigen Nanometern zum Signalgeber befinden, um bei jeder Detektionsreaktion die Signalintensität des Signalgebers beeinflussen zu können.
3. Die Detektionseinheit benötigt eine funktionelle Gruppe zur Immobilisierung. Immobilisierung kann z.B. durch Einbindung in ein Polymer erfolgen.
4. Der Fluorophor soll bei Änderung seiner lokalen Umgebung, durch Binden eines Löschers oder Änderung seiner Lösemittelumgebung seine Fluoreszenzeigenschaften drastisch ändern.
5. Die Reaktion sollte schnell und mit möglichst geringem apparativem Aufwand, am besten mit bloßem Auge zu verfolgen sein.
Für das ß-CD/Adamantan Modellsystem wurde ein Fluoreszenz Aus/An Sensor entwickelt, der bei Binden ß CD funktionalisierter Goldnanopartikel an das polymergebundene Adamantan die Fluoreszenz des RhodaminB Fluorophors effizient löscht und bei Verdrängung der Goldnanopartikel wieder zurück gewinnt. Dies konnte auch mit bloßem Auge verfolgt werden.
Für die Naphthalsäureimid Monomere, die mit NVCL copolymerisiert wurden, wurde abhängig von der lokalen Umgebung des Fluorophors eine unterschiedliche Verstärkung der Fluoreszenzintensität bei Überschreiten des Trübungspunktes des Polymers gefunden. Dabei zeigte sich, dass die Einführung eines Abstandshalters zwischen Polymerrückgrat und Fluorophor zu einer großen Fluoreszenz¬verstärkung führt, während sich ohne Abstandshalter die Fluoreszenzintensität bei Über¬schreiten des Trübungspunktes kaum ändert.
Der Autor versucht mit dieser kurzen Einführung eine Übersicht über den Stand der Forschung zu einem Thema zu geben, das in der Forschung bisher noch nicht ausreichend berücksichtigt wurde: der außerschulischen, privatwirtschaftlich organisierten Zusatzbildung, der sogenannten Shadow Education. Der Fokus der Arbeit richtet sich dabei auf die Länder Japan, welches bereits seit den 1970er Jahren ein System außerschulischer Bildungsinstitutionen besitzt, dessen Einfluss auf den Bildungserwerb junger Menschen so stark ist wie in kaum einem anderen Land, und Deutschland, dessen Schattenbildungs- oder Nachhilfesystem noch keinen derartig starken Einfluss ausübt, jedoch in den vergangenen Jahren steten Zuwachs verzeichnen konnte. Interessierten soll dieser Einblick durch die umfangreiche Bibliographie eine Hilfe bei der Recherche zu diesem Thema bieten.
Das Professionswissen einer Lehrkraft gilt als Voraussetzung für erfolgreichen Unterricht. Trotz großer Unterschiede der Professionswissensmodelle ist die Forschung sich aus theoretischer Sicht weitestgehend einig darüber, dass das fachliche und fachdidaktische Wissen wichtige Bestandteile des Professionswissens und damit bedeutsam für Unterrichtserfolg sind. Zurecht gibt es daher die Forderung, dass Lehrkräfte unter anderem ein ausgeprägtes fachliches Wissen benötigen, das sie in den verschiedensten Situationen ihres Berufslebens, wie z.B. dem Erklären von Konzepten und dem Planen von Unterricht einsetzen. Die Forschung untersucht aus diesem Grund schon seit über 30 Jahren die Bedeutung des Fachwissens einer Lehrkraft. Dabei werden die Betrachtungen des Fachwissens immer differenzierter. So hat sich in vielen Forschungsansätzen der Physikdidaktik eine Dreiteilung des Fachwissens in schulisches Wissen, vertieftes Schulwissen und universitäres Wissen durchgesetzt. Während das Schulwissen als jenes Wissen verstanden wird, das in der Schule gelehrt und gelernt wird, beschreibt die Facette des universitären Wissens die stark akademisch geprägte Wissensform, die zukünftige Physiklehrkräfte in den Fachveranstaltungen an der Universität erwerben sollen. Das vertiefte Schulwissen ist hingegen eine spezielle Form des fachlichen Wissens, die aus Forschungssicht als besonders wichtig für Lehrkräfte angenommen wird. Zusammengenommen sollen angehende Physiklehrkräfte alle genannten Facetten des Fachwissens, also Schulwissen, vertieftes Schulwissen und universitäres Wissen, während des Lehramtsstudiums Physik erwerben. Neben dem fachlichen Wissen benötigt eine Lehrkraft als wichtigen Bestandteil des Professionswissens auch noch fachdidaktisches Wissen, welches ebenfalls während des Studiums erworben werden soll. Gleichzeitig geht man in der Forschung davon aus, dass für die Entwicklung des fachdidaktischen Wissens fachliches Wissen eine Grundvoraussetzung ist. Es ist jedoch empirisch nahezu ungeklärt, wie sich das beschriebene Fachwissen und das fachdidaktische Wissen im Verlauf des Lehramtsstudiums Physik entwickeln oder wie sich diese Wissensformen gegenseitig beeinflussen. Darüber hinaus ist unklar, welche Herausforderungen sich aus der Leistungsheterogenität der Studienanfänger:innen ergeben. Bisherige Untersuchungen aus der Studienerfolgsforschung legen nahe, dass besonders das Vorwissen prognostisch für Studienerfolg ist. Die vorliegende Arbeit untersucht daher zunächst, wie sich das fachliche Wissen (Schulwissen, vertieftes Schulwissen, universitäres Wissen) von Lehrkräften im Verlauf des Bachelor- und Masterstudiums entwickelt. In einem nächsten Schritt wurde untersucht, wie sich Studierende mit einem geringen, mittleren bzw. hohen Fachwissen zum Beginn des Studiums über das Bachelorstudium entwickeln. Darüber hinaus wurde die Entwicklung des fachdidaktischen Wissens betrachtet und Zusammenhänge zum fachlichen Wissen in den Blick genommen. Durchgeführt wurde die vorliegende Studie im Längsschnitt im Verlauf von drei Jahren an 11 Hochschulen mit 145 Bachelorstudierenden und 73 Masterstudierenden. Die Bachelorstudierenden haben jährlich an einer Testung des fachlichen und fachdidaktischen Wissens teilgenommen. Die Masterstudierenden nahmen jeweils vor und nach einem einsemestrigen Schulpraktikum an den Erhebungen teil. Zur Testung wurde jeweils ein schriftliches Testinstrument verwendet. Das weiterentwickelte Fachwissensinstrument wurde zusätzlich ausführlichen Validierungsuntersuchungen unterzogen. Die Ergebnisse zeigen, dass sich das Schulwissen, das vertiefte Schulwissen und das universitäre Wissen sowohl im Bachelor- als auch Masterstudium signifikant weiterentwickeln. Auch für das fachdidaktische Wissen können signifikante Zuwächse über das Bachelor- und Masterstudium berichtet werden. Interessant ist dabei, dass eine starke Korrelation zwischen dem fachlichen Wissen zu Beginn des Studiums und dem Zuwachs des fachdidaktischen Wissens vom ersten zum dritten Semester erkennbar ist. Es liegen also erste Hinweise dafür vor, dass – wie in der Forschung vermutet – das fachliche Wissen eine Voraussetzung für die Entwicklung von fachdidaktischem Wissen ist. Die angesprochene Leistungsheterogenität zu Beginn des Studiums stellt dabei jedoch ein Hindernis für die Entwicklung des fachlichen Wissens dar. So holt die Gruppe der zu Beginn schwächeren Studierenden nicht einmal das Mittelfeld im Lauf des Studiums ein. Gleichzeitig ist zu beobachten, dass die Gruppe der stärksten Studierenden im Vergleich zu den übrigen Studierenden vom ersten zum dritten Semester überproportional dazulernt. Insgesamt bleibt das heterogene Leistungsbild im Verlauf des Studiums erhalten, was die Forderung nach Unterstützung für leistungsschwächere Studierende gerade zu Beginn des Studiums betont. Wie sich innerhalb der vorliegenden Untersuchung zeigte, könnte insbesondere ein ausgeprägtes mathematisches Vorwissen hilfreich sein, um fachliches Wissen zu entwickeln. Die bisher angebotenen Vorkurse scheinen dem Bedarf nicht gerecht zu werden und so könnte es lohnenswert sein, zusätzliche Veranstaltungen auch in Bezug auf fachliches Wissen in der gesamten Studieneingangsphase anzubieten. Forschungsergebnisse deuten darauf hin, dass insbesondere schwächere Studierende von einer klaren Strukturierung innerhalb dieser zusätzlichen Kurse profitieren könnten. Auch ein allgemeines Vorstudium könnte helfen, die Vorkenntnisse anzugleichen.
Neuroenhancement (NE), the use of substances as a means to enhance performance, has garnered considerable scientific attention of late. While ethical and epidemiological publications on the topic accumulate, there is a lack of theory-driven psychological research that aims at understanding psychological drivers of NE. In this perspective article we argue that self-control strength offers a promising theory-based approach to further understand and investigate NE behavior. Using the strength model of self-control, we derive two theory-driven perspectives on NE-self-control research. First, we propose that individual differences in state/trait self-control strength differentially affect NE behavior based on one's individual experience of NE use. Building upon this, we outline promising research questions that (will) further elucidate our understanding of NE based on the strength model's propositions. Second, we discuss evidence indicating that popular NE substances (like Methylphenidate) may counteract imminent losses of self-control strength. We outline how further research on NE's effects on the ego-depletion effect may further broaden our understanding of the strength model of self-control.
Im kognitiv-motivationalen Prozessmodell des Lernens wird angenommen, dass der Lernerfolg von der Qualität und der Dauer ausgeführter Lernaktivitäten, aber auch vom Funktionszustand des Lerners während der Lernphase abhängt. Es wird vermutet, dass eine von mehreren Variablen des Funktionszustandes der Flow-Zustand während des Lernens ist. In einer Untersuchung in universitären Fremdsprachenkursen zeigte sich in der Tat, dass Flow-Erleben während des Unterrichts die späteren Lernleistungen auch dann vorhersagt, wenn der Leistungseffekt relevanter Lernkompetenzvariablen vorweg berücksichtigt wird. Gemäß dem kognitiv-motivationalen Prozessmodell wird Flow-Erleben seinerseits über die aktuelle Motivation vor der Lernphase vorhergesagt, wobei die wiederum von einer allgemeineren Motivationsvariablen zu Semesterbeginn abhängt. Diese Struktur wurde in einer zweiten Untersuchung repliziert und zwar an Studenten im Verlauf ihrer Statistikausbildung im Fach Psychologie. Beide Ergebnisse sprechen dafür, dass Flow- Erleben während des Lernens eine leistungsrelevante Variable des Funktionszustandes beim Lernen ist, die sich in ihrer Beziehungsstruktur erwartungsgemäß in das kognitivmotivationale Prozessmodell einpassen lässt.
Statistik Lernen im Rahmen des Psychologiestudiums wurde als Untersuchungsgegenstand zur empirischen Überprüfung der angenommenen Wirkung volitionaler Handlungsregulation herangezogen. Neben fähigkeitsbezogenen und motivationalen Faktoren sollten bei dieser von vielen Studierenden aversiv erlebten Tätigkeit die Aspekte der volitionalen Handlungsregulation entscheidend sein. Nur Personen, die sich trotz des aversiven Tätigkeitserlebens zum Statistik Lernen "zwingen" können, sollten erfolgreich sein. Auf dem Hintergrund des Prozessmodells der Lernmotivation wurden die angenommenen Wirkungen der volitionalen Faktoren denen der motivationalen Einflussgrößen zugeordnet und in einem längsschnittlichen Design an zwei aufeinander folgenden Wintersemestern an der Universität Potsdam und an der TU Berlin empirisch überprüft (N = 273). Die Annahmen zu den fähigkeits- und motivationsrelevanten Faktoren des analyseleitenden Prozessmodells der Lernmotivation konnten weitgehend bestätigt werden. Die Personenmerkmale (fähigkeitsbezogene Merkmale, Leistungsmotiv und Commitment für das Psychologiestudium) bedingen zu einem wesentlichen Teil die Aspekte der aktuellen Motivation für das Statistik Lernen. Letztere wurde durch die Komponenten des Erweiterten Kognitiven Motivationsmodells (EKM) und anhand der Lernintentionen erfasst. Dabei zeigt sich, dass die aktuelle Motivation für das Statistik Lernen insgesamt günstig ausgeprägt ist. Die Aspekte der aktuellen Motivation beeinflussen wiederum Prozessvariablen wie den Lernaufwand, das emotionale Erleben und den Funktionszustand während des Lernens. Der Lernaufwand und das Flow-Erleben (als Indikator für den Funktionszustand) sowie deren Interaktion sagen die Klausurleistung am Ende des Semesters vorher (dies auch, wenn fähigkeitsbezogene Merkmale mit berücksichtigt werden). Vor dem Hintergrund des insgesamt theoriekonsistenten Gesamtbildes ergeben sich dennoch einige Abweichungen von den theoretischen Annahmen. Diese werden eingehend diskutiert. Entgegen der zentralen Annahme, tragen die dem Prozessmodell der Lernmotivation zugeordneten volitionalen Faktoren insgesamt betrachtet kaum zu einem weitergehenden Verständnis des Lernprozesses bei. Die theoretischen Annahmen können weitgehend nicht bestätigt werden. So sagen die volitionalen Faktoren nicht, wie angenommen, bei hoher instrumenteller Handlungsveranlassung und gleichzeitig aversivem Tätigkeitserleben Prozessmerkmale des Lernens vorher. Ausführlich diskutiert wird, inwieweit dies auf falsche theoretische Annahmen oder auf eine mangelnde Operationalisierung und Auswertung zurück geht. Zusätzlich zum Prozessmodell der Lernmotivation wurden weitergehende Annahmen zur Wirkung des impliziten und expliziten Leistungsmotivs überprüft. Dabei zeigt sich erwartungsgemäß, dass sich das implizite Leistungsmotiv beim Statistik Lernen bei einer individuellen Bezugsnorm förderlich auswirkt. Die moderierende Wirkung der sozialen Bezugsnorm für das explizite Leistungsmotiv kann anhand der vorliegenden Daten nicht bestätigt werden. Für das implizite Leistungsmotiv zeigt sich über die Annahmen hinaus eine förderliche Wirkung auf die Klausurteilnahme. Für Personen mit einem hohen impliziten Leistungsmotiv findet sich eine höhere Wahrscheinlichkeit, die Klausur mitzuschreiben. Dieser Befund macht den in der Leistungsmotivationsforschung gefundenen Zusammenhang zwischen Leistungsmotiv und Karriereerfolg "im Kleinen" verständlich. Theoretische Arbeiten legen nahe, dass die volitionale Handlungssteuerung nicht eine unabhängige, sondern eine zum Teil von dem Zusammenwirken der impliziten und expliziten Motivsysteme abhängige Größe darstellt. Für das Leistungsmotiv konnte dies bestätigt werden. So wirkt sich eine hohe Ausprägung des expliziten Leistungsmotivs dann positiv auf die volitionale Handlungssteuerung aus, wenn das implizite Leistungsmotiv hoch ausgeprägt ist. Die Ergebnisse bei den Machtmotivsystemen zeigen, dass nicht immer eine Übereinstimmung der Motive förderlich ist. Eine funktionale Perspektive scheint hier angemessen und weiterführend. Die Arbeit schließt mit der Frage, welche Motivkonstellationen im Sinne einer volitionalen Handlungssteuerung ideal sind. Dabei wird postuliert, dass das Wissen über implizite Vorlieben einer Person helfen sollte, für sie passende Situationen aktiv aufzusuchen oder herzustellen und dadurch eine volitionale Handlungssteuerung besser gelingt sowie diese Art der Steuerung weniger nötig macht.
Adverb positioning is guided by syntactic, semantic, and pragmatic considerations and is subject to cross-linguistic as well as language-specific variation. The goal of the thesis is to identify the factors that determine adverb placement in general (Part I) as well as in constructions in which the adverb's sister constituent is deprived of its phonetic material by movement or ellipsis (gap constructions, Part II) and to provide an Optimality Theoretic approach to the contrasts in the effects of these factors on the distribution of adverbs in English, French, and German. In Optimality Theory (Prince & Smolensky 1993), grammaticality is defined as optimal satisfaction of a hierarchy of violable constraints: for a given input, a set of output candidates are produced out of which that candidate is selected as grammatical output which optimally satisfies the constraint hierarchy. Since grammaticality crucially relies on the hierarchic relations of the constraints, cross-linguistic variation can be traced back to differences in the language-specific constraint rankings. Part I shows how diverse phenomena of adverb placement can be captured by corresponding constraints and their relative rankings: - contrasts in the linearization of adverbs and verbs/auxiliaries in English and French - verb placement in German and the filling of the prefield position - placement of focus-sensitive adverbs - fronting of topical arguments and adverbs Part II extends the analysis to a particular phenomenon of adverb positioning: the avoidance of adverb attachment to a phonetically empty constituent (gap). English and French are similar in that the acceptability of pre-gap adverb placement depends on the type of adverb, its scope, and the syntactic construction (English: wh-movement vs. topicalization / VP Fronting / VP Ellipsis, inverted vs. non-inverted clauses; French: CLLD vs. Cleft, simple vs. periphrastic tense). Yet, the two languages differ in which strategies a specific type of adverb may pursue to escape placement in front of a certain type of gap. In contrast to English and French, placement of an adverb in front of a gap never gives rise to ungrammaticality in German. Rather, word ordering has to obey the syntactic, semantic, and pragmatic principles discussed in Part I; whether or not it results in adverb attachment to a phonetically empty constituent seems to be irrelevant: though constraints are active in every language, the emergence of a visible effect of their requirements in a given language depends on their relative ranking. The complex interaction of the diverse factors as well as their divergent effects on adverb placement in the various languages are accounted for by the universal constraints and their language-specific hierarchic relations in the OT framework.
In experiments investigating sentence processing, eye movement measures such as fixation durations and regression proportions while reading are commonly used to draw conclusions about processing difficulties. However, these measures are the result of an interaction of multiple cognitive levels and processing strategies and thus are only indirect indicators of processing difficulty. In order to properly interpret an eye movement response, one has to understand the underlying principles of adaptive processing such as trade-off mechanisms between reading speed and depth of comprehension that interact with task demands and individual differences. Therefore, it is necessary to establish explicit models of the respective mechanisms as well as their causal relationship with observable behavior. There are models of lexical processing and eye movement control on the one side and models on sentence parsing and memory processes on the other. However, no model so far combines both sides with explicitly defined linking assumptions.
In this thesis, a model is developed that integrates oculomotor control with a parsing mechanism and a theory of cue-based memory retrieval. On the basis of previous empirical findings and independently motivated principles, adaptive, resource-preserving mechanisms of underspecification are proposed both on the level of memory access and on the level of syntactic parsing. The thesis first investigates the model of cue-based retrieval in sentence comprehension of Lewis & Vasishth (2005) with a comprehensive literature review and computational modeling of retrieval interference in dependency processing. The results reveal a great variability in the data that is not explained by the theory. Therefore, two principles, 'distractor prominence' and 'cue confusion', are proposed as an extension to the theory, thus providing a more adequate description of systematic variance in empirical results as a consequence of experimental design, linguistic environment, and individual differences. In the remainder of the thesis, four interfaces between parsing and eye movement control are defined: Time Out, Reanalysis, Underspecification, and Subvocalization. By comparing computationally derived predictions with experimental results from the literature, it is investigated to what extent these four interfaces constitute an appropriate elementary set of assumptions for explaining specific eye movement patterns during sentence processing. Through simulations, it is shown how this system of in itself simple assumptions results in predictions of complex, adaptive behavior.
In conclusion, it is argued that, on all levels, the sentence comprehension mechanism seeks a balance between necessary processing effort and reading speed on the basis of experience, task demands, and resource limitations. Theories of linguistic processing therefore need to be explicitly defined and implemented, in particular with respect to linking assumptions between observable behavior and underlying cognitive processes. The comprehensive model developed here integrates multiple levels of sentence processing that hitherto have only been studied in isolation. The model is made publicly available as an expandable framework for future studies of the interactions between parsing, memory access, and eye movement control.
Die Bienaymé-Galton-Watson Prozesse können für die Untersuchung von speziellen und sich entwickelnden Populationen verwendet werden. Die Populationen umfassen Individuen, welche sich identisch, zufällig, selbstständig und unabhängig voneinander fortpflanzen und die jeweils nur eine Generation existieren. Die n-te Generation ergibt sich als zufällige Summe der Individuen der (n-1)-ten Generation. Die Relevanz dieser Prozesse begründet sich innerhalb der Historie und der inner- und außermathematischen Bedeutung. Die Geschichte der Bienaymé-Galton-Watson-Prozesse wird anhand der Entwicklung des Konzeptes bis heute dargestellt. Dabei werden die Wissenschaftler:innen verschiedener Disziplinen angeführt, die Erkenntnisse zu dem Themengebiet beigetragen und das Konzept in ihren Fachbereichen angeführt haben. Somit ergibt sich die außermathematische Signifikanz. Des Weiteren erhält man die innermathematische Bedeutsamkeit mittels des Konzeptes der Verzweigungsprozesse, welches auf die Bienaymé-Galton-Watson Prozesse zurückzuführen ist. Die Verzweigungsprozesse stellen eines der aussagekräftigsten Modelle für die Beschreibung des Populationswachstums dar. Darüber hinaus besteht die derzeitige Wichtigkeit durch die Anwendungsmöglichkeit der Verzweigungsprozesse und der Bienaymé-Galton-Watson Prozesse innerhalb der Epidemiologie. Es werden die Ebola- und die Corona-Pandemie als Anwendungsfelder angeführt. Die Prozesse dienen als Entscheidungsstütze für die Politik und ermöglichen Aussagen über die Auswirkungen von Maßnahmen bezüglich der Pandemien. Neben den Prozessen werden ebenfalls der bedingte Erwartungswert bezüglich diskreter Zufallsvariablen, die wahrscheinlichkeitserzeugende Funktion und die zufällige Summe eingeführt. Die Konzepte vereinfachen die Beschreibung der Prozesse und bilden somit die Grundlage der Betrachtungen. Außerdem werden die benötigten und weiterführenden Eigenschaften der grundlegenden Themengebiete und der Prozesse aufgeführt und bewiesen. Das Kapitel erreicht seinen Höhepunkt bei dem Beweis des Kritikalitätstheorems, wodurch eine Aussage über das Aussterben des Prozesses in verschiedenen Fällen und somit über die Aussterbewahrscheinlichkeit getätigt werden kann. Die Fälle werden anhand der zu erwartenden Anzahl an Nachkommen eines Individuums unterschieden. Es zeigt sich, dass ein Prozess bei einer zu erwartenden Anzahl kleiner gleich Eins mit Sicherheit ausstirbt und bei einer Anzahl größer als Eins, die Population nicht in jedem Fall aussterben muss. Danach werden einzelne Beispiele, wie der linear fractional case, die Population von Fibroblasten (Bindegewebszellen) von Mäusen und die Entstehungsfragestellung der Prozesse, angeführt. Diese werden mithilfe der erlangten Ergebnisse untersucht und einige ausgewählte zufällige Dynamiken werden im nachfolgenden Kapitel simuliert. Die Simulationen erfolgen durch ein in Python erstelltes Programm und werden mithilfe der Inversionsmethode realisiert. Die Simulationen stellen beispielhaft die Entwicklungen in den verschiedenen Kritikalitätsfällen der Prozesse dar. Zudem werden die Häufigkeiten der einzelnen Populationsgrößen in Form von Histogrammen angebracht. Dabei lässt sich der Unterschied zwischen den einzelnen Fällen bestätigen und es wird die Anwendungsmöglichkeit der Bienaymé-Galton-Watson Prozesse bei komplexeren Problemen deutlich. Histogramme bekräftigen, dass die einzelnen Populationsgrößen nur endlich oft vorkommen. Diese Aussage wurde von Galton aufgeworfen und in der Extinktions-Explosions-Dichotomie verwendet. Die dargestellten Erkenntnisse über das Themengebiet und die Betrachtung des Konzeptes werden mit einer didaktischen Analyse abgeschlossen. Die Untersuchung beinhaltet die Berücksichtigung der Fundamentalen Ideen, der Fundamentalen Ideen der Stochastik und der Leitidee „Daten und Zufall“. Dabei ergibt sich, dass in Abhängigkeit der gewählten Perspektive die Anwendung der Bienaymé-Galton-Watson Prozesse innerhalb der Schule plausibel ist und von Vorteil für die Schüler:innen sein kann. Für die Behandlung wird exemplarisch der Rahmenlehrplan für Berlin und Brandenburg analysiert und mit dem Kernlehrplan Nordrhein-Westfalens verglichen. Die Konzeption des Lehrplans aus Berlin und Brandenburg lässt nicht den Schluss zu, dass die Bienaymé-Galton-Watson Prozesse angewendet werden sollten. Es lässt sich feststellen, dass die zugrunde liegende Leitidee nicht vollumfänglich mit manchen Fundamentalen Ideen der Stochastik vereinbar ist. Somit würde eine Modifikation hinsichtlich einer stärkeren Orientierung des Lehrplans an den Fundamentalen Ideen die Anwendung der Prozesse ermöglichen. Die Aussage wird durch die Betrachtung und Übertragung eines nordrhein-westfälischen Unterrichtsentwurfes für stochastische Prozesse auf die Bienaymé-Galton-Watson Prozesse unterstützt. Darüber hinaus werden eine Concept Map und ein Vernetzungspentagraph nach von der Bank konzipiert um diesen Aspekt hervorzuheben.
The scientific drilling campaign PALEOVAN was conducted in the summer of 2010 and was part of the international continental drilling programme (ICDP). The main goal of the campaign was the recovery of a sensitive climate archive in the East of Anatolia. Lacustrine deposits underneath the lake floor of ‘Lake Van’ constitute this archive. The drilled core material was recovered from two locations: the Ahlat Ridge and the Northern Basin. A composite core was constructed from cored material of seven parallel boreholes at the Ahlat Ridge and covers an almost complete lacustrine history of Lake Van. The composite record offered sensitive climate proxies such as variations of total organic carbon, K/Ca ratios, or a relative abundance of arboreal pollen. These proxies revealed patterns that are similar to climate proxy variations from Greenland ice cores. Climate variations in Greenland ice cores have been dated by modelling the timing of orbital forces to affect the climate. Volatiles from melted ice aliquots are often taken as high-resolution proxies and provide a base for fitting the according temporal models.
The ICDP PALEOVAN scientific team fitted proxy data from the lacustrine drilling record to ice core data and constructed an age model. Embedded volcaniclastic layers had to be dated radiometrically in order to provide independent age constraints to the climate-stratigraphic age model. Solving this task by an application of the 40Ar/39Ar method was the main objective of this thesis. Earlier efforts to apply the 40Ar/39Ar dating resulted in inaccuracies that could not be explained satisfactorily.
The absence of K-rich feldspars in suitable tephra layers implied that feldspar crystals needed to be 500 μm in size minimum, in order to apply single-crystal 40Ar/39Ar dating. Some of the samples did not contain any of these grain sizes or only very few crystals of that size. In order to overcome this problem this study applied a combined single-crystal and multi-crystal approach with different crystal fractions from the same sample. The preferred method of a stepwise heating analysis of an aliquot of feldspar crystals has been applied to three samples. The Na-rich crystals and their young geological age required 20 mg of inclusion-free, non-corroded feldspars. Small sample volumes (usually 25 % aliquots of 5 cm3 of sample material – a spoon full of tephra) and the widespread presence of melt-inclusion led to the application of combined single- and multigrain total fusion analyses. 40Ar/39Ar analyses on single crystals have the advantage of being able to monitor the presence of excess 40Ar and detrital or xenocrystic contamination in the samples. Multigrain analyses may hide the effects from these obstacles. The results from the multigrain analyses are therefore discussed with respect to the findings from the respective cogenetic single crystal ages. Some of the samples in this study were dated by 40Ar/39Ar on feldspars on multigrain separates and (if available) in combination with only a few single crystals. 40Ar/39Ar ages from two of the samples deviated statistically from the age model. All other samples resulted in identical ages. The deviations displayed older ages than those obtained from the age model. t-Tests compared radiometric ages with available age control points from various proxies and from the relative paleointensity of the earth magnetic field within a stratigraphic range of ± 10 m. Concordant age control points from different relative chronometers indicated that deviations are a result of erroneous 40Ar/39Ar ages. The thesis argues two potential reasons for these ages: (1) the irregular appearance of 40Ar from rare melt- and fluid- inclusions and (2) the contamination of the samples with older crystals due to a rapid combination of assimilation and ejection.
Another aliquot of feldspar crystals that underwent separation for the application of 40Ar/39Ar dating was investigated for geochemical inhomogeneities. Magmatic zoning is ubiquitous in the volcaniclastic feldspar crystals. Four different types of magmatic zoning were detected. The zoning types are compositional zoning (C-type zoning), pseudo-oscillatory zoning of trace ele- ment concentrations (PO-type zoning), chaotic and patchy zoning of major and trace element concentrations (R-type zoning) and concentric zoning of trace elements (CC-type zoning). Sam- ples that deviated in 40Ar/39Ar ages showed C-type zoning, R-type zoning or a mix of different types of zoning (C-type and PO-type). Feldspars showing PO-type zoning typically represent the smallest grain size fractions in the samples. The constant major element compositions of these crystals are interpreted to represent the latest stages in the compositional evolution of feldspars in a peralkaline melt. PO-type crystals contain less melt- inclusions than other zoning types and are rarely corroded. This thesis concludes that feldspars that show PO-type zoning are most promising chronometers for the 40Ar/39Ar method, if samples provide mixed zoning types of Quaternary anorthoclase feldspars.
Five samples were dated by applying the 40Ar/39Ar method to volcanic glass. High fractions of atmospheric Ar (typically > 98%) significantly hampered the precision of the 40Ar/39Ar ages and resulted in rough age estimates that widely overlap the age model. Ar isotopes indicated that the glasses bore a chorine-rich Ar-end member. The chlorine-derived 38Ar indicated chlorine-rich fluid-inclusions or the hydration of the volcanic glass shards. This indication strengthened the evidence that irregularly distributed melt-inclusions and thus irregular distributed excess 40Ar influenced the problematic feldspar 40Ar/39Ar ages. Whether a connection between a corrected initial 40Ar/36Ar ratio from glasses to the 40Ar/36Ar ratios from pore waters exists remains unclear.
This thesis offers another age model, which is similarly based on the interpolation of the temporal tie points from geophysical and climate-stratigraphic data. The model used a PCHIP- interpolation (piecewise cubic hermite interpolating polynomial) whereas the older age model used a spline-interpolation. Samples that match in ages from 40Ar/39Ar dating of feldspars with the earlier published age model were additionally assigned with an age from the PCHIP- interpolation. These modelled ages allowed a recalculation of the Alder Creek sanidine mineral standard. The climate-stratigraphic calibration of an 40Ar/39Ar mineral standard proved that the age versus depth interpolations from PAELOVAN drilling cores were accurate, and that the applied chronometers recorded the temporal evolution of Lake Van synchronously.
Petrochemical discrimination of the sampled volcaniclastic material is also given in this thesis. 41 from 57 sampled volcaniclastic layers indicate Nemrut as their provenance. Criteria that served for the provenance assignment are provided and reviewed critically. Detailed correlations of selected PALEOVAN volcaniclastics to onshore samples that were described in detail by earlier studies are also discussed. The sampled volcaniclastics dominantly have a thickness of < 40 cm and have been ejected by small to medium sized eruptions. Onshore deposits from these types of eruptions are potentially eroded due to predominant strong winds on Nemrut and Süphan slopes. An exact correlation with the data presented here is therefore equivocal or not possible at all.
Deviating feldspar 40Ar/39Ar ages can possibly be explained by inherited 40Ar from feldspar xenocrysts contaminating the samples. In order to test this hypothesis diffusion couples of Ba were investigated in compositionally zoned feldspar crystals. The diffusive behaviour of Ba in feldspar is known, and gradients in the changing concentrations allowed for the calculation of the duration of the crystal’s magmatic development since the formation of the zoning interface. Durations were compared with degassing scenarios that model the Ar-loss during assimilation and subsequent ejection of the xenocrystals. Diffusive equilibration of the contrasting Ba concentrations is assumed to generate maximum durations as the gradient could have been developed in several growth and heating stages. The modelling does not show any indication of an involvement of inherited 40Ar in any of the deviating samples. However, the analytical set-up represents the lower limit of the required spatial resolution. Therefore, it cannot be excluded that the degassing modelling relies on a significant overestimation of the maximum duration of the magmatic history. Nevertheless, the modelling of xenocrystal degassing evidences that the irregular incorporation of excess 40Ar by melt- and fluid inclusions represents the most critical problem that needs to be overcome in dating volcaniclastic feldspars from the PALEOVAN drill cores. This thesis provides the complete background in generating and presenting 40Ar/39Ar ages that are compared to age data from a climate-stratigraphic model. Deviations are identified statistically and then discussed in order to find explanations from the age model and/or from 40Ar/39Ar geochronology. Most of the PALEOVAN stratigraphy provides several chronometers that have been proven for their synchronicity. Lacustrine deposits from Lake Van represent a key archive for reconstructing climate evolution in the eastern Mediterranean and in the Near East. The PALEOVAN record offers a climate-stratigraphic age model with a remarkable accuracy and resolution.
Optical methods play an important role in process analytical technologies (PAT). Four examples of optical process and quality sensing (OPQS) are presented, which are based on three important experimental techniques: near-infrared absorption, luminescence quenching, and a novel method, photon density wave (PDW) spectroscopy. These are used to evaluate four process and quality parameters related to beer brewing and polyurethane (PU) foaming processes: the ethanol content and the oxygen (O2) content in beer, the biomass in a bioreactor, and the cellular structures of PU foam produced in a pilot production plant.
Die Anwendung zweier ähnlicher fasergekoppelte Diodenlaser-Spektrometer-Systeme werden vorgestellt. Basis sind handelsübliche DFB-Laserdioden der optischen Kommunikationstechnik. Der faseroptische Aufbau, das Detektionsverfahren (2f Wellenlängenmodulations-Spektroskopie mit Balanced Receiver), Rauschverhalten und Detektionslimit werden diskutiert. Zur in-situ Plasma-Diagnostik von CO- und CO2-Konzentrationen in industriellen CO2-Lasern der Materialbearbeitung wurde eine Wellenlänge von 1582 nm verwendet. Bei einem Gasdruck von 100 hPa und einer Absorptionsweglänge von 14,9 cm wurden mit einer Laserdiode simultan CO- und CO2-Konzentrationen von 0% bis 11% im Gasgefäß bei laufender Hochfrequenzgasentladung des CO2-Lasers zeitaufgelöst gemessen. Vorgestellt und diskutiert werden Aufbau und Eigenschaften des Spektrometers sowie die Ergebnisse der dynamischen Gasanalysen, die zu einer Verbesserung der Katalysator-Technik im CO2-Laser beigetragen haben.Mit isotopenaufgelöster CO- und CO2-Spektroskopie können biologische Gasaustauschprozesse, z.B. in Gasen aus dem Erdboden untersucht werden. Hierzu wurde ein fasergekoppeltes feldtaugliches Diodenlaser-Spektrometer bei Wellenlängen um 1605 nm zur Messungder Isotopologe 12C16O, 13C16O, 12C18O und 12C16O2, 13C16O2, 12C18O16O aufgebaut. Die Messung erfolgt extraktiv in Langwegzellen mit unterschiedlichen Absorptionsweglängen von 100.9 m und 29.9 m. Es werden Kalibrationsmessungen zur Linearität und zur Präzision der Bestimmung der Isotopenverhältnisse sowie Wiederholungsmessungen zur Stabilität vorgestellt. Nachweisgrenzen von wenigen ppm konnten für die CO- und CO2-Isotopologen erhalten werden.
Eccentric exercise is discussed as a treatment option for clinical populations, but specific responses in terms of muscle damage and systemic inflammation after repeated loading of large muscle groups have not been conclusively characterized. Therefore, this study tested the feasibility of an isokinetic protocol for repeated maximum eccentric loading of the trunk muscles. Nine asymptomatic participants (5 f/4 m; 34±6 yrs; 175±13 cm; 76±17 kg) performed three isokinetic 2-minute all-out trunk strength tests (1x concentric (CON), 2x eccentric (ECC1, ECC2), 2 weeks apart; flexion/extension, 60°/s, ROM 55°). Outcomes were peak torque, torque decline, total work, and indicators of muscle damage and inflammation (over 168 h). Statistics were done using the Friedman test (Dunn’s post-test). For ECC1 and ECC2, peak torque and total work were increased and torque decline reduced compared to CON. Repeated ECC bouts yielded unaltered torque and work outcomes. Muscle damage markers were highest after ECC1 (soreness 48 h, creatine kinase 72 h; p<0.05). Their overall responses (area under the curve) were abolished post-ECC2 compared to post-ECC1 (p<0.05). Interleukin-6 was higher post-ECC1 than CON, and attenuated post-ECC2 (p>0.05). Interleukin-10 and tumor necrosis factor-α were not detectable. All markers showed high inter-individual variability. The protocol was feasible to induce muscle damage indicators after exercising a large muscle group, but the pilot results indicated only weak systemic inflammatory responses in asymptomatic adults.
Background: Low back pain (LBP) is one of the world wide leading causes of limited activity and disability. Impaired motor control has been found to be one of the possible factors related to the development or persistence of LBP. In particularly, motor control strategies seemed to be altered in situations requiring reactive responses of the trunk counteracting sudden external forces. However, muscular responses were mostly assessed in (quasi) static testing situations under simplified laboratory conditions. Comprehensive investigations in motor control strategies during dynamic everyday situations are lacking. The present research project aimed to investigate muscular compensation strategies following unexpected gait perturbations in people with and without LBP. A novel treadmill stumbling protocol was tested for its validity and reliability to provoke muscular reflex responses at the trunk and the lower extremities (study 1). Thereafter, motor control strategies in response to sudden perturbations were compared between people with LBP and asymptomatic controls (CTRL) (study 2). In accordance with more recent concepts of motor adaptation to pain, it was hypothesized that pain may have profound consequences on motor control strategies in LBP. Therefore, it was investigated whether differences in compensation strategies were either consisting of changes local to the painful area at the trunk, or also being present in remote areas such as at the lower extremities.
Methods: All investigations were performed on a custom build split-belt treadmill simulating trip-like events by unexpected rapid deceleration impulses (amplitude: 2 m/s; duration: 100 ms; 200 ms after heel contact) at 1m/s baseline velocity. A total number of 5 (study 1) and 15 (study 2) right sided perturbations were applied during walking trials. Muscular activities were assessed by surface electromyography (EMG), recorded at 12 trunk muscles and 10 (study 1) respectively 5 (study 2) leg muscles. EMG latencies of muscle onset [ms] were retrieved by a semi-automatic detection method. EMG amplitudes (root mean square (RMS)) were assessed within 200 ms post perturbation, normalized to full strides prior to any perturbation [RMS%]. Latency and amplitude investigations were performed for each muscle individually, as well as for pooled data of muscles grouped by location. Characteristic pain intensity scores (CPIS; 0-100 points, von Korff) based on mean intensity ratings reported for current, worst and average pain over the last three months were used to allocate participants into LBP (≥30 points) or CTRL (≤10 points). Test-retest reproducibility between measurements was determined by a compilation of measures of reliability. Differences in muscular activities between LBP and CTRL were analysed descriptively for individual muscles; differences based on grouped muscles were statistically tested by using a multivariate analysis of variance (MANOVA, α =0.05).
Results: Thirteen individuals were included into the analysis of study 1. EMG latencies revealed reflex muscle activities following the perturbation (mean: 89 ms). Respective EMG amplitudes were on average 5-fold of those assessed in unperturbed strides, though being characterized by a high inter-subject variability. Test-retest reliability of muscle latencies showed a high reproducibility, both for muscles at the trunk and legs. In contrast, reproducibility of amplitudes was only weak to moderate for individual muscles, but increased when being assessed as a location specific outcome summary of grouped muscles. Seventy-six individuals were eligible for data analysis in study 2. Group allocation according to CPIS resulted in n=25 for LBP and n=29 for CTRL. Descriptive analysis of activity onsets revealed longer delays for all muscles within LBP compared to CTRL (trunk muscles: mean 10 ms; leg muscles: mean 3 ms). Onset latencies of grouped muscles revealed statistically significant differences between LBP and CTRL for right (p=0.009) and left (p=0.007) abdominal muscle groups. EMG amplitude analysis showed a high variability in activation levels between individuals, independent of group assignment or location. Statistical testing of grouped muscles indicated no significant difference in amplitudes between LBP and CTRL.
Discussion: The present research project could show that perturbed treadmill walking is suitable to provoke comprehensive reflex responses at the trunk and lower extremities, both in terms of sudden onsets and amplitudes of reflex activity. Moreover, it could demonstrate that sudden loadings under dynamic conditions provoke an altered reflex timing of muscles surrounding the trunk in people with LBP compared to CTRL. In line with previous investigations, compensation strategies seemed to be deployed in a task specific manner, with differences between LBP and CTRL being evident predominately at ventral sides. No muscular alterations exceeding the trunk could be found when being assessed under the automated task of locomotion. While rehabilitation programs tailored towards LBP are still under debate, it is tempting to urge the implementation of dynamic sudden loading incidents of the trunk to enhance motor control and thereby to improve spinal protection. Moreover, in respect to the consistently observed task specificity of muscular compensation strategies, such a rehabilitation program should be rich in variety.
Portal Wissen = Health
(2020)
The Coronavirus pandemic has made it very clear how much health and well-being determine our lives. And that science led the way in this regard could not be ignored. At the University of Potsdam, too, many researchers deal with aspects of health maintenance, whether in nutritional sciences, sports and rehabilitation medicine, biochemistry, or psychology. Their research includes supporting chronically ill children and the professional handling of risks, as you can read in this issue of our magazine.
With the establishment of our seventh faculty, the Faculty of Health Sciences, these and many new medical topics are getting more attention at the University of Potsdam. While in the beginning, the “Brandenburg Health Campus” funded by the federal state of Brandenburg was a virtual network of university and non-university research, it is now getting more points of intersection and, not only since COVID-19, a very practical use and plausible to everyone.
The Faculty of Health Sciences, founded in 2018, is supported by three institutions: the University of Potsdam, the Brandenburg Technical University Cottbus-Senftenberg and the Brandenburg Medical School in Neuruppin. They pursue an interdisciplinary approach that holistically develops teaching, transfers new scientific findings from theory to practice and thus further improves overall medical care in Brandenburg. Their vision of being a central platform of research, teaching, and transfer combines socially relevant issues and existing expertise to align them with the needs of people in Brandenburg and use them to their benefit. This interdisciplinary structure has never been more important to advancing patient-oriented basic research and health care models. An innovative concept that can make Brandenburg a pioneer.
In the meantime, the Faculty of Health Sciences has established 16 new professorships at the supporting universities, which are concerned with medicine and healthy aging, health services research, nursing and rehabilitation sciences, and telemedicine. Cardiology and physiology will play a central role as well. In general, the innovative faculty counts on strong interdisciplinary relationships, for example with nutritional sciences and the digital health department at the Digital Engineering Faculty. The role of digitization and well-prepared data in combating the Coronavirus pandemic can also be read about in this issue.
As usual, the research magazine addresses the full range of research at the university: We introduce historian Dominik Geppert, who deals with the history of unified Germany after 1990 embedded in the tensions created by a context of national unification, European integration, and global networking. In a self-experiment, we explored together with a psycholinguist how to research word-finding disorders. Last but not least, we were able to take part in a trip to Namibia, where ecologists from Potsdam examine wildlife management in the threatened savannah. Let them take you where kudu and springbok live!
Portal Wissen = Gesundheit
(2020)
Wie stark Gesundheit und Wohlbefinden unser Leben bestimmen, hat uns die Corona-Pandemie eindringlich vor Augen geführt. Und dass die Wissenschaft in diesem Kontext den Takt vorgibt, war nicht zu überhören. Auch an der Universität Potsdam beschäftigen sich zahlreich Forscherinnen und Forscher mit Fragen der Gesunderhaltung, ob in den Ernährungswissenschaften, der Sport- und Rehabilitationsmedizin, der Biochemie oder der Psychologie. Das Spektrum reicht von der Entwicklung antimikrobieller Polymere und eines Sensors für die Atemgasanalyse bis zur Unterstützung chronisch kranker Kinder und dem kompetenten Umgang mit Risiken, wie in dieser Ausgabe unseres Magazins zu lesen ist.
Mit dem Aufbau unserer siebenten, einer Gesundheitswissenschaften Fakultät rücken solche und viele neue medizinische Themen an der Universität Potsdam stärker in den Fokus. War der vom Land geförderte „Gesundheitscampus Brandenburg“ am Anfang noch ein virtuelles Netzwerk von universitärer und außeruniversitärer Forschung, bekommt es nun mehr und mehr Knotenpunkte und nicht erst seit Corona einen ganz praktischen Nutzen – für jeden nachvollziehbar.
Die 2018 gegründete Fakultät für Gesundheitswissenschaften wird von drei Einrichtungen getragen: der Universität Potsdam, der Brandenburgischen Technischen Universität Cottbus- Senftenberg und der Medizinischen Hochschule Brandenburg in Neuruppin. Gemeinsam verfolgen sie einen fächerübergreifenden Ansatz, der die Lehre ganzheitlich weiterentwickelt, neue wissenschaftliche Erkenntnisse von der Theorie in die Praxis bringt und damit insgesamt die medizinische Versorgung in Brandenburg weiter verbessert. Ihre Vision, zentrale Plattform in Forschung, Lehre und Transfer zu sein, bündelt gesellschaftlich relevante Fragen und vorhandene Expertisen, um sie am Bedarf der Menschen im Land auszurichten und für ihr Wohl einzusetzen. Nie war diese hochschulübergreifende Struktur wichtiger, um patientenorientierte Grundlagenforschung und Modelle der Gesundheitsversorgung voranzutreiben. Ein wegweisendes Konzept, mit dem Brandenburg Vorreiter sein kann.
Inzwischen hat die Fakultät für Gesundheitswissenschaften 16 neue Professuren an den einzelnen Trägerhochschulen etabliert. Es geht um die Medizin und Gesundheit des Alterns, um Versorgungsforschung, Pflege- und Rehabilitationswissenschaften sowie Telemedizin. Auch die Kardiologie und Physiologie werden eine zentrale Rolle spielen. Generell setzt die innovative Fakultät auf starke Querbeziehungen beispielsweise zu den Ernährungswissenschaften oder zum Fachgebiet Digital Health an der Digital Engineering Fakultät. Welche Rolle die Digitalisierung und gut aufbereitete Daten bei der Bekämpfung der Corona-Pandemie spielen, ist ganz aktuell auch in diesem Heft zu erfahren.
Aber natürlich widmet sich das Forschungsmagazin wie stets der ganzen fachlichen Breite der Universität: So stellen wir den Historiker Dominik Geppert vor, der sich mit der Geschichte des vereinigten Deutschlands nach 1990 im Spannungsfeld von nationaler Einigung, europäischer Integration und globaler Vernetzung befasst. Im Selbstversuch haben wir mit einer Psycholinguistin erkundet, wie sich Wortfindungsstörungen erforschen lassen. Ebenfalls einem Test unterzogen wir eine neuartige vegane Milch, die ein findiges Start-up aus Erbsen herstellt. Nicht zuletzt durften wir teilhaben an einer Reise nach Namibia, wo Potsdamer Ökologen das Wildtiermanagement in der bedrohten Savanne untersuchen. Lassen Sie sich von ihnen dorthin mitnehmen, wo sich Kudu und Springbock Gute Nacht sagen!
In diesem Beitrag berichten wir über die Erfahrungen einer umgestalteten Lehre im Bereich Informatik und Gesellschft (IuG). Die Gründe für die Umge staltung und die Konzeption werden skizziert. Die Erfahrungen haben wir zu Thesen verdichtet: 1. Informatik und Gesellschaft sollte eine Pflichtveranstaltung im Bachelor-Studium sein, in der Studierende einen Überblick erhalten, welche gesellschaftlichen Rahmenbedingungen für sie relevant sind und wie man diese in die Praxis mit einbeziehen kann. 2. Historische Inhalte der Informatik sollen hier aufgearbeitet werden, indem man aktuelle Entwicklungen im Kontext ihrer Genese betrachtet.