Refine
Has Fulltext
- yes (13317) (remove)
Year of publication
Document Type
- Article (3993)
- Postprint (3294)
- Doctoral Thesis (2526)
- Monograph/Edited Volume (970)
- Review (558)
- Part of Periodical (489)
- Preprint (446)
- Master's Thesis (264)
- Conference Proceeding (245)
- Working Paper (245)
Language
- German (7038)
- English (5979)
- Spanish (80)
- French (75)
- Multiple languages (62)
- Russian (62)
- Hebrew (9)
- Italian (6)
- Portuguese (2)
- Hungarian (1)
Keywords
- Germany (118)
- Deutschland (106)
- climate change (79)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Logopädie (72)
- Zeitschrift (71)
- Nachhaltigkeit (61)
- European Union (59)
Institute
- Extern (1376)
- MenschenRechtsZentrum (943)
- Institut für Physik und Astronomie (714)
- Institut für Biochemie und Biologie (708)
- Wirtschaftswissenschaften (583)
- Institut für Chemie (555)
- Institut für Mathematik (519)
- Institut für Geowissenschaften (509)
- Institut für Romanistik (509)
- Mathematisch-Naturwissenschaftliche Fakultät (489)
Changes in species' distributions are classically projected based on their climate envelopes. For Siberian forests, which have a tremendous significance for vegetation-climate feedbacks, this implies future shifts of each of the forest-forming larch (Larix) species to the north-east. However, in addition to abiotic factors, reliable projections must assess the role of historical biogeography and biotic interactions. Here, we use sedimentary ancient DNA and individual-based modelling to investigate the distribution of larch species and mitochondrial haplotypes through space and time across the treeline ecotone on the southern Taymyr peninsula, which at the same time presents a boundary area of two larch species. We find spatial and temporal patterns, which suggest that forest density is the most influential driver determining the precise distribution of species and mitochondrial haplotypes. This suggests a strong influence of competition on the species' range shifts. These findings imply possible climate change outcomes that are directly opposed to projections based purely on climate envelopes. Investigations of such fine-scale processes of biodiversity change through time are possible using paleoenvironmental DNA, which is available much more readily than visible fossils and can provide information at a level of resolution that is not reached in classical palaeoecology.
A series of new fluorescent dye bearing monomers, including glycomonomers, based on maleamide and maleic esteramide was synthesized. The dye monomers were incorporated by radical copolymerization into thermo-responsive poly(N-vinyl-caprolactam) that displays a lower critical solution temperature (LCST) in aqueous solution. The effects of the local molecular environment on the polymers' luminescence, in particular on the fluorescence intensity and the extent of solvatochromism, were investigated below as well as above the phase transition. By attaching substituents of varying size and polarity in the close vicinity of the fluorophore, and by varying the spacer groups connecting the dyes to the polymer backbone, we explored the underlying structure-property relationships, in order to establish rules for successful sensor designs, e.g., for molecular thermometers. Most importantly, spacer groups of sufficient length separating the fluorophore from the polymer backbone proved to be crucial for obtaining pronounced temperature regulated fluorescence responses.
Ziel dieser Arbeit war die Synthese und Charakterisierung von neuartigen fluoreszierenden Copolymeren zur Analytdetektion in wässrigen Systemen. Das Detektionssystem sollte ein einfaches Schalten der Fluoreszenz bei Analytbindung „Aus“ bzw. Verdrängung „An“ ermöglichen. Dafür wurde die Synthese eines funktionalisierten Monomers so geplant, dass sich Fluorophor und Analyt innerhalb derselben Monomereinheit in direkter Nachbarschaft zueinander befinden. So sollten bei Erkennung des Analyten durch eine mit einem Fluoreszenzlöscher funktionalisierte Erkennungsstruktur Fluorophor und Löscher in einen vorgegebenen Abstand zueinander gezwungen und die Fluoreszenz des Fluorophors effizient gelöscht werden. Bei anschließender Verdrängung der Erkennungseinheit durch einen stärker bindenden Analyten sollte die Fluoreszenz wieder „angeschaltet“ werden. Eine weitere Zielstellung für das Detektionssystem war eine hohe Löslichkeit und Fluoreszenzintensität in Wasser. Da die Anwendung solcher Sensoren besonders in der Medizin und Biologie, z.B. für Schnellerkennungstest von Pathogenen, von Interesse ist, ist die Kompatibilität mit wässrigen Medien essentiell. Die funktionalisierten Monomere wurden frei radikalisch mit N Vinyl-pyrrolidon bzw. N Vinyl¬caprolactam zu wasserlöslichen, fluoreszierenden Copolymeren umgesetzt. In den N-Vinyl¬pyrrolidon-Polymeren (PNVP) wurde RhodaminB, in den thermoresponsiven N Vinyl¬caprolactam-Polymeren (PNVCL) ein Naphthalsäureimid als Fluorophor verwendet. Während Rhodamine eine hohe Fluoreszenzintensität, gute Quantenausbeuten und hohen Extinktionskoeffizienten in Wasser zeigen, sind Naphthalsäure¬imide umgebungssensitive Chromophore, die bei Änderung ihrer Lösungsmittelumgebung, wie z.B. beim Kollaps eines thermoresponsiven Polymers in Wasser, ihre Fluoreszenzintensität und Quantenausbeute drastisch ändern können. Der Vorteil der hier verwendeten Strategie der Monomersynthese liegt darin, dass bei jeder spezifischen Analytdetektion durch eine Erkennungseinheit die Fluoreszenz effizient gelöscht bzw. bei Verdrängung durch einen stärker bindenden Analyten wieder „angeschaltet“ wird. Dieses Prinzip wird bereits vielfach in der Biologie in sogenannten „Molecular Beacons“ ausgenutzt, wobei ein Fluorophor und ein Löscher durch spezifische DNA Basenpaarung in einen vorgegebenen Abstand zueinander gezwungen werden und so ein „Schalten“ der Fluoreszenz ermöglichen. Aufgrund der vorgegebenen Struktur der DNA Basensequenzen ist es jedoch nicht direkt auf andere Erkennungsreaktionen übertragbar. Daher wurde ein Modellsystem entwickelt, welches die Möglichkeit bietet Analyt, Erkennungseinheit und Signalgeber variabel, je nach Anforderungen des Systems, auszutauschen. So soll es möglich sein, den Sensor a priori für jede Erkennungs¬reaktion zu verwenden. Als Modell Bindungs¬paare wurden ß Cyclodextrin/Adamantan und Con¬cana¬valinA/Mannose ausgewählt. Adamantan bzw. Mannose wurde als Analyt zusammen mit dem Fluorophor in das Polymer eingebunden. ß Cyclo¬dextrin (ß CD) bzw. ConcanavalinA (ConA) wurde als Erkennungsstruktur an einem Fluoreszenzlöscher immobilisiert. Polymer-basierte Fluoreszenzsensoren sind in der Fachliteratur gut dokumentiert. In der Regel sind Signalgeber und Analyt jedoch statistisch im Polymer verteilt, da sie sich entweder in unterschiedlichen Monomereinheiten befinden oder die Funktionalisierung durch eine polymeranaloge Umsetzung erfolgt. Der gewählte Ansatz Fluorophor und Analyt innerhalb derselben Monomereinheit einzubinden, soll bei jeder Erkennungsreaktion des Analyten zu einer Änderung der Signalintensität des Fluorophors führen. Eine hohe Signalintensität bei Analytdetektion ist wünschenswert, insbesondere für Erkennungsreaktionen, die mit möglichst geringem apparativem Aufwand, am besten mit dem bloßen Auge zu verfolgen sein sollen. Des Weiteren ist es möglich den Fluorophorgehalt im Polymer genau einzustellen und so Selbstlöschung zu vermeiden. Die synthetisierten Polymere haben einen Fluorophorgehalt von 0,01 mol% bis 0,5 mol%. Für die RhodaminB haltigen Polymere zeigte sich, dass ein Fluorophorgehalt unterhalb 0,1 mol% im Polymer die höchsten Ausbeuten, Molmassen und Quantenausbeuten liefert. Für die Naphthalsäureimid haltigen Polymere hingegen wurden auch für einen Fluorophorgehalt von bis zu 1 mol% hohe Ausbeuten und Molmassen erreicht. Die Naphthalsäureimid haltigen Polymere haben jedoch in wässriger Lösungsmittelumgebung nur geringe Quantenausbeuten. Als Fluoreszenzlöscher wurden Goldnanopartikel synthetisiert, die mit den entsprechenden Erkennungsstrukturen (ß-CD oder ConA) für den verwendeten Analyten funktionalisiert wurden. Goldnanopartikel als Löscher bieten den Vorteil, dass ihre Dispergierbarkeit in einem Lösemittel durch Funktionalisierung ihrer Hülle gezielt gesteuert werden kann. Durch die hohe Affinität von Goldnanopartikeln zu Thiolen und Aminen konnten sie mit Hilfe einfacher Syntheseschritte mit Thio ß CD Derivaten bzw. ConA funktionalisiert werden. In der hier vorgelegten Arbeit sollte ein Modellsystem für einen solches fluoreszenz-basiertes Detektionssystem in Wasser entwickelt werden. Nachfolgend werden die zu erfüllenden strukturellen Voraussetzungen für die Synthese eines solchen Sensors nochmals zusammengefasst:
1. Verwendung eines Fluorophors, der eine hohe Signalintensität zeigt.
2. Analyt bzw. Erkennungseinheit soll sich im Abstand von wenigen Nanometern zum Signalgeber befinden, um bei jeder Detektionsreaktion die Signalintensität des Signalgebers beeinflussen zu können.
3. Die Detektionseinheit benötigt eine funktionelle Gruppe zur Immobilisierung. Immobilisierung kann z.B. durch Einbindung in ein Polymer erfolgen.
4. Der Fluorophor soll bei Änderung seiner lokalen Umgebung, durch Binden eines Löschers oder Änderung seiner Lösemittelumgebung seine Fluoreszenzeigenschaften drastisch ändern.
5. Die Reaktion sollte schnell und mit möglichst geringem apparativem Aufwand, am besten mit bloßem Auge zu verfolgen sein.
Für das ß-CD/Adamantan Modellsystem wurde ein Fluoreszenz Aus/An Sensor entwickelt, der bei Binden ß CD funktionalisierter Goldnanopartikel an das polymergebundene Adamantan die Fluoreszenz des RhodaminB Fluorophors effizient löscht und bei Verdrängung der Goldnanopartikel wieder zurück gewinnt. Dies konnte auch mit bloßem Auge verfolgt werden.
Für die Naphthalsäureimid Monomere, die mit NVCL copolymerisiert wurden, wurde abhängig von der lokalen Umgebung des Fluorophors eine unterschiedliche Verstärkung der Fluoreszenzintensität bei Überschreiten des Trübungspunktes des Polymers gefunden. Dabei zeigte sich, dass die Einführung eines Abstandshalters zwischen Polymerrückgrat und Fluorophor zu einer großen Fluoreszenz¬verstärkung führt, während sich ohne Abstandshalter die Fluoreszenzintensität bei Über¬schreiten des Trübungspunktes kaum ändert.
Der Autor versucht mit dieser kurzen Einführung eine Übersicht über den Stand der Forschung zu einem Thema zu geben, das in der Forschung bisher noch nicht ausreichend berücksichtigt wurde: der außerschulischen, privatwirtschaftlich organisierten Zusatzbildung, der sogenannten Shadow Education. Der Fokus der Arbeit richtet sich dabei auf die Länder Japan, welches bereits seit den 1970er Jahren ein System außerschulischer Bildungsinstitutionen besitzt, dessen Einfluss auf den Bildungserwerb junger Menschen so stark ist wie in kaum einem anderen Land, und Deutschland, dessen Schattenbildungs- oder Nachhilfesystem noch keinen derartig starken Einfluss ausübt, jedoch in den vergangenen Jahren steten Zuwachs verzeichnen konnte. Interessierten soll dieser Einblick durch die umfangreiche Bibliographie eine Hilfe bei der Recherche zu diesem Thema bieten.
Das Professionswissen einer Lehrkraft gilt als Voraussetzung für erfolgreichen Unterricht. Trotz großer Unterschiede der Professionswissensmodelle ist die Forschung sich aus theoretischer Sicht weitestgehend einig darüber, dass das fachliche und fachdidaktische Wissen wichtige Bestandteile des Professionswissens und damit bedeutsam für Unterrichtserfolg sind. Zurecht gibt es daher die Forderung, dass Lehrkräfte unter anderem ein ausgeprägtes fachliches Wissen benötigen, das sie in den verschiedensten Situationen ihres Berufslebens, wie z.B. dem Erklären von Konzepten und dem Planen von Unterricht einsetzen. Die Forschung untersucht aus diesem Grund schon seit über 30 Jahren die Bedeutung des Fachwissens einer Lehrkraft. Dabei werden die Betrachtungen des Fachwissens immer differenzierter. So hat sich in vielen Forschungsansätzen der Physikdidaktik eine Dreiteilung des Fachwissens in schulisches Wissen, vertieftes Schulwissen und universitäres Wissen durchgesetzt. Während das Schulwissen als jenes Wissen verstanden wird, das in der Schule gelehrt und gelernt wird, beschreibt die Facette des universitären Wissens die stark akademisch geprägte Wissensform, die zukünftige Physiklehrkräfte in den Fachveranstaltungen an der Universität erwerben sollen. Das vertiefte Schulwissen ist hingegen eine spezielle Form des fachlichen Wissens, die aus Forschungssicht als besonders wichtig für Lehrkräfte angenommen wird. Zusammengenommen sollen angehende Physiklehrkräfte alle genannten Facetten des Fachwissens, also Schulwissen, vertieftes Schulwissen und universitäres Wissen, während des Lehramtsstudiums Physik erwerben. Neben dem fachlichen Wissen benötigt eine Lehrkraft als wichtigen Bestandteil des Professionswissens auch noch fachdidaktisches Wissen, welches ebenfalls während des Studiums erworben werden soll. Gleichzeitig geht man in der Forschung davon aus, dass für die Entwicklung des fachdidaktischen Wissens fachliches Wissen eine Grundvoraussetzung ist. Es ist jedoch empirisch nahezu ungeklärt, wie sich das beschriebene Fachwissen und das fachdidaktische Wissen im Verlauf des Lehramtsstudiums Physik entwickeln oder wie sich diese Wissensformen gegenseitig beeinflussen. Darüber hinaus ist unklar, welche Herausforderungen sich aus der Leistungsheterogenität der Studienanfänger:innen ergeben. Bisherige Untersuchungen aus der Studienerfolgsforschung legen nahe, dass besonders das Vorwissen prognostisch für Studienerfolg ist. Die vorliegende Arbeit untersucht daher zunächst, wie sich das fachliche Wissen (Schulwissen, vertieftes Schulwissen, universitäres Wissen) von Lehrkräften im Verlauf des Bachelor- und Masterstudiums entwickelt. In einem nächsten Schritt wurde untersucht, wie sich Studierende mit einem geringen, mittleren bzw. hohen Fachwissen zum Beginn des Studiums über das Bachelorstudium entwickeln. Darüber hinaus wurde die Entwicklung des fachdidaktischen Wissens betrachtet und Zusammenhänge zum fachlichen Wissen in den Blick genommen. Durchgeführt wurde die vorliegende Studie im Längsschnitt im Verlauf von drei Jahren an 11 Hochschulen mit 145 Bachelorstudierenden und 73 Masterstudierenden. Die Bachelorstudierenden haben jährlich an einer Testung des fachlichen und fachdidaktischen Wissens teilgenommen. Die Masterstudierenden nahmen jeweils vor und nach einem einsemestrigen Schulpraktikum an den Erhebungen teil. Zur Testung wurde jeweils ein schriftliches Testinstrument verwendet. Das weiterentwickelte Fachwissensinstrument wurde zusätzlich ausführlichen Validierungsuntersuchungen unterzogen. Die Ergebnisse zeigen, dass sich das Schulwissen, das vertiefte Schulwissen und das universitäre Wissen sowohl im Bachelor- als auch Masterstudium signifikant weiterentwickeln. Auch für das fachdidaktische Wissen können signifikante Zuwächse über das Bachelor- und Masterstudium berichtet werden. Interessant ist dabei, dass eine starke Korrelation zwischen dem fachlichen Wissen zu Beginn des Studiums und dem Zuwachs des fachdidaktischen Wissens vom ersten zum dritten Semester erkennbar ist. Es liegen also erste Hinweise dafür vor, dass – wie in der Forschung vermutet – das fachliche Wissen eine Voraussetzung für die Entwicklung von fachdidaktischem Wissen ist. Die angesprochene Leistungsheterogenität zu Beginn des Studiums stellt dabei jedoch ein Hindernis für die Entwicklung des fachlichen Wissens dar. So holt die Gruppe der zu Beginn schwächeren Studierenden nicht einmal das Mittelfeld im Lauf des Studiums ein. Gleichzeitig ist zu beobachten, dass die Gruppe der stärksten Studierenden im Vergleich zu den übrigen Studierenden vom ersten zum dritten Semester überproportional dazulernt. Insgesamt bleibt das heterogene Leistungsbild im Verlauf des Studiums erhalten, was die Forderung nach Unterstützung für leistungsschwächere Studierende gerade zu Beginn des Studiums betont. Wie sich innerhalb der vorliegenden Untersuchung zeigte, könnte insbesondere ein ausgeprägtes mathematisches Vorwissen hilfreich sein, um fachliches Wissen zu entwickeln. Die bisher angebotenen Vorkurse scheinen dem Bedarf nicht gerecht zu werden und so könnte es lohnenswert sein, zusätzliche Veranstaltungen auch in Bezug auf fachliches Wissen in der gesamten Studieneingangsphase anzubieten. Forschungsergebnisse deuten darauf hin, dass insbesondere schwächere Studierende von einer klaren Strukturierung innerhalb dieser zusätzlichen Kurse profitieren könnten. Auch ein allgemeines Vorstudium könnte helfen, die Vorkenntnisse anzugleichen.
Neuroenhancement (NE), the use of substances as a means to enhance performance, has garnered considerable scientific attention of late. While ethical and epidemiological publications on the topic accumulate, there is a lack of theory-driven psychological research that aims at understanding psychological drivers of NE. In this perspective article we argue that self-control strength offers a promising theory-based approach to further understand and investigate NE behavior. Using the strength model of self-control, we derive two theory-driven perspectives on NE-self-control research. First, we propose that individual differences in state/trait self-control strength differentially affect NE behavior based on one's individual experience of NE use. Building upon this, we outline promising research questions that (will) further elucidate our understanding of NE based on the strength model's propositions. Second, we discuss evidence indicating that popular NE substances (like Methylphenidate) may counteract imminent losses of self-control strength. We outline how further research on NE's effects on the ego-depletion effect may further broaden our understanding of the strength model of self-control.
Im kognitiv-motivationalen Prozessmodell des Lernens wird angenommen, dass der Lernerfolg von der Qualität und der Dauer ausgeführter Lernaktivitäten, aber auch vom Funktionszustand des Lerners während der Lernphase abhängt. Es wird vermutet, dass eine von mehreren Variablen des Funktionszustandes der Flow-Zustand während des Lernens ist. In einer Untersuchung in universitären Fremdsprachenkursen zeigte sich in der Tat, dass Flow-Erleben während des Unterrichts die späteren Lernleistungen auch dann vorhersagt, wenn der Leistungseffekt relevanter Lernkompetenzvariablen vorweg berücksichtigt wird. Gemäß dem kognitiv-motivationalen Prozessmodell wird Flow-Erleben seinerseits über die aktuelle Motivation vor der Lernphase vorhergesagt, wobei die wiederum von einer allgemeineren Motivationsvariablen zu Semesterbeginn abhängt. Diese Struktur wurde in einer zweiten Untersuchung repliziert und zwar an Studenten im Verlauf ihrer Statistikausbildung im Fach Psychologie. Beide Ergebnisse sprechen dafür, dass Flow- Erleben während des Lernens eine leistungsrelevante Variable des Funktionszustandes beim Lernen ist, die sich in ihrer Beziehungsstruktur erwartungsgemäß in das kognitivmotivationale Prozessmodell einpassen lässt.
Statistik Lernen im Rahmen des Psychologiestudiums wurde als Untersuchungsgegenstand zur empirischen Überprüfung der angenommenen Wirkung volitionaler Handlungsregulation herangezogen. Neben fähigkeitsbezogenen und motivationalen Faktoren sollten bei dieser von vielen Studierenden aversiv erlebten Tätigkeit die Aspekte der volitionalen Handlungsregulation entscheidend sein. Nur Personen, die sich trotz des aversiven Tätigkeitserlebens zum Statistik Lernen "zwingen" können, sollten erfolgreich sein. Auf dem Hintergrund des Prozessmodells der Lernmotivation wurden die angenommenen Wirkungen der volitionalen Faktoren denen der motivationalen Einflussgrößen zugeordnet und in einem längsschnittlichen Design an zwei aufeinander folgenden Wintersemestern an der Universität Potsdam und an der TU Berlin empirisch überprüft (N = 273). Die Annahmen zu den fähigkeits- und motivationsrelevanten Faktoren des analyseleitenden Prozessmodells der Lernmotivation konnten weitgehend bestätigt werden. Die Personenmerkmale (fähigkeitsbezogene Merkmale, Leistungsmotiv und Commitment für das Psychologiestudium) bedingen zu einem wesentlichen Teil die Aspekte der aktuellen Motivation für das Statistik Lernen. Letztere wurde durch die Komponenten des Erweiterten Kognitiven Motivationsmodells (EKM) und anhand der Lernintentionen erfasst. Dabei zeigt sich, dass die aktuelle Motivation für das Statistik Lernen insgesamt günstig ausgeprägt ist. Die Aspekte der aktuellen Motivation beeinflussen wiederum Prozessvariablen wie den Lernaufwand, das emotionale Erleben und den Funktionszustand während des Lernens. Der Lernaufwand und das Flow-Erleben (als Indikator für den Funktionszustand) sowie deren Interaktion sagen die Klausurleistung am Ende des Semesters vorher (dies auch, wenn fähigkeitsbezogene Merkmale mit berücksichtigt werden). Vor dem Hintergrund des insgesamt theoriekonsistenten Gesamtbildes ergeben sich dennoch einige Abweichungen von den theoretischen Annahmen. Diese werden eingehend diskutiert. Entgegen der zentralen Annahme, tragen die dem Prozessmodell der Lernmotivation zugeordneten volitionalen Faktoren insgesamt betrachtet kaum zu einem weitergehenden Verständnis des Lernprozesses bei. Die theoretischen Annahmen können weitgehend nicht bestätigt werden. So sagen die volitionalen Faktoren nicht, wie angenommen, bei hoher instrumenteller Handlungsveranlassung und gleichzeitig aversivem Tätigkeitserleben Prozessmerkmale des Lernens vorher. Ausführlich diskutiert wird, inwieweit dies auf falsche theoretische Annahmen oder auf eine mangelnde Operationalisierung und Auswertung zurück geht. Zusätzlich zum Prozessmodell der Lernmotivation wurden weitergehende Annahmen zur Wirkung des impliziten und expliziten Leistungsmotivs überprüft. Dabei zeigt sich erwartungsgemäß, dass sich das implizite Leistungsmotiv beim Statistik Lernen bei einer individuellen Bezugsnorm förderlich auswirkt. Die moderierende Wirkung der sozialen Bezugsnorm für das explizite Leistungsmotiv kann anhand der vorliegenden Daten nicht bestätigt werden. Für das implizite Leistungsmotiv zeigt sich über die Annahmen hinaus eine förderliche Wirkung auf die Klausurteilnahme. Für Personen mit einem hohen impliziten Leistungsmotiv findet sich eine höhere Wahrscheinlichkeit, die Klausur mitzuschreiben. Dieser Befund macht den in der Leistungsmotivationsforschung gefundenen Zusammenhang zwischen Leistungsmotiv und Karriereerfolg "im Kleinen" verständlich. Theoretische Arbeiten legen nahe, dass die volitionale Handlungssteuerung nicht eine unabhängige, sondern eine zum Teil von dem Zusammenwirken der impliziten und expliziten Motivsysteme abhängige Größe darstellt. Für das Leistungsmotiv konnte dies bestätigt werden. So wirkt sich eine hohe Ausprägung des expliziten Leistungsmotivs dann positiv auf die volitionale Handlungssteuerung aus, wenn das implizite Leistungsmotiv hoch ausgeprägt ist. Die Ergebnisse bei den Machtmotivsystemen zeigen, dass nicht immer eine Übereinstimmung der Motive förderlich ist. Eine funktionale Perspektive scheint hier angemessen und weiterführend. Die Arbeit schließt mit der Frage, welche Motivkonstellationen im Sinne einer volitionalen Handlungssteuerung ideal sind. Dabei wird postuliert, dass das Wissen über implizite Vorlieben einer Person helfen sollte, für sie passende Situationen aktiv aufzusuchen oder herzustellen und dadurch eine volitionale Handlungssteuerung besser gelingt sowie diese Art der Steuerung weniger nötig macht.
Adverb positioning is guided by syntactic, semantic, and pragmatic considerations and is subject to cross-linguistic as well as language-specific variation. The goal of the thesis is to identify the factors that determine adverb placement in general (Part I) as well as in constructions in which the adverb's sister constituent is deprived of its phonetic material by movement or ellipsis (gap constructions, Part II) and to provide an Optimality Theoretic approach to the contrasts in the effects of these factors on the distribution of adverbs in English, French, and German. In Optimality Theory (Prince & Smolensky 1993), grammaticality is defined as optimal satisfaction of a hierarchy of violable constraints: for a given input, a set of output candidates are produced out of which that candidate is selected as grammatical output which optimally satisfies the constraint hierarchy. Since grammaticality crucially relies on the hierarchic relations of the constraints, cross-linguistic variation can be traced back to differences in the language-specific constraint rankings. Part I shows how diverse phenomena of adverb placement can be captured by corresponding constraints and their relative rankings: - contrasts in the linearization of adverbs and verbs/auxiliaries in English and French - verb placement in German and the filling of the prefield position - placement of focus-sensitive adverbs - fronting of topical arguments and adverbs Part II extends the analysis to a particular phenomenon of adverb positioning: the avoidance of adverb attachment to a phonetically empty constituent (gap). English and French are similar in that the acceptability of pre-gap adverb placement depends on the type of adverb, its scope, and the syntactic construction (English: wh-movement vs. topicalization / VP Fronting / VP Ellipsis, inverted vs. non-inverted clauses; French: CLLD vs. Cleft, simple vs. periphrastic tense). Yet, the two languages differ in which strategies a specific type of adverb may pursue to escape placement in front of a certain type of gap. In contrast to English and French, placement of an adverb in front of a gap never gives rise to ungrammaticality in German. Rather, word ordering has to obey the syntactic, semantic, and pragmatic principles discussed in Part I; whether or not it results in adverb attachment to a phonetically empty constituent seems to be irrelevant: though constraints are active in every language, the emergence of a visible effect of their requirements in a given language depends on their relative ranking. The complex interaction of the diverse factors as well as their divergent effects on adverb placement in the various languages are accounted for by the universal constraints and their language-specific hierarchic relations in the OT framework.
In experiments investigating sentence processing, eye movement measures such as fixation durations and regression proportions while reading are commonly used to draw conclusions about processing difficulties. However, these measures are the result of an interaction of multiple cognitive levels and processing strategies and thus are only indirect indicators of processing difficulty. In order to properly interpret an eye movement response, one has to understand the underlying principles of adaptive processing such as trade-off mechanisms between reading speed and depth of comprehension that interact with task demands and individual differences. Therefore, it is necessary to establish explicit models of the respective mechanisms as well as their causal relationship with observable behavior. There are models of lexical processing and eye movement control on the one side and models on sentence parsing and memory processes on the other. However, no model so far combines both sides with explicitly defined linking assumptions.
In this thesis, a model is developed that integrates oculomotor control with a parsing mechanism and a theory of cue-based memory retrieval. On the basis of previous empirical findings and independently motivated principles, adaptive, resource-preserving mechanisms of underspecification are proposed both on the level of memory access and on the level of syntactic parsing. The thesis first investigates the model of cue-based retrieval in sentence comprehension of Lewis & Vasishth (2005) with a comprehensive literature review and computational modeling of retrieval interference in dependency processing. The results reveal a great variability in the data that is not explained by the theory. Therefore, two principles, 'distractor prominence' and 'cue confusion', are proposed as an extension to the theory, thus providing a more adequate description of systematic variance in empirical results as a consequence of experimental design, linguistic environment, and individual differences. In the remainder of the thesis, four interfaces between parsing and eye movement control are defined: Time Out, Reanalysis, Underspecification, and Subvocalization. By comparing computationally derived predictions with experimental results from the literature, it is investigated to what extent these four interfaces constitute an appropriate elementary set of assumptions for explaining specific eye movement patterns during sentence processing. Through simulations, it is shown how this system of in itself simple assumptions results in predictions of complex, adaptive behavior.
In conclusion, it is argued that, on all levels, the sentence comprehension mechanism seeks a balance between necessary processing effort and reading speed on the basis of experience, task demands, and resource limitations. Theories of linguistic processing therefore need to be explicitly defined and implemented, in particular with respect to linking assumptions between observable behavior and underlying cognitive processes. The comprehensive model developed here integrates multiple levels of sentence processing that hitherto have only been studied in isolation. The model is made publicly available as an expandable framework for future studies of the interactions between parsing, memory access, and eye movement control.
Die Bienaymé-Galton-Watson Prozesse können für die Untersuchung von speziellen und sich entwickelnden Populationen verwendet werden. Die Populationen umfassen Individuen, welche sich identisch, zufällig, selbstständig und unabhängig voneinander fortpflanzen und die jeweils nur eine Generation existieren. Die n-te Generation ergibt sich als zufällige Summe der Individuen der (n-1)-ten Generation. Die Relevanz dieser Prozesse begründet sich innerhalb der Historie und der inner- und außermathematischen Bedeutung. Die Geschichte der Bienaymé-Galton-Watson-Prozesse wird anhand der Entwicklung des Konzeptes bis heute dargestellt. Dabei werden die Wissenschaftler:innen verschiedener Disziplinen angeführt, die Erkenntnisse zu dem Themengebiet beigetragen und das Konzept in ihren Fachbereichen angeführt haben. Somit ergibt sich die außermathematische Signifikanz. Des Weiteren erhält man die innermathematische Bedeutsamkeit mittels des Konzeptes der Verzweigungsprozesse, welches auf die Bienaymé-Galton-Watson Prozesse zurückzuführen ist. Die Verzweigungsprozesse stellen eines der aussagekräftigsten Modelle für die Beschreibung des Populationswachstums dar. Darüber hinaus besteht die derzeitige Wichtigkeit durch die Anwendungsmöglichkeit der Verzweigungsprozesse und der Bienaymé-Galton-Watson Prozesse innerhalb der Epidemiologie. Es werden die Ebola- und die Corona-Pandemie als Anwendungsfelder angeführt. Die Prozesse dienen als Entscheidungsstütze für die Politik und ermöglichen Aussagen über die Auswirkungen von Maßnahmen bezüglich der Pandemien. Neben den Prozessen werden ebenfalls der bedingte Erwartungswert bezüglich diskreter Zufallsvariablen, die wahrscheinlichkeitserzeugende Funktion und die zufällige Summe eingeführt. Die Konzepte vereinfachen die Beschreibung der Prozesse und bilden somit die Grundlage der Betrachtungen. Außerdem werden die benötigten und weiterführenden Eigenschaften der grundlegenden Themengebiete und der Prozesse aufgeführt und bewiesen. Das Kapitel erreicht seinen Höhepunkt bei dem Beweis des Kritikalitätstheorems, wodurch eine Aussage über das Aussterben des Prozesses in verschiedenen Fällen und somit über die Aussterbewahrscheinlichkeit getätigt werden kann. Die Fälle werden anhand der zu erwartenden Anzahl an Nachkommen eines Individuums unterschieden. Es zeigt sich, dass ein Prozess bei einer zu erwartenden Anzahl kleiner gleich Eins mit Sicherheit ausstirbt und bei einer Anzahl größer als Eins, die Population nicht in jedem Fall aussterben muss. Danach werden einzelne Beispiele, wie der linear fractional case, die Population von Fibroblasten (Bindegewebszellen) von Mäusen und die Entstehungsfragestellung der Prozesse, angeführt. Diese werden mithilfe der erlangten Ergebnisse untersucht und einige ausgewählte zufällige Dynamiken werden im nachfolgenden Kapitel simuliert. Die Simulationen erfolgen durch ein in Python erstelltes Programm und werden mithilfe der Inversionsmethode realisiert. Die Simulationen stellen beispielhaft die Entwicklungen in den verschiedenen Kritikalitätsfällen der Prozesse dar. Zudem werden die Häufigkeiten der einzelnen Populationsgrößen in Form von Histogrammen angebracht. Dabei lässt sich der Unterschied zwischen den einzelnen Fällen bestätigen und es wird die Anwendungsmöglichkeit der Bienaymé-Galton-Watson Prozesse bei komplexeren Problemen deutlich. Histogramme bekräftigen, dass die einzelnen Populationsgrößen nur endlich oft vorkommen. Diese Aussage wurde von Galton aufgeworfen und in der Extinktions-Explosions-Dichotomie verwendet. Die dargestellten Erkenntnisse über das Themengebiet und die Betrachtung des Konzeptes werden mit einer didaktischen Analyse abgeschlossen. Die Untersuchung beinhaltet die Berücksichtigung der Fundamentalen Ideen, der Fundamentalen Ideen der Stochastik und der Leitidee „Daten und Zufall“. Dabei ergibt sich, dass in Abhängigkeit der gewählten Perspektive die Anwendung der Bienaymé-Galton-Watson Prozesse innerhalb der Schule plausibel ist und von Vorteil für die Schüler:innen sein kann. Für die Behandlung wird exemplarisch der Rahmenlehrplan für Berlin und Brandenburg analysiert und mit dem Kernlehrplan Nordrhein-Westfalens verglichen. Die Konzeption des Lehrplans aus Berlin und Brandenburg lässt nicht den Schluss zu, dass die Bienaymé-Galton-Watson Prozesse angewendet werden sollten. Es lässt sich feststellen, dass die zugrunde liegende Leitidee nicht vollumfänglich mit manchen Fundamentalen Ideen der Stochastik vereinbar ist. Somit würde eine Modifikation hinsichtlich einer stärkeren Orientierung des Lehrplans an den Fundamentalen Ideen die Anwendung der Prozesse ermöglichen. Die Aussage wird durch die Betrachtung und Übertragung eines nordrhein-westfälischen Unterrichtsentwurfes für stochastische Prozesse auf die Bienaymé-Galton-Watson Prozesse unterstützt. Darüber hinaus werden eine Concept Map und ein Vernetzungspentagraph nach von der Bank konzipiert um diesen Aspekt hervorzuheben.
The scientific drilling campaign PALEOVAN was conducted in the summer of 2010 and was part of the international continental drilling programme (ICDP). The main goal of the campaign was the recovery of a sensitive climate archive in the East of Anatolia. Lacustrine deposits underneath the lake floor of ‘Lake Van’ constitute this archive. The drilled core material was recovered from two locations: the Ahlat Ridge and the Northern Basin. A composite core was constructed from cored material of seven parallel boreholes at the Ahlat Ridge and covers an almost complete lacustrine history of Lake Van. The composite record offered sensitive climate proxies such as variations of total organic carbon, K/Ca ratios, or a relative abundance of arboreal pollen. These proxies revealed patterns that are similar to climate proxy variations from Greenland ice cores. Climate variations in Greenland ice cores have been dated by modelling the timing of orbital forces to affect the climate. Volatiles from melted ice aliquots are often taken as high-resolution proxies and provide a base for fitting the according temporal models.
The ICDP PALEOVAN scientific team fitted proxy data from the lacustrine drilling record to ice core data and constructed an age model. Embedded volcaniclastic layers had to be dated radiometrically in order to provide independent age constraints to the climate-stratigraphic age model. Solving this task by an application of the 40Ar/39Ar method was the main objective of this thesis. Earlier efforts to apply the 40Ar/39Ar dating resulted in inaccuracies that could not be explained satisfactorily.
The absence of K-rich feldspars in suitable tephra layers implied that feldspar crystals needed to be 500 μm in size minimum, in order to apply single-crystal 40Ar/39Ar dating. Some of the samples did not contain any of these grain sizes or only very few crystals of that size. In order to overcome this problem this study applied a combined single-crystal and multi-crystal approach with different crystal fractions from the same sample. The preferred method of a stepwise heating analysis of an aliquot of feldspar crystals has been applied to three samples. The Na-rich crystals and their young geological age required 20 mg of inclusion-free, non-corroded feldspars. Small sample volumes (usually 25 % aliquots of 5 cm3 of sample material – a spoon full of tephra) and the widespread presence of melt-inclusion led to the application of combined single- and multigrain total fusion analyses. 40Ar/39Ar analyses on single crystals have the advantage of being able to monitor the presence of excess 40Ar and detrital or xenocrystic contamination in the samples. Multigrain analyses may hide the effects from these obstacles. The results from the multigrain analyses are therefore discussed with respect to the findings from the respective cogenetic single crystal ages. Some of the samples in this study were dated by 40Ar/39Ar on feldspars on multigrain separates and (if available) in combination with only a few single crystals. 40Ar/39Ar ages from two of the samples deviated statistically from the age model. All other samples resulted in identical ages. The deviations displayed older ages than those obtained from the age model. t-Tests compared radiometric ages with available age control points from various proxies and from the relative paleointensity of the earth magnetic field within a stratigraphic range of ± 10 m. Concordant age control points from different relative chronometers indicated that deviations are a result of erroneous 40Ar/39Ar ages. The thesis argues two potential reasons for these ages: (1) the irregular appearance of 40Ar from rare melt- and fluid- inclusions and (2) the contamination of the samples with older crystals due to a rapid combination of assimilation and ejection.
Another aliquot of feldspar crystals that underwent separation for the application of 40Ar/39Ar dating was investigated for geochemical inhomogeneities. Magmatic zoning is ubiquitous in the volcaniclastic feldspar crystals. Four different types of magmatic zoning were detected. The zoning types are compositional zoning (C-type zoning), pseudo-oscillatory zoning of trace ele- ment concentrations (PO-type zoning), chaotic and patchy zoning of major and trace element concentrations (R-type zoning) and concentric zoning of trace elements (CC-type zoning). Sam- ples that deviated in 40Ar/39Ar ages showed C-type zoning, R-type zoning or a mix of different types of zoning (C-type and PO-type). Feldspars showing PO-type zoning typically represent the smallest grain size fractions in the samples. The constant major element compositions of these crystals are interpreted to represent the latest stages in the compositional evolution of feldspars in a peralkaline melt. PO-type crystals contain less melt- inclusions than other zoning types and are rarely corroded. This thesis concludes that feldspars that show PO-type zoning are most promising chronometers for the 40Ar/39Ar method, if samples provide mixed zoning types of Quaternary anorthoclase feldspars.
Five samples were dated by applying the 40Ar/39Ar method to volcanic glass. High fractions of atmospheric Ar (typically > 98%) significantly hampered the precision of the 40Ar/39Ar ages and resulted in rough age estimates that widely overlap the age model. Ar isotopes indicated that the glasses bore a chorine-rich Ar-end member. The chlorine-derived 38Ar indicated chlorine-rich fluid-inclusions or the hydration of the volcanic glass shards. This indication strengthened the evidence that irregularly distributed melt-inclusions and thus irregular distributed excess 40Ar influenced the problematic feldspar 40Ar/39Ar ages. Whether a connection between a corrected initial 40Ar/36Ar ratio from glasses to the 40Ar/36Ar ratios from pore waters exists remains unclear.
This thesis offers another age model, which is similarly based on the interpolation of the temporal tie points from geophysical and climate-stratigraphic data. The model used a PCHIP- interpolation (piecewise cubic hermite interpolating polynomial) whereas the older age model used a spline-interpolation. Samples that match in ages from 40Ar/39Ar dating of feldspars with the earlier published age model were additionally assigned with an age from the PCHIP- interpolation. These modelled ages allowed a recalculation of the Alder Creek sanidine mineral standard. The climate-stratigraphic calibration of an 40Ar/39Ar mineral standard proved that the age versus depth interpolations from PAELOVAN drilling cores were accurate, and that the applied chronometers recorded the temporal evolution of Lake Van synchronously.
Petrochemical discrimination of the sampled volcaniclastic material is also given in this thesis. 41 from 57 sampled volcaniclastic layers indicate Nemrut as their provenance. Criteria that served for the provenance assignment are provided and reviewed critically. Detailed correlations of selected PALEOVAN volcaniclastics to onshore samples that were described in detail by earlier studies are also discussed. The sampled volcaniclastics dominantly have a thickness of < 40 cm and have been ejected by small to medium sized eruptions. Onshore deposits from these types of eruptions are potentially eroded due to predominant strong winds on Nemrut and Süphan slopes. An exact correlation with the data presented here is therefore equivocal or not possible at all.
Deviating feldspar 40Ar/39Ar ages can possibly be explained by inherited 40Ar from feldspar xenocrysts contaminating the samples. In order to test this hypothesis diffusion couples of Ba were investigated in compositionally zoned feldspar crystals. The diffusive behaviour of Ba in feldspar is known, and gradients in the changing concentrations allowed for the calculation of the duration of the crystal’s magmatic development since the formation of the zoning interface. Durations were compared with degassing scenarios that model the Ar-loss during assimilation and subsequent ejection of the xenocrystals. Diffusive equilibration of the contrasting Ba concentrations is assumed to generate maximum durations as the gradient could have been developed in several growth and heating stages. The modelling does not show any indication of an involvement of inherited 40Ar in any of the deviating samples. However, the analytical set-up represents the lower limit of the required spatial resolution. Therefore, it cannot be excluded that the degassing modelling relies on a significant overestimation of the maximum duration of the magmatic history. Nevertheless, the modelling of xenocrystal degassing evidences that the irregular incorporation of excess 40Ar by melt- and fluid inclusions represents the most critical problem that needs to be overcome in dating volcaniclastic feldspars from the PALEOVAN drill cores. This thesis provides the complete background in generating and presenting 40Ar/39Ar ages that are compared to age data from a climate-stratigraphic model. Deviations are identified statistically and then discussed in order to find explanations from the age model and/or from 40Ar/39Ar geochronology. Most of the PALEOVAN stratigraphy provides several chronometers that have been proven for their synchronicity. Lacustrine deposits from Lake Van represent a key archive for reconstructing climate evolution in the eastern Mediterranean and in the Near East. The PALEOVAN record offers a climate-stratigraphic age model with a remarkable accuracy and resolution.
Optical methods play an important role in process analytical technologies (PAT). Four examples of optical process and quality sensing (OPQS) are presented, which are based on three important experimental techniques: near-infrared absorption, luminescence quenching, and a novel method, photon density wave (PDW) spectroscopy. These are used to evaluate four process and quality parameters related to beer brewing and polyurethane (PU) foaming processes: the ethanol content and the oxygen (O2) content in beer, the biomass in a bioreactor, and the cellular structures of PU foam produced in a pilot production plant.
Die Anwendung zweier ähnlicher fasergekoppelte Diodenlaser-Spektrometer-Systeme werden vorgestellt. Basis sind handelsübliche DFB-Laserdioden der optischen Kommunikationstechnik. Der faseroptische Aufbau, das Detektionsverfahren (2f Wellenlängenmodulations-Spektroskopie mit Balanced Receiver), Rauschverhalten und Detektionslimit werden diskutiert. Zur in-situ Plasma-Diagnostik von CO- und CO2-Konzentrationen in industriellen CO2-Lasern der Materialbearbeitung wurde eine Wellenlänge von 1582 nm verwendet. Bei einem Gasdruck von 100 hPa und einer Absorptionsweglänge von 14,9 cm wurden mit einer Laserdiode simultan CO- und CO2-Konzentrationen von 0% bis 11% im Gasgefäß bei laufender Hochfrequenzgasentladung des CO2-Lasers zeitaufgelöst gemessen. Vorgestellt und diskutiert werden Aufbau und Eigenschaften des Spektrometers sowie die Ergebnisse der dynamischen Gasanalysen, die zu einer Verbesserung der Katalysator-Technik im CO2-Laser beigetragen haben.Mit isotopenaufgelöster CO- und CO2-Spektroskopie können biologische Gasaustauschprozesse, z.B. in Gasen aus dem Erdboden untersucht werden. Hierzu wurde ein fasergekoppeltes feldtaugliches Diodenlaser-Spektrometer bei Wellenlängen um 1605 nm zur Messungder Isotopologe 12C16O, 13C16O, 12C18O und 12C16O2, 13C16O2, 12C18O16O aufgebaut. Die Messung erfolgt extraktiv in Langwegzellen mit unterschiedlichen Absorptionsweglängen von 100.9 m und 29.9 m. Es werden Kalibrationsmessungen zur Linearität und zur Präzision der Bestimmung der Isotopenverhältnisse sowie Wiederholungsmessungen zur Stabilität vorgestellt. Nachweisgrenzen von wenigen ppm konnten für die CO- und CO2-Isotopologen erhalten werden.
Eccentric exercise is discussed as a treatment option for clinical populations, but specific responses in terms of muscle damage and systemic inflammation after repeated loading of large muscle groups have not been conclusively characterized. Therefore, this study tested the feasibility of an isokinetic protocol for repeated maximum eccentric loading of the trunk muscles. Nine asymptomatic participants (5 f/4 m; 34±6 yrs; 175±13 cm; 76±17 kg) performed three isokinetic 2-minute all-out trunk strength tests (1x concentric (CON), 2x eccentric (ECC1, ECC2), 2 weeks apart; flexion/extension, 60°/s, ROM 55°). Outcomes were peak torque, torque decline, total work, and indicators of muscle damage and inflammation (over 168 h). Statistics were done using the Friedman test (Dunn’s post-test). For ECC1 and ECC2, peak torque and total work were increased and torque decline reduced compared to CON. Repeated ECC bouts yielded unaltered torque and work outcomes. Muscle damage markers were highest after ECC1 (soreness 48 h, creatine kinase 72 h; p<0.05). Their overall responses (area under the curve) were abolished post-ECC2 compared to post-ECC1 (p<0.05). Interleukin-6 was higher post-ECC1 than CON, and attenuated post-ECC2 (p>0.05). Interleukin-10 and tumor necrosis factor-α were not detectable. All markers showed high inter-individual variability. The protocol was feasible to induce muscle damage indicators after exercising a large muscle group, but the pilot results indicated only weak systemic inflammatory responses in asymptomatic adults.
Background: Low back pain (LBP) is one of the world wide leading causes of limited activity and disability. Impaired motor control has been found to be one of the possible factors related to the development or persistence of LBP. In particularly, motor control strategies seemed to be altered in situations requiring reactive responses of the trunk counteracting sudden external forces. However, muscular responses were mostly assessed in (quasi) static testing situations under simplified laboratory conditions. Comprehensive investigations in motor control strategies during dynamic everyday situations are lacking. The present research project aimed to investigate muscular compensation strategies following unexpected gait perturbations in people with and without LBP. A novel treadmill stumbling protocol was tested for its validity and reliability to provoke muscular reflex responses at the trunk and the lower extremities (study 1). Thereafter, motor control strategies in response to sudden perturbations were compared between people with LBP and asymptomatic controls (CTRL) (study 2). In accordance with more recent concepts of motor adaptation to pain, it was hypothesized that pain may have profound consequences on motor control strategies in LBP. Therefore, it was investigated whether differences in compensation strategies were either consisting of changes local to the painful area at the trunk, or also being present in remote areas such as at the lower extremities.
Methods: All investigations were performed on a custom build split-belt treadmill simulating trip-like events by unexpected rapid deceleration impulses (amplitude: 2 m/s; duration: 100 ms; 200 ms after heel contact) at 1m/s baseline velocity. A total number of 5 (study 1) and 15 (study 2) right sided perturbations were applied during walking trials. Muscular activities were assessed by surface electromyography (EMG), recorded at 12 trunk muscles and 10 (study 1) respectively 5 (study 2) leg muscles. EMG latencies of muscle onset [ms] were retrieved by a semi-automatic detection method. EMG amplitudes (root mean square (RMS)) were assessed within 200 ms post perturbation, normalized to full strides prior to any perturbation [RMS%]. Latency and amplitude investigations were performed for each muscle individually, as well as for pooled data of muscles grouped by location. Characteristic pain intensity scores (CPIS; 0-100 points, von Korff) based on mean intensity ratings reported for current, worst and average pain over the last three months were used to allocate participants into LBP (≥30 points) or CTRL (≤10 points). Test-retest reproducibility between measurements was determined by a compilation of measures of reliability. Differences in muscular activities between LBP and CTRL were analysed descriptively for individual muscles; differences based on grouped muscles were statistically tested by using a multivariate analysis of variance (MANOVA, α =0.05).
Results: Thirteen individuals were included into the analysis of study 1. EMG latencies revealed reflex muscle activities following the perturbation (mean: 89 ms). Respective EMG amplitudes were on average 5-fold of those assessed in unperturbed strides, though being characterized by a high inter-subject variability. Test-retest reliability of muscle latencies showed a high reproducibility, both for muscles at the trunk and legs. In contrast, reproducibility of amplitudes was only weak to moderate for individual muscles, but increased when being assessed as a location specific outcome summary of grouped muscles. Seventy-six individuals were eligible for data analysis in study 2. Group allocation according to CPIS resulted in n=25 for LBP and n=29 for CTRL. Descriptive analysis of activity onsets revealed longer delays for all muscles within LBP compared to CTRL (trunk muscles: mean 10 ms; leg muscles: mean 3 ms). Onset latencies of grouped muscles revealed statistically significant differences between LBP and CTRL for right (p=0.009) and left (p=0.007) abdominal muscle groups. EMG amplitude analysis showed a high variability in activation levels between individuals, independent of group assignment or location. Statistical testing of grouped muscles indicated no significant difference in amplitudes between LBP and CTRL.
Discussion: The present research project could show that perturbed treadmill walking is suitable to provoke comprehensive reflex responses at the trunk and lower extremities, both in terms of sudden onsets and amplitudes of reflex activity. Moreover, it could demonstrate that sudden loadings under dynamic conditions provoke an altered reflex timing of muscles surrounding the trunk in people with LBP compared to CTRL. In line with previous investigations, compensation strategies seemed to be deployed in a task specific manner, with differences between LBP and CTRL being evident predominately at ventral sides. No muscular alterations exceeding the trunk could be found when being assessed under the automated task of locomotion. While rehabilitation programs tailored towards LBP are still under debate, it is tempting to urge the implementation of dynamic sudden loading incidents of the trunk to enhance motor control and thereby to improve spinal protection. Moreover, in respect to the consistently observed task specificity of muscular compensation strategies, such a rehabilitation program should be rich in variety.
Portal Wissen = Health
(2020)
The Coronavirus pandemic has made it very clear how much health and well-being determine our lives. And that science led the way in this regard could not be ignored. At the University of Potsdam, too, many researchers deal with aspects of health maintenance, whether in nutritional sciences, sports and rehabilitation medicine, biochemistry, or psychology. Their research includes supporting chronically ill children and the professional handling of risks, as you can read in this issue of our magazine.
With the establishment of our seventh faculty, the Faculty of Health Sciences, these and many new medical topics are getting more attention at the University of Potsdam. While in the beginning, the “Brandenburg Health Campus” funded by the federal state of Brandenburg was a virtual network of university and non-university research, it is now getting more points of intersection and, not only since COVID-19, a very practical use and plausible to everyone.
The Faculty of Health Sciences, founded in 2018, is supported by three institutions: the University of Potsdam, the Brandenburg Technical University Cottbus-Senftenberg and the Brandenburg Medical School in Neuruppin. They pursue an interdisciplinary approach that holistically develops teaching, transfers new scientific findings from theory to practice and thus further improves overall medical care in Brandenburg. Their vision of being a central platform of research, teaching, and transfer combines socially relevant issues and existing expertise to align them with the needs of people in Brandenburg and use them to their benefit. This interdisciplinary structure has never been more important to advancing patient-oriented basic research and health care models. An innovative concept that can make Brandenburg a pioneer.
In the meantime, the Faculty of Health Sciences has established 16 new professorships at the supporting universities, which are concerned with medicine and healthy aging, health services research, nursing and rehabilitation sciences, and telemedicine. Cardiology and physiology will play a central role as well. In general, the innovative faculty counts on strong interdisciplinary relationships, for example with nutritional sciences and the digital health department at the Digital Engineering Faculty. The role of digitization and well-prepared data in combating the Coronavirus pandemic can also be read about in this issue.
As usual, the research magazine addresses the full range of research at the university: We introduce historian Dominik Geppert, who deals with the history of unified Germany after 1990 embedded in the tensions created by a context of national unification, European integration, and global networking. In a self-experiment, we explored together with a psycholinguist how to research word-finding disorders. Last but not least, we were able to take part in a trip to Namibia, where ecologists from Potsdam examine wildlife management in the threatened savannah. Let them take you where kudu and springbok live!
Portal Wissen = Gesundheit
(2020)
Wie stark Gesundheit und Wohlbefinden unser Leben bestimmen, hat uns die Corona-Pandemie eindringlich vor Augen geführt. Und dass die Wissenschaft in diesem Kontext den Takt vorgibt, war nicht zu überhören. Auch an der Universität Potsdam beschäftigen sich zahlreich Forscherinnen und Forscher mit Fragen der Gesunderhaltung, ob in den Ernährungswissenschaften, der Sport- und Rehabilitationsmedizin, der Biochemie oder der Psychologie. Das Spektrum reicht von der Entwicklung antimikrobieller Polymere und eines Sensors für die Atemgasanalyse bis zur Unterstützung chronisch kranker Kinder und dem kompetenten Umgang mit Risiken, wie in dieser Ausgabe unseres Magazins zu lesen ist.
Mit dem Aufbau unserer siebenten, einer Gesundheitswissenschaften Fakultät rücken solche und viele neue medizinische Themen an der Universität Potsdam stärker in den Fokus. War der vom Land geförderte „Gesundheitscampus Brandenburg“ am Anfang noch ein virtuelles Netzwerk von universitärer und außeruniversitärer Forschung, bekommt es nun mehr und mehr Knotenpunkte und nicht erst seit Corona einen ganz praktischen Nutzen – für jeden nachvollziehbar.
Die 2018 gegründete Fakultät für Gesundheitswissenschaften wird von drei Einrichtungen getragen: der Universität Potsdam, der Brandenburgischen Technischen Universität Cottbus- Senftenberg und der Medizinischen Hochschule Brandenburg in Neuruppin. Gemeinsam verfolgen sie einen fächerübergreifenden Ansatz, der die Lehre ganzheitlich weiterentwickelt, neue wissenschaftliche Erkenntnisse von der Theorie in die Praxis bringt und damit insgesamt die medizinische Versorgung in Brandenburg weiter verbessert. Ihre Vision, zentrale Plattform in Forschung, Lehre und Transfer zu sein, bündelt gesellschaftlich relevante Fragen und vorhandene Expertisen, um sie am Bedarf der Menschen im Land auszurichten und für ihr Wohl einzusetzen. Nie war diese hochschulübergreifende Struktur wichtiger, um patientenorientierte Grundlagenforschung und Modelle der Gesundheitsversorgung voranzutreiben. Ein wegweisendes Konzept, mit dem Brandenburg Vorreiter sein kann.
Inzwischen hat die Fakultät für Gesundheitswissenschaften 16 neue Professuren an den einzelnen Trägerhochschulen etabliert. Es geht um die Medizin und Gesundheit des Alterns, um Versorgungsforschung, Pflege- und Rehabilitationswissenschaften sowie Telemedizin. Auch die Kardiologie und Physiologie werden eine zentrale Rolle spielen. Generell setzt die innovative Fakultät auf starke Querbeziehungen beispielsweise zu den Ernährungswissenschaften oder zum Fachgebiet Digital Health an der Digital Engineering Fakultät. Welche Rolle die Digitalisierung und gut aufbereitete Daten bei der Bekämpfung der Corona-Pandemie spielen, ist ganz aktuell auch in diesem Heft zu erfahren.
Aber natürlich widmet sich das Forschungsmagazin wie stets der ganzen fachlichen Breite der Universität: So stellen wir den Historiker Dominik Geppert vor, der sich mit der Geschichte des vereinigten Deutschlands nach 1990 im Spannungsfeld von nationaler Einigung, europäischer Integration und globaler Vernetzung befasst. Im Selbstversuch haben wir mit einer Psycholinguistin erkundet, wie sich Wortfindungsstörungen erforschen lassen. Ebenfalls einem Test unterzogen wir eine neuartige vegane Milch, die ein findiges Start-up aus Erbsen herstellt. Nicht zuletzt durften wir teilhaben an einer Reise nach Namibia, wo Potsdamer Ökologen das Wildtiermanagement in der bedrohten Savanne untersuchen. Lassen Sie sich von ihnen dorthin mitnehmen, wo sich Kudu und Springbock Gute Nacht sagen!
In diesem Beitrag berichten wir über die Erfahrungen einer umgestalteten Lehre im Bereich Informatik und Gesellschft (IuG). Die Gründe für die Umge staltung und die Konzeption werden skizziert. Die Erfahrungen haben wir zu Thesen verdichtet: 1. Informatik und Gesellschaft sollte eine Pflichtveranstaltung im Bachelor-Studium sein, in der Studierende einen Überblick erhalten, welche gesellschaftlichen Rahmenbedingungen für sie relevant sind und wie man diese in die Praxis mit einbeziehen kann. 2. Historische Inhalte der Informatik sollen hier aufgearbeitet werden, indem man aktuelle Entwicklungen im Kontext ihrer Genese betrachtet.
Auf der Grundlage der Planung, Durchführung, Evaluation und Revision eines gemeinsamen Seminars von Medienpädagogik und Didaktik der Informatik stellen wir in diesem Aufsatz dar, wo die Defizite klassischer Medienbildung in Bezug auf digitale bzw. interaktive Medien liegen und welche Inhalte der Informatik für Studierende aller Lehrämter – im allgemeinbildenden Sinne – aus dieser Perspektive relevant erscheinen.
We investigate the cognitive control in polyrhythmic hand movements as a model paradigm for bimanual coordination. Using a symbolic coding of the recorded time series, we demonstrate the existence of qualitative transitions induced by experimental manipulation of the tempo. A nonlinear model with delayed feedback control is proposed, which accounts for these dynamical transitions in terms of bifurcations resulting from variation of the external control parameter. Furthermore, it is shown that transitions can also be observed due to fluctuations in the timing control level. We conclude that the complexity of coordinated bimanual movements results from interactions between nonlinear control mechanisms with delayed feedback and stochastic timing components.
Mathematical models have become an important tool for understanding the control of eye movements during reading. Main goals of the development of the SWIFT model (Engbert, Longtin, & Kliegl, 2002)were to investigate the possibility of spatially distributed processing and to implement a general mechanism for all types of eye movements we observe in reading experiments. Here, we present an advanced version of SWIFT which integrates properties of the oculomotor system and effects of word recognition to explain many of the experimental phenomena faced in reading research. We propose new procedures for the estimation of model parameters and for the test of the model’s performance. A mathematical analysis of the dynamics of the SWIFT model is presented. Finally, within this framework, we present an analysis of the transition from parallel to serial processing.
Computational models such as E-Z Reader and SWIFT are ideal theoretical tools to test quantitatively our current understanding of eye-movement control in reading. Here we present a mathematical analysis of word skipping in the E-Z Reader model by semianalytic methods, to highlight the differences in current modeling approaches. In E-Z Reader, the word identification system must outperform the oculomotor system to induce word skipping. In SWIFT, there is competition among words to be selected as a saccade target. We conclude that it is the question of competitors in the “game” of word skipping that must be solved in eye movement research.
Die Produktion von Polyrhythmen ist ein wichtiger experimenteller Zugang für die Untersuchung der menschlichen Motorik. Durch Variation des Tempos (externer Kontrollparameter) bei rhythmischen Bewegungsabläufen können qualitative Übergänge in der Koordinationsdynamik induziert werden. Diese Übergänge lassen sich mit der Methode der symbolischen Dynamik in experimentellen Zeitreihen nachweisen und sind ein wichtiger Hinweis darauf, dass die untersuchten Bewegungsabläufe nichtlinearen Kontrollprozessen unterliegen. Die theoretische Beschreibung bimanueller Rhythmusproduktion mit gekoppelten Differenzengleichungen führt auf ein Modell mit nichtlinearer Fehlerkontrolle. Es ist eine wichtige Eigenschaft der Kontrollprozesse, dass sie mit zeitverzögerter Rückkopplung arbeiten. Neben deterministischen Steuerungsmechanismen ist die Motorik des Menschen ausserdem von Fluktuationen auf zwei Ebenen gekennzeichnet, der kognitiven Kontrollebene und der Ebene der motorischen Systeme. Daher ist die Koordination von Bewegungen das Ergebnis von Wechselwirkungen zwischen nichtlinearen, zeitverzögerten Kontrollprozessen und stochastischen Fluktuationen.
Semantics
(2007)
We argue that there is a crucial difference between determiner and adverbial quantification. Following Herburger [2000] and von Fintel [1994], we assume that determiner quantifiers quantify over individuals and adverbial quantifiers over eventualities. While it is usually assumed that the semantics of sentences with determiner quantifiers and those with adverbial quantifiers basically come out the same, we will show by way of new data that quantification over events is more restricted than quantification over individuals. This is because eventualities in contrast to individuals have to be located in time which is done using contextual information according to a pragmatic resolution strategy. If the contextual information and the tense information given in the respective sentence contradict each other, the sentence is uninterpretable. We conclude that this is the reason why in these cases adverbial quantification, i.e. quantification over eventualities, is impossible whereas quantification over individuals is fine.
In this paper we compare the behaviour of adverbs of frequency (de Swart 1993) like usually with the behaviour of adverbs of quantity like for the most part in sentences that contain plural definites. We show that sentences containing the former type of Q-adverb evidence that Quantificational Variability Effects (Berman 1991) come about as an indirect effect of quantification over situations: in order for quantificational variability readings to arise, these sentences have to obey two newly observed constraints that clearly set them apart from sentences containing corresponding quantificational DPs, and that can plausibly be explained under the assumption that quantification over (the atomic parts of) complex situations is involved. Concerning sentences with the latter type of Q-adverb, on the other hand, such evidence is lacking: with respect to the constraints just mentioned, they behave like sentences that contain corresponding quantificational DPs. We take this as evidence that Q-adverbs like for the most part do not quantify over the atomic parts of sum eventualities in the cases under discussion (as claimed by Nakanishi and Romero (2004)), but rather over the atomic parts of the respective sum individuals.
We propose a definition of aboutness topicality that not only encompasses individual denoting DPs, but also indefinites. We concentrate on the interpretative effects of marking indefinites as topics: they either receive widest scope in their clause, or they are interpreted in the restrictor of an overt or covert Q-adverb. We show that in the first case they are direct aboutness topics insofar as they are the subject of a predication expressed by the comment, while in the second case they are indirect aboutness topics: they define the subject of a higher-order predication – namely the set of situations that the respective Q-adverb quantifies over.
Sequelae of prematurity triggered by oxidative stress and free radical-mediated tissue damage have coined the term "oxygen radical disease of prematurity". Caffeine, a potent free radical scavenger and adenosine receptor antagonist, reduces rates of brain damage in preterm infants. In the present study, we investigated the effects of caffeine on oxidative stress markers, anti-oxidative response, inflammation, redox-sensitive transcription factors, apoptosis, and extracellular matrix following the induction of hyperoxia in neonatal rats. The brain of a rat pups at postnatal Day 6 (P6) corresponds to that of a human fetal brain at 28-32 weeks gestation and the neonatal rat is an ideal model in which to investigate effects of oxidative stress and neuroprotection of caffeine on the developing brain. Six-day-old Wistar rats were pre-treated with caffeine and exposed to 80% oxygen for 24 and 48 h. Caffeine reduced oxidative stress marker (heme oxygenase-1, lipid peroxidation, hydrogen peroxide, and glutamate-cysteine ligase catalytic subunit (GCLC)), promoted anti-oxidative response (superoxide dismutase, peroxiredoxin 1, and sulfiredoxin 1), down-regulated pro-inflammatory cytokines, modulated redox-sensitive transcription factor expression (Nrf2/Keap1, and NF kappa B), reduced pro-apoptotic effectors (poly (ADP-ribose) polymerase-1 (PARP-1), apoptosis inducing factor (AIF), and caspase-3), and diminished extracellular matrix degeneration (matrix metalloproteinases (MMP) 2, and inhibitor of metalloproteinase (TIMP) 1/2). Our study affirms that caffeine is a pleiotropic neuroprotective drug in the developing brain due to its anti-oxidant, anti-inflammatory, and anti-apoptotic properties.
Als Folge der demografischen Entwicklungen und der finanziellen Engpässe vieler Bundesländer kommt es seit einigen Jahren in den meisten Flächenländern der Bundesrepublik Deutschland erneut zu tiefgreifenden Verwaltungsreformen auf kommunaler Ebene. Mit Hilfe von Verwaltungsstruktur-, Funktional- und Kreisgebietsreformen wird versucht, die Verwaltungseffektivität zu erhöhen sowie die kreislichen Aufgaben- und Territorialstrukturen an die veränderten Rahmenbedingungen anzupassen. Nach Auffassung vieler Reformer kann die angestrebte Effektivitätssteigerung, die insbesondere zu Kostenersparnissen und Synergieeffekten führen soll, v. a. durch eine deutliche Vergrößerung der Verwaltungsräume erreicht werden.
Neben dem Ziel, die Leistungsfähigkeit der lokalen Verwaltungsstrukturen zu erhöhen, das zumeist im Mittelpunkt der Reformvorhaben steht, gilt es jedoch gleichermaßen, die Legitimität lokalen Handelns durch Demokratie und bürgerschaftliche Teilhabe zu erhalten. Der Gesetzgeber steht daher vor der Aufgabe, beide Zielvorstellungen in einem Reformprozess zu berücksichtigen und die Größe der administrativen Einheiten so zu gestalten, dass in ihnen ein ausgewogenes Verhältnis zwischen Effizienz und Bürgernähe entsteht.
Ausgehend von dieser Problematik werden jene Thesen und Annahmen aufgegriffen, die im Zusammenhang mit dem Urteil des LVerfG M-V vom 26. Juli 2007 im Kontext von Effizienz und Partizipation stehen, und auf die Kreisgebietsreform im Freistaat Sachsen übertragen. Konkret werden die Auswirkungen des territorialen Neuzuschnitts der sächsischen Landkreise auf die Wahrnehmung des kommunalpolitischen Ehrenamts erstmals auch durch eine breite Empirie untersucht.
Universitäten erbringen wohlfahrtsfördernde Leistungen für die Gesellschaft, insbesondere indem sie Studierende ausbilden, über Forschung neues Wissen erzeugen sowie den Wissens- und Technologietransfer in Wirtschaft und Gesellschaft hinein betreiben. Die Erbringung dieser Leistungen wird ermöglicht durch eine größtenteils öffentliche Finanzierung, die nicht nur in Zeiten wirtschaftlicher Krisen und Spargebote gerne hinterfragt wird. Die Politik ist daher ebenso wie die Hochschulen gut beraten, die Mittelzuweisungen immer wieder neu zu legitimieren. Die vorliegende Studie untersucht die sozioökonomischen Effekte der Universität Potsdam und schließt so vorhandene Informationslücken. Die Autoren zeigen, dass auch indirekte und unerwartete Effekte eine große Rolle spielen können, was die Wirkung einer Universität auf Wirtschaft und Wohlstand angeht.
Recht auf Demokratie
(2012)
Inhalt: I. Problemstellung II. Demokratieprinzip im Völkerrecht III. Selbstbestimmungsrecht der Völker IV. Enthält das Recht auf „Selfdetermination“ ein Recht auf „Selfgovernment“? V. Umfang und Inhalt des Rechts auf Demokratie der Bürger und Völker VI. Durchsetzbarkeit der Rechte auf Demokratie VII. Ergebnisse
Das Ende der Ratlosigkeit
(2007)
Inhalt: - Fünf Ausgangsfaktoren 1. Der ursprüngliche Verfassungsvertrag ist gescheitert 2. Die Beibehaltung von Nizza ist keine Option 3. Zentrale Neuerungen des Verfassungsvertrags sollten gesichert werden 4. Inakzeptable Kompromisse gefährden Ratifizierung 5. Überwindung der Verfassungskrise erfordert komplexe Lösungsstrategie - Fünf Rettungsmodelle zur Zukunft des Verfassungsvertrags 1. Nizza Plus– Ausschöpfen des geltenden Primärrechts 2. Verfassung Minus und Verfassung Minus-Minus 3. Avantgarde- oder Kerneuropa-Modell 4. Verfassung Plus und Verfassung Plus-Plus 5. Änderung des geltenden Nizza-Vertrags – Mini-Vertrag, Core Treaty oder Vertrag zur Reform des Vertrags von Nizza - Die Wiederbelebung der EU – von der Notwendigkeit eines neuen Großprojekts - Fahrplan zum weiteren Vorgehen
Die kumulative Dissertation zur Projektdidaktik trägt den Titel „Von der Konzeption zur Praxis: Zur Entwicklung der Projektdidaktik am Oberstufen-Kolleg Bielefeld und ihre Impulsgebung und Modellbildung für das deutsche Regelschulwesen“. Die Dissertation versteht sich als beispielgebende Umsetzung und Implementierung der Projektdidaktik für das Regelschulsystem. Auf der Basis von 22 bereits erschienenen Publikationen und einer Monographie werden mit fünf methodischen Zugriffen (bildungshistorisch, dichte Beschreibung, Aktionsforschung, empirische Untersuchung an Regelschulen und Implementierungsforschung, s. Kapitel 1) in sieben Kapiteln (2- 8) des systematischen ersten Teils die Entwicklung der Unterrichtsform Projektunterricht in der BRD, Projektbegriff und Weiterentwicklung des Konzepts, Methodik, Bewertung sowie Organisation des Projektunterrichts am Oberstufen-Kolleg, der Versuchsschule des Landes NRW, in Auseinandersetzung mit der allgemeinen Projektdidaktik dargestellt sowie Formen und Verfahren der erprobten Implementierung in das Regelschulsystem präsentiert.
Ein Schlusskapitel (9) fasst die Ergebnisse zusammen. Im umfangreichen Anhang finden sich verschiedene Publikationen zu Aspekten der Projektdidaktik, auf die der systematische Teil jeweils Bezug nimmt.
Die bildungshistorische Analyse (Kapitel 2) untersucht das Verhältnis von pädagogischer Theorie und schulischer Praxis, die weder in Literatur und noch in Praxis genügend verbunden sind. Nach der Rezeption der gut erforschten Konzeptgeschichte pädagogischer Theorie in Anlehnung an Dewey und Kilpatrick wird durch eine erste Analyse der „Praxisgeschichte“ des Projektunterrichts auf ein Forschungsdesiderat hingewiesen, dies auch um die Projektpraxis am Oberstufen-Kolleg in Beziehung zu der in den Regelschulen setzen zu können. Dabei wurden seit 1975 sechs Entwicklungslinien herausgearbeitet: Start, Krise und ihre Überwindung durch Öffnung und Vernetzung (1975-1990), didaktisch-methodische Differenzierung und Notwendigkeit von Professionalisierung (ab 1990) sowie Schulentwicklung und Institutionalisierung (seit Ende der 1990er Jahre).
Projektunterricht besteht am Oberstufen-Kolleg seit der Gründung 1974 als fest eingerichtete Unterrichtsform (seit 2002 zweimal jährlich 2 Wochen) mit dem Ziel, für das Regelschulsystem die Projektdidaktik zu erproben und weiterzuentwickeln. Als wichtige praxisorientierte Ziele wurden ein praxistauglicher Begriff, Bildungswert und Kompetenzen im Unterschied zum Lehrgang herausgearbeitet (z.B. handlungs- und anwendungsorientierte Kompetenzen) und das Verhältnis zum Fachunterricht bestimmt (Kapitel 3). Letzteres wurde am Beispiel des Fachs Geschichte entwickelt und exemplarisch in Formen der Verzahnung dargestellt (Kapitel 6).
Auch für die methodische Dimension galt, die allgemeine Projektdidaktik weiterzuentwickeln durch ihre Abgrenzung zu anderen Methoden der Öffnung von Schule und Unterricht (Kapitel 4). Dabei wurde als zentrales methodisches Prinzip die Handlungsorientierung bestimmt sowie sieben Phasen und jeweilige Handlungsschritte festgelegt. Besonders Planung und Rollenwechsel bedürfen dabei besonderer Beachtung, um Selbsttätigkeit der ProjektteilnehmerInnen zu erreichen. Verschiedene methodische „Etüden“ ( z.B. Gruppenarbeit, recherchieren, sich öffentlich verhalten), handlungsorientierte Vorformen und projektorientiertes Arbeiten sollten die Vollform Projektunterricht vorbereiten helfen.
Die Bewertung von Projekten (Kapitel 5) stellt andere Anforderungen als der Lehrgang, weil sie unterschiedliche Bewertungsebenen (z.B. Prozessbedeutung, Produktbeurteilung, Gruppenbewertung) umfasst. Dazu sind am Oberstufen-Kolleg andere Bewertungsformen als die Ziffernnote entwickelt worden: z.B. ein „Reflexionsbericht“ als individuelle Rückmeldung von SchülerInnen und LehrerInnen und ein „Zertifikat“ für besondere Leistungen im Projekt.
Zentral für die Entwicklung von Projektunterricht ist jedoch die Organisationsfrage (Kapitel 7). Dazu bedarf es einer Organisationsgruppe Projekt, die die Unterrichtsform didaktisch betreut und in einem Hearing die angemeldeten Projekte berät. Das Oberstufen-Kolleg hat damit eine entwickelte „Projektkultur“ organisatorisch umgesetzt. Für eine empirische Untersuchung an sechs Regelschulen in Ostwestfalen ist dann eine idealtypische Merkmalsliste von schulischer „Projektkultur“ als Untersuchungsinstrument entstanden, das zugleich als Leitlinie für Schulentwicklung im Bereich Projektlernen in den Regelschulen dienen kann. Zu dieser Implementierung (Kapitel 8) wurden Konzepte und Erfahrungen vom Oberstufen-Kolleg für schulinterne und schulexterne Fortbildungsformen sowie eine exemplarische Fortbildungseinheit entwickelt. So konnten in zahlreichen Lehrerfortbildungen durch die Versuchsschule Impulse für das Regelschulsystem gegeben werden.
The use of preformed polymers for the preparation of Langmuir-Blodgett (LB) multilayers is reviewed. Principles for polymer self-organization are outlined and the appropriate molecular designs are discussed. Recent developments in the different classes of polymers for LB multilayers are presented, and their outstanding properties highlighted.
Linking together the processes of rapid physical erosion and the resultant chemical dissolution of rock is a crucial step in building an overall deterministic understanding of weathering in mountain belts. Landslides, which are the most volumetrically important geomorphic process at these high rates of erosion, can generate extremely high rates of very localised weathering. To elucidate how this process works we have taken advantage of uniquely intense landsliding, resulting from Typhoon Morakot, in the T'aimali River and surrounds in southern Taiwan. Combining detailed analysis of landslide seepage chemistry with estimates of catchment-by-catchment landslide volumes, we demonstrate that in this setting the primary role of landslides is to introduce fresh, highly labile mineral phases into the surface weathering environment. There, rapid weathering is driven by the oxidation of pyrite and the resultant sulfuric-acid-driven dissolution of primarily carbonate rock. The total dissolved load correlates well with dissolved sulfate - the chief product of this style of weathering - in both landslides and streams draining the area (R-2 = 0.841 and 0.929 respectively; p < 0.001 in both cases), with solute chemistry in seepage from landslides and catchments affected by significant landsliding governed by the same weathering reactions. The predominance of coupled carbonate-sulfuric-acid-driven weathering is the key difference between these sites and previously studied landslides in New Zealand (Emberson et al., 2016), but in both settings increasing volumes of landslides drive greater overall solute concentrations in streams.
Bedrock landslides, by excavating deep below saprolite-rock interfaces, create conditions for weathering in which all mineral phases in a lithology are initially unweathered within landslide deposits. As a result, the most labile phases dominate the weathering immediately after mobilisation and during a transient period of depletion. This mode of dissolution can strongly alter the overall output of solutes from catchments and their contribution to global chemical cycles if landslide-derived material is retained in catchments for extended periods after mass wasting.
Within the context of United Nations (UN) environmental institutions, it has become apparent that intergovernmental responses alone have been insufficient for dealing with pressing transboundary environmental problems. Diverging economic and political interests, as well as broader changes in power dynamics and norms within global (environmental) governance, have resulted in negotiation and implementation efforts by UN member states becoming stuck in institutional gridlock and inertia. These developments have sparked a renewed debate among scholars and practitioners about an imminent crisis of multilateralism, accompanied by calls for reforming UN environmental institutions. However, with the rise of transnational actors and institutions, states are not the only relevant actors in global environmental governance. In fact, the fragmented architectures of different policy domains are populated by a hybrid mix of state and non-state actors, as well as intergovernmental and transnational institutions. Therefore, coping with the complex challenges posed by severe and ecologically interdependent transboundary environmental problems requires global cooperation and careful management from actors beyond national governments.
This thesis investigates the interactions of three intergovernmental UN treaty secretariats in global environmental governance. These are the secretariats of the United Nations Framework Convention on Climate Change, the Convention on Biological Diversity, and the United Nations Convention to Combat Desertification. While previous research has acknowledged the increasing autonomy and influence of treaty secretariats in global policy-making, little attention has been paid to their strategic interactions with non-state actors, such as non-governmental organizations, civil society actors, businesses, and transnational institutions and networks, or their coordination with other UN agencies. Through qualitative case-study research, this thesis explores the means and mechanisms of these interactions and investigates their consequences for enhancing the effectiveness and coherence of institutional responses to underlying and interdependent environmental issues.
Following a new institutionalist ontology, the conceptual and theoretical framework of this study draws on global governance research, regime theory, and scholarship on international bureaucracies. From an actor-centered perspective on institutional interplay, the thesis employs concepts such as orchestration and interplay management to assess the interactions of and among treaty secretariats. The research methodology involves structured, focused comparison, and process-tracing techniques to analyze empirical data from diverse sources, including official documents, various secondary materials, semi-structured interviews with secretariat staff and policymakers, and observations at intergovernmental conferences.
The main findings of this research demonstrate that secretariats employ tailored orchestration styles to manage or bypass national governments, thereby raising global ambition levels for addressing transboundary environmental problems. Additionally, they engage in joint interplay management to facilitate information sharing, strategize activities, and mobilize relevant actors, thereby improving coherence across UN environmental institutions. Treaty secretariats play a substantial role in influencing discourses and knowledge exchange with a wide range of actors. However, they face barriers, such as limited resources, mandates, varying leadership priorities, and degrees of politicization within institutional processes, which may hinder their impact. Nevertheless, the secretariats, together with non-state actors, have made progress in advancing norm-building processes, integrated policy-making, capacity building, and implementation efforts within and across framework conventions. Moreover, they utilize innovative means of coordination with actors beyond national governments, such as data-driven governance, to provide policy-relevant information for achieving overarching governance targets.
Importantly, this research highlights the growing interactions between treaty secretariats and non-state actors, which not only shape policy outcomes but also have broader implications for the polity and politics of international institutions. The findings offer opportunities for rethinking collective agency and actor dynamics within UN entities, addressing gaps in institutionalist theory concerning the interaction of actors in inter-institutional spaces. Furthermore, the study addresses emerging challenges and trends in global environmental governance that are pertinent to future policy-making. These include reflections for the debate on reforming international institutions, the role of emerging powers in a changing international world order, and the convergence of public and private authority through new alliance-building and a division of labor between international bureaucracies and non-state actors in global environmental governance.
The Rio Conventions stand at the centerpiece of international cooperation within the governance area of climate change, biodiversity, and desertification. Due to substantial environmental and political linkages, there are interrelations between the three regimes. This study seeks to examine the inter-institutional relationship between the United Nations Framework Convention on Climate Change, the Convention on Biological Diversity and the United Nations Convention to Combat Desertification by analyzing and assessing their horizontal interplay activities from the starting point of their genesis at Earth Summit in 1992 until today. In this research, I address the connections between the three conventions and identify the conflicting, cooperative, and synergetic aspects of inter-institutional relationship. While the overall empirical analysis suggests weak indications of a conflictive type, this research asserts that the interplay activities have thus far led to a cooperative relationship between the Rio Conventions. Moreover, increasing coordination and collaboration between the conventions’ treaty secretariats signals characteristics of a synergetic relationship, which could open up a potential window of opportunity for these actors to further engage and progress in institutional management in the future. In a conclusion, this study explores the possibility of the formation of an overarching environmental institution as a result of joint institutional management within the complex of climate change, biodiversity, and desertification.
Die vorliegende Arbeit beschäftigte sich mit zwei Themengebieten. Es ging zum einen um die mechanischen Eigenschaften von Polyelektrolythohlkapseln und zum anderen um die Adhäsion von Polyelektrolythohlkapseln. Die mechanischen Eigenschaften wurden mit der AFM „colloidal probe” Technik untersucht. Dabei zeigte sich, dass die Kraftdeformationskurven für kleine Deformationen den nach der Schalentheorie vorhergesagten linearen Verlauf haben. Ebenso wurde die quadratische Abhängigkeit der Federkonstanten von der Dicke bestätigt. Für PAH/PSS findet man einen E-Modul von 0.25 GPa. Zusammen mit der Tatsache, dass die Deformationskurven unabhängig von der Geschwindigkeit sind und praktisch keine Hysterese zeigen, sowie der Möglichkeit die Kapseln plastisch zu deformieren, kann man schließen, dass das System in einem glasartigen Zustand vorliegt. <pt>Erwartungsgemäß zeigte der pH einen starken Einfluss auf die PEM. Während in einem pH-Bereich zwischen 2 und 11.5 keine morphologischen Änderungen festgestellt werden konnten, vergrößerte sich der Radius bei pH = 12 um bis zu 50 %. Diese Radienänderung war reversibel und ging einher mit einem sichtbaren Weicherwerden der Kapseln. Eine Abnahme des E-Moduls um mindestens drei Größenordungen wurde durch Kraftdeformationsmessungen bestätigt. Die Kraftdeformationskurven zeigen eine starke Hysterese. Das System befindet sich nun nicht mehr in einem glasartigen Zustand, sondern ist viskos bis gummiartig geworden. Messungen an Kapseln, die mit Glutardialdehyd behandelt wurden, zeigten, dass die Behandlung das pH-abhängige Verhalten verändert. Dies kann darauf zurückgeführt werden, dass das PAH durch den Glutardialdehyd quervernetzt wird. Bei einem hohen Quervernetzungsgrad, zeigen die Kapseln keine Änderung des mechanischen Verhaltens bei pH = 12. Schwach quervernetzte Kapseln werden immer noch signifikant weicher bei pH = 12, jedoch ändert sich der Radius nicht. Außerdem wurden Multilagenkapseln untersucht, deren Stabilität nicht auf elektrostatischen Wechselwirkungen sondern auf Wasserstoffbrückenbindungen beruhte. Diese Kapseln zeigten eine deutlich höhere Steifigkeit mit E-Modulen bis zu 1 GPa. Es wurde gefunden, dass auch dieses System für kleine Deformationen ein lineares Kraft-Deformationsverhalten zeigt, und dass die Federkonstante quadratisch von der Dicke abhängt. Die Kapseln lösen sich praktisch sofort bei pH = 6.5 auf. In der Nähe dieses pHs konnte das Abnehmen der Federkonstanten verfolgt werden. Außerdem wurde das Adhäsionsverhalten von PAH/PSS Kapseln auf mit PEI-beschichtetem Glas untersucht. Die Adhäsionsflächen waren zu einem großen Teil rund und ließen sich quantitativ auswerten. Der Adhäsionsradius nimmt mit dem Kapselradius zu und mit der Dicke ab. Das Verhalten konnte mit zwei Modellen, einem für die große und einem für die kleine Deformation beschrieben werden. Das große Deformationsmodell liefert um eine Größenordung niedrigere Adhäsionsenergien als das kleine Deformationsmodell, welches mit Werten von ‑0.2 mJ/m<sup>2 Werte in einem plausiblen Bereich liefert. Es wurde gefunden, dass bei einem Verhältnis von Dicke zu Deformation von etwa eins "buckling" auftritt. Dieser Punkt markierte zugleich den Übergang von der großen zur kleinen Deformation.
Faunal remains from Palaeolithic sites are important genetic sources to study preglacial and postglacial populations and to investigate the effect of climate change and human impact. Post mortem decay, resulting in fragmented and chemically modified DNA, is a key obstacle in ancient DNA analyses. In the absence of reliable methods to determine the presence of endogenous DNA in sub-fossil samples, temporal and spatial surveys of DNA survival on a regional scale may help to estimate the potential of faunal remains from a given time period and region. We therefore investigated PCR amplification success, PCR performance and post mortem damage in c. 47,000 to c. 12,000-year-old horse remains from 14 Palaeolithic sites along the Swiss Jura Mountains in relation to depositional context, tissue type, storage time and age, potentially influencing DNA preservation. The targeted 75 base pair mitochondrial DNA fragment could be amplified solely from equid remains from caves and not from any of the open dry and (temporary) wetland sites. Whether teeth are better than bones cannot be ultimately decided; however, both storage time after excavation and age significantly affect PCR amplification and performance, albeit not in a linear way. This is best explained by the—inevitable—heterogeneity of the data set. The extent of post mortem damage is not related to any of the potential impact factors. The results encourage comprehensive investigations of Palaeolithic cave sites, even from temperate regions.
Looking times and gaze behavior indicate that infants can predict the goal state of an observed simple action event (e.g., object-directed grasping) already in the first year of life. The present paper mainly focuses on infants' predictive gaze-shifts toward the goal of an ongoing action. For this, infants need to generate a forward model of the to-be-obtained goal state and to disengage their gaze from the moving agent at a time when information about the action event is still incomplete. By about 6 months of age, infants show goal-predictive gaze-shifts, but mainly for familiar actions that they can perform themselves (e.g., grasping) and for familiar agents (e.g., a human hand). Therefore, some theoretical models have highlighted close relations between infants' ability for action-goal prediction and their motor development and/or emerging action experience. Recent research indicates that infants can also predict action goals of familiar simple actions performed by non-human agents (e.g., object-directed grasping by a mechanical claw) when these agents display agency cues, such as self-propelled movement, equifinality of goal approach, or production of a salient action effect. This paper provides a review on relevant findings and theoretical models, and proposes that the impacts of action experience and of agency cues can be explained from an action-event perspective. In particular, infants' goal-predictive gaze-shifts are seen as resulting from an interplay between bottom-up processing of perceptual information and top-down influences exerted by event schemata that store information about previously executed or observed actions.
Behandelte Themen sind: Staat und Wirtschaft als wesentliches Thema von TI; Staat und Wirtschaft früher stärker verbandelt; Distanz zwischen Staat und Wirtschaft als Korruptionsprävention; Geforderte Distanz gegenläufig zu New Public Management; New Public Management als Alternative zum Klüngel; Public Private Partnerships (PPP) – populär, wo formalisierte Lösungen versagen; „Privatisierung“ führt zu neuen Korruptionsrisiken; New Public Management – in Teilbereichen Alternative zu „Privatisierung“?; Das Potential von Transparenz; Neue Chancen für Ethik und Integrität
Mit der globalen Banken- und Finanzkrise ist die Debatte um den Kapitalismus neu entfacht. Doch wie kapitalistisch ist die Weltwirtschaft und welche Folgen entstehen für die internationale Politik? Bereits mit seinem 2007 erschienenen Werk zur „Geschichte und Ökonomie der europäischen Welteroberung – Vom Zeitalter der Entdeckungen zum 1. Weltkrieg“ legt Hartmut Elsenhans eine umfangreiche Analyse der Geschichte und Bedingungen kapitalistischer Expansion vor. Im vorliegenden Beitrag bleibt der Autor seinem interdisziplinären Ansatz treu. Als entscheidend für kapitalistisches Wachstum werden gesellschaftliche Kräfteverhältnisse zwischen dominanten und subalternen Klassen erachtet. Der Kapitalismus erweist sich hier als fragiles System, dessen Entstehung nicht auf in vorkapitalistischen Gesellschaften vorhandene Interessen herrschender Klassen zurückzuführen ist, sondern ein ungeplant umgesetztes „Projekt“ der Subalternen darstellt.
Underlying the importance of revenue the author discusses the future of the international order from the perspective of political economy. The international system will not be a capitalist one. Political conflicts will not be removed by nonviolent market regulations. Weakness of labour force and a dominant role of revenue will further more result in political interventions by nation states. The struggle for revenue to maintain comparative advantages in high-tech-development strengthens state intervention in order to protect domestic market. The failure of the "development state" in the third world and the rising of fundamentalistic tendencies supported by a market-oriented middle class will increase conflicts in those regions.
Hellmanns Warnung vor einer Resozialisierung der deutschen Außenpolitik in eine traditionelle Großmachtrolle erweckt bei mir viel Sympathie. Seine Alternative finde ich moralisch ehrenhaft, aber realistisch nur innerhalb des Prozesses der europäischen Integration. Ich glaube allerdings nicht, dass das Erbe der Geschichte Deutschlands ein besonderes außenpolitisches Vorgehen erzwingt. Ebenso wenig glaube ich, dass idealistische Positionen, gleich welcher Couleur, bei der Bewahrung von Frieden realistischen überlegen sind. Der Berliner Republik haftet ein gewisser Wilhelminismus in der Außenpolitik an. Man will durch Nachholen gleich werden wie die anderen. Die Warnung vor Rissen im Bündnis und vor der Möglichkeit einer Spirale des Niedergangs der europäischen Integration im Beitrag von Hellmann teile ich. Ich würde noch weiter gehen: Auch die humanitäre Intervention bleibt Intervention. Prinzipien der Menschenrechte sind wichtig, ihre Ausgestaltung, manchmal sogar Teile ihrer Prinzipien aber strittig. Welche Kriterien gibt uns der offensive Realismus bei der Stärkung der Interventionsmöglichkeiten draußen, wenn wir dabei keine machtpolitischen Interessen vertreten sollen? Wenn wir nicht alle Übel der Welt abschaffen wollen, dann muss eine Hierarchie verfolgt werden. Die rot-grüne Koalition hat mit der Ausnahme der Irak-Entscheidung im Wesentlichen das Ziel verfolgt, den eigenen Einfluss innerhalb der westlichen Staatengemeinschaft zu steigern. Hellmanns Empfehlung lautet wohl, dort mitzumachen, wo supranationale Institutionen geschaffen werden sollen. Welches sind die Kriterien zur Messung dieser Ziele?
Vor 50 Jahren löste sich Algerien nach langem Kampf endgültig aus dem französischen Kolonialreich. Die anschließend durchgeführten Wirtschaftsreformen konnten das Land aber nicht befrieden, weil sie keine effektive Nutzung der Rente verwirklichten. Bis heute ist die Wirtschaft des Landes wenig diversifiziert und stark von Erdöleinnahmen abhängig. Ist eine exportorientierte Industrialisierung als Lösung der Probleme denkbar?
Von einem destruktiven Keynesianismus wird angenommen, dass er das Beschäftigungsproblem aufwirft – allerdings nur in Deutschland und zulasten der Partner in der EU. Wer Wachstum von steigenden Exportüberschüssen erwartet – ohne Ausweitung des deutschen Binnenmarktes –, exportiert auch Arbeitslosigkeit und Wirtschaftskrisen.
Was uns Algerien lehrt
(2011)
Earlier investigations at South Creek in northeastern Queensland established the importance of overland flow as a hydrologic pathway in this tropical rainforest environment. Since this pathway is ‘fast’, transmitting presumably ‘new’ water, its importance should be reflected in the stormflow chemistry of South Creek: the greater the volumentric contribution to the stormflow hydrograph, the more similarity between the chemical composition of streamwater and of overland flow is to be expected. Water samples were taken during two storm events in an ephemeral gully (gully A), an intermittent gully (gully B) and at the South Creek catchment outlet; additional spot checks were made in several poorly defined rills. The chemical composition of ‘old’ water was determined from 45 baseflow samples collected throughout February. The two events differed considerably in their magnitudes, intensities and antecedent moisture conditions. In both events, the stormflow chemistry in South Creek was characterized by a sharp decrease in Ca, Mg, Na, Si, Cl, EC, ANC, alkalinity and total inorganic carbon. pH remained nearly constant with discharge, whereas K increased sharply, as did sulfate in an ill-defined manner. In event 1, this South Creek stormflow pattern was closely matched by the pattern in gully A, implying a dominant contribution of ‘new’ water. This match was confirmed by the spot samples from rills. Gully B behaved like South Creek itself, but with a dampened ‘new’ water signal, indicating less overland flow generation in its subcatchment. In event 2, which occurred five days later, the initial ‘new’ water signal in gully A was rapidly overwhelmed by a different signal which is attributed to rapid drainage from a perched water table. This study shows that stormflow in this rainforest catchment consists predominantly of ‘new’ water which reaches the stream channel via ‘fast’ pathways. Where the ephemeral gullies delivering overland flow are incised deeply enough to intersect a perched water table, a delayed, ‘old’ water-like signal may be transmitted.
Previous hydrometric studies demonstrated the prevalence of overland flow as a hydrological pathway in the tropical rain forest catchment of South Creek, northeast Queensland. The purpose of this study was to consider this information in a mixing analysis with the aim of identifying sources of, and of estimating their contribution to, storm flow during two events in February 1993. K and acid-neutralizing capacity (ANC) were used as tracers because they provided the best separation of the potential sources, saturation overland flow, soil water from depths of 0.3, 0.6, and 1.2 m, and hillslope groundwater in a two-dimensional mixing plot. It was necessary to distinguish between saturation overland flow, generated at the soil surface and following unchanneled pathways, and overland flow in incised pathways. This latter type of overland flow was a mixture of saturation overland flow (event water) with high concentrations of K and a low ANC, soil water (preevent water) with low concentrations of K and a low ANC, and groundwater (preevent water) with low concentrations of K and a high ANC. The same sources explained the streamwater chemistry during the two events with strongly differing rainfall and antecedent moisture conditions. The contribution of saturation overland flow dominated the storm flow during the first, high-intensity, 178-mm event, while the contribution of soil water reached 50% during peak flow of the second, low-intensity, 44-mm event 5 days later. This latter result is remarkably similar to soil water contributions to storm flow in mountainous forested catchments of the southeastern United States. In terms of event and preevent water the storm flow hydrograph of the high-intensity event is dominated by event water and that of the low-intensity event by preevent water. This study highlights the problems of applying mixing analyses to overland flow-dominated catchments and soil environments with a poorly developed vertical chemical zonation and emphasizes the need for independent hydrometric information for a complete characterization of watershed hydrology and chemistry.
Chemical fingerprints of hydrological compartments and flow paths at La Cuenca, western Amazonia
(1995)
A forested first-order catchment in western Amazonia was monitored for 2 years to determine the chemical fingerprints of precipitation, throughfall, overland flow, pipe flow, soil water, groundwater, and streamflow. We used five tracers (hydrogen, calcium, magnesium, potassium, and silica) to distinguish “fast” flow paths mainly influenced by the biological subsystem from “slow” flow paths in the geochemical subsystem. The former comprise throughfall, overland flow, and pipe flow and are characterized by a high potassium/silica ratio; the latter are represented by soil water and groundwater, which have a low potassium/silica ratio. Soil water and groundwater differ with respect to calcium and magnesium. The groundwater-controlled streamflow chemistry is strongly modified by contributions from fast flow paths during precipitation events. The high potassium/silica ratio of these flow paths suggests that the storm flow response at La Cuenca is dominated by event water.
Throughfall measurements were made under primary terra firme rainforest in the Rio Pichis valley, in the Upper Amazon Basin of Peru. Based on 214 precipitation events over nearly 18 months, throughfall was estimated to be 83.1±8.8% of gross precipitation. Regression analysis of all events revealed that gross precipitation is the only significant explanatory variable; the use of one-burst events does not significantly improve the regression relationship. Gross precipitation is, however, a poor predictor of throughfall for small rainfall events. The two forest structure parameters, canopy capacity, S, and free throughfall coefficient, p, were determined to be 1.3±0.2 mm and 0.32±0.18 mm. Rainfall intensity was found to influence these parameters. New methods which attempt to minimize the influence of meteorologic variables are used to estimate the potential values of these canopy parameters.
Rainfall erosivities as defined by the R factor from the universal soil loss equation were determined for all events during a two-year period at the station La Cuenca in western Amazonia. Three methods based on a power relationship between rainfall amount and erosivity were then applied to estimate event and daily rainfall erosivities from the respective rainfall amounts. A test of the resulting regression equations against an independent data set proved all three methods equally adequate in predicting rainfall erosivity from daily rainfall amount. We recommend the Richardson model for testing in the Amazon Basin, and its use with the coefficient from La Cuenca in western Amazonia.
The topography of first-order catchments in a region of western Amazonia was found to exhibit distinctive, recurrent features: a steep, straight lower side slope, a flat or nearly flat terrace at an intermediate elevation between valley floor and interfluve, and an upper side slope connecting interfluve and intermediate terrace. A detailed survey of soil-saturated hydraulic conductivity (K sat)-depth relationships, involving 740 undisturbed soil cores, was conducted in a 0.75-ha first-order catchment. The sampling approach was stratified with respect to the above slope units. Exploratory data analysis suggested fourth-root transformation of batches from the 0–0.1 m depth interval, log transformation of batches from the subsequent 0.1 m depth increments, and the use of robust estimators of location and scale. The K sat of the steep lower side slope decreased from 46 to 0.1 mm/h over the overall sampling depth of 0.4 m. The corresponding decrease was from 46 to 0.1 mm/h on the intermediate terrace, from 335 to 0.01 mm/h on the upper side slope, and from 550 to 0.015 mm/h on the interfluve. A depthwise comparison of these slope units led to the formulation of several hypotheses concerning the link between K sat and topography.
Dynamic resource management is an essential requirement for private and public cloud computing environments. With dynamic resource management, the physical resources assignment to the cloud virtual resources depends on the actual need of the applications or the running services, which enhances the cloud physical resources utilization and reduces the offered services cost. In addition, the virtual resources can be moved across different physical resources in the cloud environment without an obvious impact on the running applications or services production. This means that the availability of the running services and applications in the cloud is independent on the hardware resources including the servers, switches and storage failures. This increases the reliability of using cloud services compared to the classical data-centers environments.
In this thesis we briefly discuss the dynamic resource management topic and then deeply focus on live migration as the definition of the compute resource dynamic management. Live migration is a commonly used and an essential feature in cloud and virtual data-centers environments. Cloud computing load balance, power saving and fault tolerance features are all dependent on live migration to optimize the virtual and physical resources usage. As we will discuss in this thesis, live migration shows many benefits to cloud and virtual data-centers environments, however the cost of live migration can not be ignored. Live migration cost includes the migration time, downtime, network overhead, power consumption increases and CPU overhead.
IT admins run virtual machines live migrations without an idea about the migration cost. So, resources bottlenecks, higher migration cost and migration failures might happen. The first problem that we discuss in this thesis is how to model the cost of the virtual machines live migration. Secondly, we investigate how to make use of machine learning techniques to help the cloud admins getting an estimation of this cost before initiating the migration for one of multiple virtual machines. Also, we discuss the optimal timing for a specific virtual machine before live migration to another server. Finally, we propose practical solutions that can be used by the cloud admins to be integrated with the cloud administration portals to answer the raised research questions above.
Our research methodology to achieve the project objectives is to propose empirical models based on using VMware test-beds with different benchmarks tools. Then we make use of the machine learning techniques to propose a prediction approach for virtual machines live migration cost. Timing optimization for live migration is also proposed in this thesis based on using the cost prediction and data-centers network utilization prediction. Live migration with persistent memory clusters is also discussed at the end of the thesis. The cost prediction and timing optimization techniques proposed in this thesis could be practically integrated with VMware vSphere cluster portal such that the IT admins can now use the cost prediction feature and timing optimization option before proceeding with a virtual machine live migration.
Testing results show that our proposed approach for VMs live migration cost prediction shows acceptable results with less than 20% prediction error and can be easily implemented and integrated with VMware vSphere as an example of a commonly used resource management portal for virtual data-centers and private cloud environments. The results show that using our proposed VMs migration timing optimization technique also could save up to 51% of migration time of the VMs migration time for memory intensive workloads and up to 27% of the migration time for network intensive workloads. This timing optimization technique can be useful for network admins to save migration time with utilizing higher network rate and higher probability of success.
At the end of this thesis, we discuss the persistent memory technology as a new trend in servers memory technology. Persistent memory modes of operation and configurations are discussed in detail to explain how live migration works between servers with different memory configuration set up. Then, we build a VMware cluster with persistent memory inside server and also with DRAM only servers to show the live migration cost difference between the VMs with DRAM only versus the VMs with persistent memory inside.
Social networks are currently at the forefront of tools that
lend to Personal Learning Environments (PLEs). This study aimed to
observe how students perceived PLEs, what they believed were the
integral components of social presence when using Facebook as part
of a PLE, and to describe student’s preferences for types of interactions
when using Facebook as part of their PLE. This study used mixed
methods to analyze the perceptions of graduate and undergraduate
students on the use of social networks, more specifically Facebook as a
learning tool. Fifty surveys were returned representing a 65 % response
rate. Survey questions included both closed and open-ended questions.
Findings suggested that even though students rated themselves relatively
well in having requisite technology skills, and 94 % of students used
Facebook primarily for social use, they were hesitant to migrate these
skills to academic use because of concerns of privacy, believing that
other platforms could fulfil the same purpose, and by not seeing the
validity to use Facebook in establishing social presence. What lies
at odds with these beliefs is that when asked to identify strategies in
Facebook that enabled social presence to occur in academic work, the
majority of students identified strategies in five categories that lead to
social presence establishment on Facebook during their coursework.
Die Maßnahmen zur Eindämmung der COVID-19-Pandemie gingen mit Schulschließungen und variablen Unterrichtsformen einher, was laut Studienlage zum Thema viele Schüler:innen vor große Herausforderungen gestellt hat und noch immer stellt. Es werden Leistungsabfälle und negative Auswirkungen auf die psychische Gesundheit diskutiert. Da besonders die Lesekompetenz eine grundlegende Ressource für schulische Leistungssituationen ist, soll sie im Fokus dieser Studie stehen.
Die Daten der längsschnittlich angelegten BLab-Studie, die den Erwerbsverlauf von Lese- und Rechtschreibleistungen über die Klassenstufen 1 bis 10 untersucht, wurden dazu genutzt, Unterschiede zwischen den Leseleistungen (operationalisiert aus den normierten und standardisierten Untertests zur Lesekompetenz aus ELFE 1 – 6 und SLRT-II) und vier Skalen des Fragebogens zur Erfassung von schulrelevanten Einstellungen und Sichtweisen von Grundschüler:innen FEESS 3 – 4 (Schuleinstellung, Anstrengungsbereitschaft, Lernfreude und Selbstkonzept) statistisch zu analysieren. Dazu wurden die Testergebnisse von N = 174 Viertklässler:innen zweier Kohorten ausgewertet, von denen eine vom variablen Unterrichtsmodus während der COVID-19-Pandemie betroffen war.
Die Ergebnisse der Gruppenvergleiche stellen sich heterogen dar und müssen differenziert betrachtet werden. Insgesamt scheinen die hier einbezogenen Schüler:innen mit den schulbezogenen Maßnahmen zur Eindämmung der COVID-19-Pandemie gut zurechtgekommen zu sein.
Objective
To improve consumer decision making, the results of risk assessments on food, feed, consumer products or chemicals need to be communicated not only to experts but also to non-expert audiences. The present study draws on evidence from literature reviews and focus groups with diverse stakeholders to identify content to integrate into an existing risk assessment communication (Risk Profile).
Methods
A combination of rapid literature reviews and focus groups with experts (risk assessors (n = 15), risk managers (n = 8)), and non-experts (general public (n = 18)) were used to identify content and strategies for including information about risk assessment results in the “Risk Profile” from the German Federal Institute for Risk Assessment. Feedback from initial focus groups was used to develop communication prototypes that informed subsequent feedback rounds in an iterative process. A final prototype was validated in usability tests with experts.
Results
Focus group feedback and suggestions from risk assessors were largely in line with findings from the literature. Risk managers and lay persons offered similar suggestions on how to improve the existing communication of risk assessment results (e.g., including more explanatory detail, reporting probabilities for individual health impairments, and specifying risks for subgroups in additional sections). Risk managers found information about quality of evidence important to communicate, whereas people from the general public found this information less relevant. Participants from lower educational backgrounds had difficulties understanding the purpose of risk assessments. User tests found that the final prototype was appropriate and feasible to implement by risk assessors.
Conclusion
An iterative and evidence-based process was used to develop content to improve the communication of risk assessments to the general public while being feasible to use by risk assessors. Remaining challenges include how to communicate dose-response relationships and standardise quality of evidence ratings across disciplines.
Polizei im Orient
(2009)
Inhalt: Polizei in Kambodscha – Der Blick in die Vergangenheit - Folgen dieser Erfahrungen auf Bevölkerung und Gesellschaft - Zusammensetzung und Organisation der Polizei in Kambodscha - Betriebsförmigkeit - Standardisierung - Formalisierung Zur Sozialkultur und Außenwirkung der kambodschanischen Polizei Einordnung des kambodschanischen Polizeiapparats in das Herrschaftstypenmodell Max Webers
Oil and gas are the most important gains for the russian economy. So the improvement of these industries is very important and should be analyzed very well. In this paper we analyze the tendency in the development of these industries for the past ten years. We use a factor-analysis for the identification of determinants which have positive and negative effects on the development of the performance of these companies. Some of these determinants are the investment activities or the influence by the government. As result we get three types of firms related to their performances. There are the leaders, the middle and the outsiders.
Over the last decades mechanisms of recognition of morphologically complex words have been extensively examined in order to determine whether all word forms are stored and retrieved from the mental lexicon as wholes or whether they are decomposed into their morphological constituents such as stems and affixes. Most of the research in this domain focusses on English. Several factors have been argued to affect morphological processing including, for instance, morphological structure of a word (e.g., existence of allomorphic stem alternations) and its linguistic nature (e.g., whether it is a derived word or an inflected word form). It is not clear, however, whether processing accounts based on experimental evidence from English would hold for other languages. Furthermore, there is evidence that processing mechanisms may differ across various populations including children, adult native speakers and language learners. Recent studies claim that processing mechanisms could also differ between older and younger adults (Clahsen & Reifegerste, 2017; Reifegerste, Meyer, & Zwitserlood, 2017).
The present thesis examined how properties of the morphological structure, types of linguistic operations involved (i.e., the linguistic contrast between inflection and derivation) and characteristics of the particular population such as older adults (e.g., potential effects of ageing as a result of the cognitive decline or greater experience and exposure of older adults) affect initial, supposedly automatic stages of morphological processing in Russian and German. To this end, a series of masked priming experiments was conducted.
In experiments on Russian, the processing of derived -ost’ nouns (e.g., glupost’ ‘stupidity’) and of inflected forms with and without allomorphic stem alternations in 1P.Sg.Pr. (e.g., igraju – igrat’ ‘to play’ vs. košu – kosit’ ‘to mow’) was examined. The first experiment on German examined and directly compared processing of derived -ung nouns (e.g., Gründung ‘foundation’) and inflected -t past participles (e.g., gegründet ‘founded’), whereas the second one investigated the processing of regular and irregular plural forms (-s forms such as Autos ‘cars’ and -er forms such as Kinder ‘children’, respectively).
The experiments on both languages have shown robust and comparable facilitation effects for derived words and regularly inflected forms without stem changes (-t participles in German, forms of -aj verbs in Russian). Observed morphological priming effects could be clearly distinguished from purely semantic or orthographic relatedness between words. At the same time, we found a contrast between forms with and without allomorphic stem alternations in Russian and regular and irregular forms in German, with significantly more priming for unmarked stems (relative to alternated ones) and significantly more priming for regular (compared) word forms. These findings indicate the relevance of morphological properties of a word for initial stages of processing, contrary to claims made in the literature holding that priming effects are determined by surface form and meaning overlap only. Instead, our findings are more consistent with approaches positing a contrast between combinatorial, rule-based and lexically-stored forms (Clahsen, Sonnenstuhl, & Blevins, 2003).
The doctoral dissertation also addressed the role of ageing and age-related cognitive changes on morphological processing. The results obtained on this research issue are twofold. On the one hand, the data demonstrate effects of ageing on general measures of language performance, i.e., overall longer reaction times and/or higher accuracy rates in older than younger individuals. These findings replicate results from previous studies, which have been linked to the general slowing of processing speed at older age and to the larger vocabularies of older adults. One the other hand, we found that more specific aspects of language processing appear to be largely intact in older adults as revealed by largely similar morphological priming effects for older and younger adults. These latter results indicate that initial stages of morphological processing investigated here by means of the masked priming paradigm persist in older age. One caveat should, however, be noted. Achieving the same performance as a younger individual in a behavioral task may not necessarily mean that the same neural processes are involved. Older people may have to recruit a wider brain network than younger individuals, for example. To address this and related possibilities, future studies should examine older people’s neural representations and mechanisms involved in morphological processing.
Fruits exhibit a vast array of different 3D shapes, from simple spheres and cylinders to more complex curved forms; however, the mechanism by which growth is oriented and coordinated to generate this diversity of forms is unclear. Here, we compare the growth patterns and orientations for two very different fruit shapes in the Brassicaceae: the heart-shaped Capsella rubella silicle and the near-cylindrical Arabidopsis thaliana silique. We show, through a combination of clonal and morphological analyses, that the different shapes involve different patterns of anisotropic growth during three phases. These experimental data can be accounted for by a tissue level model in which specified growth rates vary in space and time and are oriented by a proximodistal polarity field. The resulting tissue conflicts lead to deformation of the tissue as it grows. The model allows us to identify tissue-specific and temporally specific activities required to obtain the individual shapes. One such activity may be provided by the valve-identity gene FRUITFULL, which we show through comparative mutant analysis to modulate fruit shape during post-fertilisation growth of both species. Simple modulations of the model presented here can also broadly account for the variety of shapes in other Brassicaceae species, thus providing a simplified framework for fruit development and shape diversity.
The Semantics of Ellipsis
(2005)
There are four phenomena that are particularly troublesome for theories of ellipsis: the existence of sloppy readings when the relevant pronouns cannot possibly be bound; an ellipsis being resolved in such a way that an ellipsis site in the antecedent is not understood in the way it was there; an ellipsis site drawing material from two or more separate antecedents; and ellipsis with no linguistic antecedent. These cases are accounted for by means of a new theory that involves copying syntactically incomplete antecedent material and an analysis of silent VPs and NPs that makes them into higher order definite descriptions that can be bound into.
Der vorliegende Artikel befasst sich mit Adventure-based Learning, einer digitalen, spielbasierten Lernmethode. Das Ziel derartiger Anwendungen ist es, Motivation und Begeisterung der Lernenden zu stimulieren und dadurch Lernprozesse zu unterstützen. Die Frage, inwiefern Adventure-based Learning tatsächlich lernförderliche Mehrwerte induziert, wird anhand einer Fallstudie im Kontext betrieblicher Weiterbildung untersucht. Hierzu wird ein Experiment mit 40 Probanden durchgeführt, in der eine Adventure-based Learning-Anwendung mit einer interaktiven Powerpoint-Präsentation verglichen wird. Die Ergebnisse der Untersuchung deuten darauf hin, dass viele Lernende sich Lernprogramme wünschen, die weniger textlastig sind und mit Adventure-based Learning eine vergleichbare Behaltensleistung erreicht wird.
A variety of polymerizable lipids containing a hydrophilic spacer group between the reactive group and the main amphiphilic structure have been synthesized. They were investigated in monolayers, liposomes, and multilayers. When the spacer concept was used, efficient decoupling of the motions of the polymeric chain and the amphiphilic side groups is achieved. Thus, the often found loss of the important fluid phases by polymerization is avoided. Polymeric monolayers of the spacer lipid, prepared either by polymerization in the monolayer or by spreading of prepolymerized lipid, exhibit nearly identical surface pressure-area diagrams. Most distinctly, the successful decoupling of the motions of the polymer main chain and the membrane forming amphiphilic side groups is demonstrated by the self-organization of bulk polymerized spacer lipids to polymeric liposomes. In addition, spacer lipids are able to build polymeric Langmuir-Blodgett multilayers. The decoupling of the polymer main chain and the membrane-forming amphiphilic side groups enables the deposition of already polymeric monolayers onto supports to form defined multilayers. If, alternatively, monomeric monolayers are deposited and polymerized on the support, defects in the layers due to structural changes during the polymerization are avoided by the flexible spacer group.
Dietary antioxidants are believed to play an important role in the prevention and treatment of a variety of diseases associated with oxidative stress. Although there is a wide range of dietary antioxidants, the bulk of the research to date has been focused on the nutrient antioxidants vitamin C, E, and carotenoids. Certain relatively uncommon antioxidants such as lipoic acid (LA), and phenolic compounds such as (-)-epicatechin (EC), (-)-epigallocatechin (EGC), (-)-epicatechin gallate (ECG), and (-)-epigallocatechin gallate (EGCG), have not been extensively investigated although they may exert greater antioxidant potency than that of carotenoids and vitamins. Extracts from selected plants and plant byproducts may represent rich sources for one or more of such antioxidants and therefore exhibit higher effects than a single antioxidant due to the synergistic effects produced between such antioxidants. However, in the last decade a number of epidemiological, animal and in vitro studies have suggested a protective and therapeutic potency of these antioxidants in a broad range of diseases such as cancer, diabetes, atherosclerosis, cataract and acute and chronic neurological disorders. Inflammation, the response of the host toward any infection or injury, plays a central role in the development of many chronic diseases. Several evidences demonstrated the rise of different types of cancer from sites of inflammation. This suggests that active oxygen species and some cytokines generated in the inflamed tissues can cause injury to DNA and ultimately lead to carcinogenesis. Diethylnitrosamine (DEN) is one of the most important environmental carcinogens, present in a variety of foods, alcoholic beverages, tobacco smoke and it can be synthesized endogenously. In addition to the liver it can induce carcinogenesis in other organs like kidney, trachea, lung, esophagus, fore stomach, and nasal cavity. Several epidemiological and laboratory studies indicate that nitroso compounds including DEN may induce hyperplasia and chronic inflammation which is closely associated with the development of hepatocellular carcinoma. Despite increasing evidence on the potential of antioxidants in modulating the etiology of chronic diseases, little is known about their role in inflammation and acute phase response (APR). Therefore the aim of the present work was to study the protective effect of water and solvent extracts of eight plant and plant byproducts including green tea, artichoke, spinach, broccoli, onion and eggplant, orange and potato peels as well as eight antioxidants agents including EC, EGC, ECG, EGCG, ascorbic acid (AA), acetylcysteine (NAC), α-LA, and alpha-tocopherol (α-TOC) toward acute inflammation induced by interleukin-6 (IL-6) and hepatotoxicity induced by DEN in vitro. The negative acute phase proteins (APP), transthyretin (TTR) and retinol-binding protein (RBP) were used as inflammatory biomarkers analyzed by ELISA, whereas neutral red assay was used for evaluating the cytotoxicity. All experiments were performed in vitro using human hepatocarcinoma cell line (HepG2). Additionally the antioxidant activity was measured by TEAC and FRAP assays, phenolic content was measured by Folin–Ciocalteu and characterized by HPLC. Moreover, the microheterogeneity of TTR was detected using immunoprecipitation assay combined with SELDI-TOF MS. Results of present study showed that HepG2 cells provide a simple, sensitive in vitro system for studying the regulation of the negative APP, TTR and RBP under free and inflammatory condition. IL-6, a potent proinflammatory cytokine, in a concentration of 25 ng/ml was able to reduce TTR and RBP secretion by approximately 50-60% after 24h of incubation. With exception of broccoli and water extract of onion which showed pro-inflammatory effects in this study, all other plant extracts, at specific concentrations, were able to elevate TTR secretion in normal condition and even under treatment of IL-6 where the effect was quite lower. Green tea followed by artichoke and potato peel exhibited the highest elevation in TTR concentration which reached 1.1 and 2.5 folds of control in presence and absences of IL-6 respectively. In general Plant extracts were ordered according their anti-inflammatory potency as following: in water extracts; green tea > artichoke > potato peel > orange peel > spinach > eggplant peel, where in solvent extracts; green tea > artichoke > potato peel > spinach > eggplant peel > onion > orange peel. The antiinflammatory effect of water extracts of green tea, artichoke and orange peel were significantly higher than their corresponding solvent extracts whereas water extracts of eggplant-, potato peels and spinach showed lower effect than their solvent extracts. On the other hand α-LA followed by EGCG and ECG exhibited the highest elevation in TTR concentration compared to other antioxidants. The relation between the anti-inflammatory potential and antioxidants activity and phenolic content for the investigated substances was generally weak. This may suggest the involvement of other mechanisms than antioxidants properties for the observed effect. TTR secreted by HepG2 cells has a molecular structure quite similar to the purified standard and serum TTR in which all the three main variants are contained including native, S-cystinylated and Sglutathionylated TTR. Interestingly, a variant with molecular mass of 13453.8 + 8.3 Da has been detected only in TTR secreted by HepG2. Among all investigated antioxidants and plant extracts, six substances were able to elevate the native preferable TTR variant. The potency of these substances can be ordered as following α-LA > NAC > onion > AA > EGCG > green tea. A weak correlation between elevation on TTR and shifting to the native form was observed. Similar weak correlation has also been observed between antioxidants activity and elevation in native TTR. Although DEN was able to induce cell death in a concentration dependent manner, it requires considerably higher concentrations for its effects especially after 24h. This may be attributed to a lack in cytochrome P450 enzymes produced by HepG2. At selected concentrations some antioxidants and plant extracts significantly attenuate DEN cytotoxicity as following: spinach > α-LA > artichoke > orange peel > eggplant peel > α-TOC > onion > AA. Contrary all other substances especially green tea, broccoli, potato peel, and ECG stimulate DEN toxicity. In conclusion, this study demonstrated that selected antioxidants and plant extracts may attenuate the inflammatory process, not only by their antioxidants potency but also by other mechanisms which remain unclear. They may also play a vital role on stabilizing the tetramic structure of TTR and thereby prevent amyloidosis diseases. Lipoic acid represents in this study unique function against inflammation and hepatotoxicity. Despite the protective effect demonstrated by investigated substances, attention should also be given to the pro-oxidant and potential cytotoxic effects produced at higher concentrations.
Discussing the case of Egypt, the author claims that since the preconditions in the Middle East are very different from those in Europe, there also has to be a different approach towards its modernization process. She suggests a „restructuring“ of the state not only in the economic sector but also in the political, cultural, or social areas. The advantage of such an approach lies in the fact that elements and values of the traditional culture can be maintained and even expanded. Furthermore, as this approach does not presuppose any specific model, it can be applied to all kinds of societies. However, restrucuring cannot replace modernization.
The author distinguishes between three types of Islamic states. A first type uses Islam as political legitimation (Saudi Arabia). In contrast, the second type uses Islam merely as a political framework. In Iran, for instance, religious values are maintained while at the same time democratic elements, such as elections, can be found. Egypt is mentioned as an example of the third type of state that ranges between a secular and a religious political system. Looking at the modernization process in Egypt more closely, the author claims that without good governance the efforts of the state will be useless and religious extremism may dominate.
Purpose: To examine the effects of fatiguing isometric contractions on maximal eccentric strength and electromechanical delay (EMD) of the knee flexors in healthy young adults of different training status.
Methods: Seventy-five male participants (27.7 ± 5.0 years) were enrolled in this study and allocated to three experimental groups according to their training status: athletes (ATH, n = 25), physically active adults (ACT, n = 25), and sedentary participants (SED, n = 25). The fatigue protocol comprised intermittent isometric knee flexions (6-s contraction, 4-s rest) at 60% of the maximum voluntary contraction until failure. Pre- and post-fatigue, maximal eccentric knee flexor strength and EMDs of the biceps femoris, semimembranosus, and semitendinosus muscles were assessed during maximal eccentric knee flexor actions at 60, 180, and 300°/s angular velocity. An analysis of covariance was computed with baseline (unfatigued) data included as a covariate.
Results: Significant and large-sized main effects of group (p ≤ 0.017, 0.87 ≤ d ≤ 3.69) and/or angular velocity (p < 0.001, d = 1.81) were observed. Post hoc tests indicated that regardless of angular velocity, maximal eccentric knee flexor strength was lower and EMD was longer in SED compared with ATH and ACT (p ≤ 0.025, 0.76 ≤ d ≤ 1.82) and in ACT compared with ATH (p = ≤0.025, 0.76 ≤ d ≤ 1.82). Additionally, EMD at post-test was significantly longer at 300°/s compared with 60 and 180°/s (p < 0.001, 2.95 ≤ d ≤ 4.64) and at 180°/s compared with 60°/s (p < 0.001, d = 2.56), irrespective of training status.
Conclusion: The main outcomes revealed significantly higher maximal eccentric strength and shorter eccentric EMDs of knee flexors in individuals with higher training status (i.e., athletes) following fatiguing exercises. Therefore, higher training status is associated with better neuromuscular functioning (i.e., strength, EMD) of the hamstring muscles in fatigued condition. Future longitudinal studies are needed to substantiate the clinical relevance of these findings.
Background
Maximal isokinetic strength ratios of joint flexors and extensors are important parameters to indicate the level of muscular balance at the joint. Further, in combat sports athletes, upper and lower limb muscle strength is affected by the type of sport. Thus, this study aimed to examine the differences in maximal isokinetic strength of the flexors and extensors and the corresponding flexor–extensor strength ratios of the elbows and knees in combat sports athletes.
Method
Forty male participants (age = 22.3 ± 2.5 years) from four different combat sports (amateur boxing, taekwondo, karate, and judo; n = 10 per sport) were tested for eccentric peak torque of the elbow/knee flexors (EF/KF) and concentric peak torque of the elbow/knee extensors (EE/KE) at three different angular velocities (60, 120, and 180°/s) on the dominant and non-dominant side using an isokinetic device.
Results
Analyses revealed significant, large-sized group × velocity × limb interactions for EF, EE, and EF–EE ratio, KF, KE, and KF–KE ratio (p ≤ 0.03; 0.91 ≤ d ≤ 1.75). Post-hoc analyses indicated that amateur boxers displayed the largest EE strength values on the non-dominant side at ≤ 120°/s and the dominant side at ≥ 120°/s (p < 0.03; 1.21 ≤ d ≤ 1.59). The largest EF–EE strength ratios were observed on amateur boxers’ and judokas’ non-dominant side at ≥ 120°/s (p < 0.04; 1.36 ≤ d ≤ 2.44). Further, we found lower KF–KE strength measures in karate (p < 0.04; 1.12 ≤ d ≤ 6.22) and judo athletes (p ≤ 0.03; 1.60 ≤ d ≤ 5.31) particularly on the non-dominant side.
Conclusions
The present findings indicated combat sport-specific differences in maximal isokinetic strength measures of EF, EE, KF, and KE particularly in favor of amateur boxers on the non-dominant side.
This study aimed at examining physiological responses (i.e., oxygen uptake [VO2] and heart rate [HR]) to a semi-contact 3 x 3-min format, amateur boxing combat simulation in elite level male boxers. Eleven boxers aged 21.4 +/- 2.1 years (body height 173.4 +/- 3.7, body mass 74.9 +/- 8.6 kg, body fat 12.1 +/- 1.9, training experience 5.7 +/- 1.3 years) volunteered to participate in this study. They performed a maximal graded aerobic test on a motor-driven treadmill to determine maximum oxygen uptake (VO2max), oxygen uptake (VO2AT) and heart rate (HRAT) at the anaerobic threshold, and maximal heart rate (HRmax). Additionally, VO2 and peak HR (HRpeak) were recorded following each boxing round. Results showed no significant differences between VO2max values derived from the treadmill running test and VO2 outcomes of the simulated boxing contest (p > 0.05, d = 0.02 to 0.39). However, HRmax and HRpeak recorded from the treadmill running test and the simulated amateur boxing contest, respectively, displayed significant differences regardless of the boxing round (p < 0.01, d = 1.60 to 3.00). In terms of VO2 outcomes during the simulated contest, no significant between-round differences were observed (p = 0.19, d = 0.17 to 0.73). Irrespective of the boxing round, the recorded VO2 was >90% of the VO2max. Likewise, HRpeak observed across the three boxing rounds were >= 90% of the HRmax. In summary, the simulated 3 x 3-min amateur boxing contest is highly demanding from a physiological standpoint. Thus, coaches are advised to systematically monitor internal training load for instance through rating of perceived exertion to optimize training-related adaptations and to prevent boxers from overreaching and/or overtraining.
Stottern in Schule und Beruf
(2020)
Die professionalisierte Kommunikation komplexer Gebilde wie Staaten und Nationen, die ihre Hinwendung politischer Fragestellungen in die Sphären von Image und Einfluss verlegt, kommt vor dem Hintergrund wachsenden Wettbewerbs an der Bedeutung der Reputation nicht vorbei. Denn neben ihrer ökonomischen Bedeutung legitimiert Reputation als mittel- oder langfristiges öffentliches Ansehen, das ihren Trägern Definitions- und Überzeugungsmacht verschafft, Macht- und Herrschaftspositionen. In einer mediatisierten Gesellschaft wächst die Bedeutung der Kommunikation mit der Öffentlichkeit sowohl für Erwerb und Erhalt von Reputation – wie auch für deren Aberkennung. Dabei spielt eine zunehmende Skandalisierung als Eigenheit der Mediengesellschaft eine Rolle, die eine erhöhte Fragilisierung der Reputation zur Folge hat und als wirksamster Mechanismus bei der Aberkennung von Reputation gilt, wie das Beispiel der dänischen „Karikaturen-Affäre“ veranschaulicht. In einer kommunikativ schnelllebigen Welt, zunehmend frei verfügbarer Information, geistern durch die Außenministerien des Global Village Begriffe wie Public Diplomacy, Nation Branding, Country Branding oder Place Branding, deren gemeinsamer Nenner zunächst die nach außen gerichtete Kommunikation ist. Aber schon die Frage nach Absender und Adressat, nach Akteur und Rezipient, Botschaften und Zielgruppen verweist auf die Komplexität der Kommunikation eines Landes. Ziel der Untersuchung ist es in den Kommunikationsbemühungen von Ländern, Faktoren zu identifizieren, die Image und Reputation nachhaltig beeinflussen können. Dabei stehen die folgenden Fragen im Mittelpunkt der Untersuchung: Wie werden Länder wahrgenommen und Reputation gebildet? Können die Bezugsgruppen eines Landes durch die Stakeholdertheorie (Freeman 1984) beschrieben werden – und wenn ja, welche Konsequenzen hat eine solche Berücksichtigung der Anspruchs- und Adressatengruppen auf die Kommunikation eines Landes? Welche Aspekte der theoretischen Ansätze können für die Kommunikation von Ländern als zentral bewertet werden? Und schließlich: Kann die Reflexion durch die Praxis, am Fallbeispiel der Schweiz, die Relevanz der eruierten Aspekte bestätigen bzw. um weitere Aspekte ergänzen und können auf dieser Grundlage Erfolgsfaktoren identifiziert und geeignete Instrumente für die Reputationskommunikation aufgezeigt werden?
In dieser Arbeit werden drei Themen im Zusammenhang mit den spektroskopischen Eigenschaften von Cumarin- (Cou) und DBD-Farbstoffen ([1,3]Dioxolo[4,5-f][1,3]benzodioxol) behandelt. Der erste Teil zeigt die grundlegende spektroskopische Charakterisierung von 7-Aminocumarinen und ihre potentielle Anwendung als Fluoreszenzsonde für Fluoreszenzimmunassays. Im zweiten Teil werden mit die photophysikalischen Eigenschaften der Cumarine genutzt um Cou- und DBD-funktionalisierte Oligo-Spiro-Ketal-Stäbe (OSTK) und ihre Eigenschaften als Membransonden zu untersuchen. Der letzte Teil beschäftigt sich mit der Synthese und der Charakterisierung von Cou- und DBD-funktionalisierten Polyprolinen als Referenzsysteme für schwefelfunktionalisierte OSTK-Stäbe und ihrer Kopplung an Goldnanopartikel.
Immunochemische Analysemethoden sind in der klinischen Diagnostik sehr erfolgreich und werden heute auch für die Nahrungsmittelkontrolle und Überwachung von Umweltfragen mit einbezogen. Dadurch sind sie von großem Interesse für weitere Forschungen. Unter den verschiedenen Immunassays zeichnen sich lumineszenzbasierte Formate durch ihre herausragende Sensitivität aus, die dieses Format für zukünftige Anwendungen besonders attraktiv macht. Die Notwendigkeit von Multiparameterdetektionsmöglichkeiten erfordert einen Werkzeugkasten mit Farbstoffen, um die biochemische Reaktion in ein optisch detektierbares Signal umzuwandeln. Hier wird bei einem Multiparameteransatz jeder Analyt durch einen anderen Farbstoff mit einer einzigartigen Emissionsfarbe, die den blauen bis roten Spektralbereich abdecken, oder eine einzigartige Abklingzeit detektiert. Im Falle eines kompetitiven Immunassayformats wäre für jeden der verschiedenen Farbstoffe ein einzelner Antikörper erforderlich. In der vorliegenden Arbeit wird ein leicht modifizierter Ansatz unter Verwendung einer Cumarineinheit, gegen die hochspezifische monoklonale Antikörper (mAb) erzeugt wurden, als grundlegendes Antigen präsentiert. Durch eine Modifikation der Stammcumarineinheit an einer Position des Moleküls, die für die Erkennung durch den Antikörper nicht relevant ist, kann auf den vollen Spektralbereich von blau bis tiefrot zugegriffen werden. In dieser Arbeit wird die photophysikalische Charakterisierung der verschiedenen Cumarinderivate und ihrer entsprechenden Immunkomplexe mit zwei verschiedenen, aber dennoch hochspezifischen, Antikörpern präsentiert. Die Cumarinfarbstoffe und ihre Immunkomplexe wurden durch stationäre und zeitaufgelöste Absorptions- sowie Fluoreszenzemissionsspektroskopie charakterisiert. Darüber hinaus wurden Fluoreszenzdepolarisationsmessungen durchgeführt, um die Daten zu vervollständigen, die die verschiedenen Bindungsmodi der beiden Antikörper betonten. Im Gegensatz zu häufig eingesetzten Nachweissystemen wurde eine massive Fluoreszenzverstärkung bei der Bildung des Antikörper-Farbstoffkomplexes bis zu einem Faktor von 50 gefunden. Wegen der leichten Emissionsfarbenänderung durch das Anpassen der Cumarinsubstitution in der für die Antigenbindung nicht relevanten Position des Elternmoleküls, ist eine Farbstoff-Toolbox vorhanden, die bei der Konstruktion von kompetitiven Multiparameterfluoreszenzverstärkungsimmunassays verwendet werden kann.
Oligo-Spiro-Thio-Ketal-Stäbe werden aufgrund ihres hydrophoben Rückgrats leicht in Doppellipidschichten eingebaut und deshalb als optische Membransonde verwendet. Wegen ihres geringen Durchmessers wird nur eine minimale Störung der Doppellipidschicht verursacht. Durch die Markierung mit Fluoreszenzfarbstoffen sind neuartige Förster-Resonanz-Energietransfersonden mit hoch definierten relativen Orientierungen der Übergangsdipolmomente der Donor- und Akzeptorfarbstoffe zugänglich und macht die Klasse der OSTK-Sonden zu einem leistungsstarken, flexiblen Werkzeugkasten für optische Biosensoranwendungen. Mit Hilfe von stationären und zeitaufgelösten Fluoreszenzexperimenten wurde der Einbau von Cumarin- und DBD markierten OSTK-Stäben in großen unilamellaren Vesikeln untersucht und die Ergebnisse durch Fluoreszenzdepolarisationsmessungen untermauert.
Der letzte Teil dieser Arbeit beschäftigt sich mit der Synthese und Charakterisierung von Cou- und DBD-funktionalisierten Polyprolinen und ihrer Kopplung an Goldnanopartikel. Die farbstoffmarkierten Polyproline konnten erfolgreich hergestellt werden. Es zeigten sich deutlich Einflüsse auf die spektroskopischen Eigenschaften der Farbstoffe durch die Bindung an die Polyprolinhelix. Die Kopplung an die 5 nm großen AuNP konnte erfolgreich durchgeführt werden. Die Erfahrungen, die durch die Kopplung der Polyproline an die AuNP, gewonnen wurde, ist die Basis für eine Einzelmolekül-AFM-FRET-Nanoskopie mit OSTK-Stäben.
Das Gebiet der Netzsicherheit ist ein schwer zu lehrendes und mühsam zu lernendes Fach in der Informatikausbildung. Dies hat verschiedene Gründe, z.B. erfordert es Fachkenntnis, die jenseits von bunten Bildern zu vermitteln ist und sich dabei mit geringer Halbwertszeit weiterentwickelt. Echte Bedrohungsszenarien müssen unter Laborbedingungen nachgestellt werden, und der Umgang mit den Sicherheitswerkzeugen ist sehr komplex. Auf der einen Seite muss das System konzeptionell verstanden werden und auf der anderen Seite sind viele Details in der Konfiguration von Firewalls, Netz-Komponenten und –Werkzeugen für klassische Prüfungssituationen in der Ausbildung anzuwenden. Mit NetS-X (Network Security Experience) stellen wir einen laufenden Prototyp einer e-learning Plattform vor, mit der ein weiter Bereich von Sicherheitsszenarien vermittelt werden kann. Dabei wird der Lernende in einem Spielsystem mit Situationen konfrontiert, die er in einer echten, auf Linux basierenden typischen IT-Infrastruktur eines Unternehmens beherrschen muss. Die sicherheitsrelevanten Aktivitäten des Lernenden, z.B. der Einsatz von Monitor-Werkzeugen oder die Konfiguration von Netz-Komponenten werden dabei nicht simuliert, sondern real durchgeführt und durch Prozesse des Spielsystems beobachtet und bewertet. Autorenwerkzeuge ermöglichen den Lehrenden und Spielern, selber neue Spielsituationen, Sicherheitsszenarien oder Wissenskomponenten in das System zu integrieren.
Der Jude in der Musik
(2005)
Many children struggle with reading for comprehension. Reading is a complex cognitive task depending on various sub-tasks, such as word decoding and building connections across sentences. The task of connecting sentences is guided by referential expressions. References, such as anaphoric noun phrases (Minky/the cat) or pronouns (Minky/she), signal to the reader how the protagonists of adjacent sentences are connected. Readers construct a coherent mental model of the text by resolving these references. Personal pronouns (he/she) in particular need to be resolved towards an appropriate antecedent before they can be fully understood. Pronoun resolution therefore is vital for successful text comprehension. The present thesis investigated children’s resolution of personal pronouns during natural reading as a possible source of reading comprehension difficulty. Three eye tracking studies investigated whether children aged 8-9 (Grade 3-4) resolve pronouns online during reading and how the varying information around the pronoun region influences children’s eye movement behavior.
The first study investigated whether children prefer a pronoun over a noun phrase when the antecedent is highly accessible. Children read three-sentence stories that introduced a protagonist (Mia) in the first sentence and a reference to this protagonist in one of the following sentences using either a repeated name (Mia) or a pronoun (she). For proficient readers, it was repeatedly shown that there is a preference for a pronoun over the name in these contexts, i.e., when the antecedent is salient. The first study tested the repeated name penalty effect in children using eye tracking. It was hypothesized that in contrast to proficient readers, the fluency of children’s reading processing profits from an overlapping word form (i.e., the repeated noun phrase) compared to a pronoun. This is because overlapping word forms allow for direct mapping, whereas pronouns have to be resolved towards their antecedent first.
The second study investigated children’s online processing of pronominal gender in a mismatch paradigm. Children read sentences in which the pronoun either was a gender-match to the antecedent or a gender-mismatch. Reading skill and reading fluency were also tested and related to children’s ability to detect a mismatching pronoun during reading.
The third study investigated the online processing of gender information on the pronoun and whether disambiguating gender information improves the accuracy of pronoun comprehension. Offline comprehension accuracy, that is the comprehension of the pronoun, was related to children’s online eye movement behavior. This study was conducted in a semi-longitudinal paradigm: 70 children were tested in Grade 3 (age 8) and again in Grade 4 (age 9) to investigate effects of age and reading skill on pronoun processing and comprehension.
The results of this thesis clearly show that children aged 8-9, when they are in the second half of primary school, struggle with the comprehension of pronouns in reading tasks. The responses to pronoun comprehension questions revealed that children have difficulties with the comprehension of a pronoun in the absence of a disambiguating gender cue, that is when they have to apply context information. When there is a gender cue to disambiguate the pronoun, children’s accuracy improves significantly. This is true for children in Grade 3, but also in Grade 4, albeit their overall resolution accuracy slightly improves with age.
The results from the analyses of eye movements suggest that the discourse accessibility of an antecedent does play a role in children’s processing of pronouns and repeated names. The repetition of a name does not facilitate children’s reading processing like it was anticipated. Similar to adults, children showed a penalty effect for the repeated name where a pronoun is expected. However, this does not mean that children’s processing of pronouns is always adult-like. The results from eye movement analyses in the pronoun region during sentence reading revealed significant individual differences related to children’s individual reading skill and reading fluency.
The results from the mismatch study revealed that reading fluency is associated with children’s detection of incongruent pronouns. All children had longer gaze durations at mismatching than matching pronouns, but only fluent readers among the children followed this up with a regression out of the pronoun region. This was interpreted as an attempt to gain processing time and “repair” the inconsistency. Reading fluency was therefore associated with detection of the mismatch, while less fluent readers did not see any mismatch between pronoun and antecedent. The eye movement pattern of the “detectors” is more adult-like and was interpreted as reflecting successful monitoring and attempted pronoun resolution.
Children differ considerably in their reading comprehension skill. The results of this thesis show that only skilled readers among the children use gender information online for pronoun resolution. They took more time to read the pronoun when there was disambiguating gender information that was useful to resolve the pronoun, in contrast to the less skilled readers. Age was a less important factor in pronoun resolution processes and comprehension than were reading skill and reading fluency. Taken together, this suggests that the good readers direct cognitive resources towards pronoun resolution when the pronoun can be resolved, which is a successful comprehension strategy. Moreover, there was evidence that reading skill is a relevant factor in this task but not age.
The contribution of the present thesis is a depiction of the specific eye movement patterns that are related to successful and unsuccessful attempts at pronoun resolution in children. Eye movement behavior in the pronoun area is related to children’s reading skill and fluency. The results of this thesis suggest that many children do not resolve pronouns spontaneously during sentence reading, which is likely detrimental to their reading comprehension in more complex reading materials. The present thesis informs our understanding of the challenge that pronoun resolution poses for beginning readers, and gives new impulses for the study of higher-order reading processes in children’s natural reading.
In diesem Beitrag werden das Konzept der „Virtuellen Runden Tische“ (ViRuTi) sowie Ergebnisse ihrer Pilotierung und Perspektiven für die Implementierung vorgestellt. Dabei geht es um die ressourcenfreundliche, digitale Umsetzung und niederschwellige Durchführung der ViRuTi. Inklusive Bestrebungen sind fest mit der Notwendigkeit interdisziplinärer Fallbesprechungen verknüpft. Akteure aus Kita, Schule und Gesundheitswesen können mit Bezugspersonen des betreffenden Kindes gemeinsam am runden Tisch Perspektiven austauschen und Entscheidungen treffen, bspw. zur Einleitung und Evaluierung von Sprachförder- oder -therapiemaßnahmen. Eine durch ein Konzept vorgegebene Struktur erleichtert den Austausch und die Fokussierung der Beteiligten auf die Ressourcen und Bedürfnisse des Kindes. Außerdem ist dieser interprofessionelle bzw. transdisziplinäre Austausch auch digital möglich.
Business processes are instrumental to manage work in organisations. To study the interdependencies between business processes, Business Process Architectures have been introduced. These express trigger and message ow relations between business processes. When we investigate real world Business Process Architectures, we find complex interdependencies, involving multiple process instances. These aspects have not been studied in detail so far, especially concerning correctness properties. In this paper, we propose a modular transformation of BPAs to open nets for the analysis of behavior involving multiple business processes with multiplicities. For this purpose we introduce intermediary nets to portray semantics of multiplicity specifications. We evaluate our approach on a use case from the public sector.
Business Process Management has become an integral part of modern organizations in the private and public sector for improving their operations. In the course of Business Process Management efforts, companies and organizations assemble large process model repositories with many hundreds and thousands of business process models bearing a large amount of information. With the advent of large business process model collections, new challenges arise as structuring and managing a large amount of process models, their maintenance, and their quality assurance.
This is covered by business process architectures that have been introduced for organizing and structuring business process model collections. A variety of business process architecture approaches have been proposed that align business processes along aspects of interest, e. g., goals, functions, or objects. They provide a high level categorization of single processes ignoring their interdependencies, thus hiding valuable information. The production of goods or the delivery of services are often realized by a complex system of interdependent business processes. Hence, taking a holistic view at business processes interdependencies becomes a major necessity to organize, analyze, and assess the impact of their re-/design. Visualizing business processes interdependencies reveals hidden and implicit information from a process model collection.
In this thesis, we present a novel Business Process Architecture approach for representing and analyzing business process interdependencies on an abstract level. We propose a formal definition of our Business Process Architecture approach, design correctness criteria, and develop analysis techniques for assessing their quality. We describe a methodology for applying our Business Process Architecture approach top-down and bottom-up. This includes techniques for Business Process Architecture extraction from, and decomposition to process models while considering consistency issues between business process architecture and process model level. Using our extraction algorithm, we present a novel technique to identify and visualize data interdependencies in Business Process Data Architectures. Our Business Process Architecture approach provides business process experts,managers, and other users of a process model collection with an overview that allows reasoning about a large set of process models,
understanding, and analyzing their interdependencies in a facilitated way. In this regard we evaluated our Business Process Architecture approach in an experiment and provide implementations of selected techniques.