Refine
Has Fulltext
- yes (13318) (remove)
Year of publication
Document Type
- Article (3993)
- Postprint (3294)
- Doctoral Thesis (2527)
- Monograph/Edited Volume (970)
- Review (558)
- Part of Periodical (489)
- Preprint (446)
- Master's Thesis (264)
- Conference Proceeding (245)
- Working Paper (245)
Language
- German (7038)
- English (5980)
- Spanish (80)
- French (75)
- Multiple languages (62)
- Russian (62)
- Hebrew (9)
- Italian (6)
- Portuguese (2)
- Hungarian (1)
Keywords
- Germany (118)
- Deutschland (106)
- climate change (79)
- Sprachtherapie (77)
- Patholinguistik (73)
- patholinguistics (73)
- Logopädie (72)
- Zeitschrift (71)
- Nachhaltigkeit (61)
- European Union (59)
Institute
- Extern (1376)
- MenschenRechtsZentrum (943)
- Institut für Physik und Astronomie (714)
- Institut für Biochemie und Biologie (708)
- Wirtschaftswissenschaften (583)
- Institut für Chemie (555)
- Institut für Mathematik (519)
- Institut für Geowissenschaften (509)
- Institut für Romanistik (509)
- Mathematisch-Naturwissenschaftliche Fakultät (489)
Die kumulative Dissertation zur Projektdidaktik trägt den Titel „Von der Konzeption zur Praxis: Zur Entwicklung der Projektdidaktik am Oberstufen-Kolleg Bielefeld und ihre Impulsgebung und Modellbildung für das deutsche Regelschulwesen“. Die Dissertation versteht sich als beispielgebende Umsetzung und Implementierung der Projektdidaktik für das Regelschulsystem. Auf der Basis von 22 bereits erschienenen Publikationen und einer Monographie werden mit fünf methodischen Zugriffen (bildungshistorisch, dichte Beschreibung, Aktionsforschung, empirische Untersuchung an Regelschulen und Implementierungsforschung, s. Kapitel 1) in sieben Kapiteln (2- 8) des systematischen ersten Teils die Entwicklung der Unterrichtsform Projektunterricht in der BRD, Projektbegriff und Weiterentwicklung des Konzepts, Methodik, Bewertung sowie Organisation des Projektunterrichts am Oberstufen-Kolleg, der Versuchsschule des Landes NRW, in Auseinandersetzung mit der allgemeinen Projektdidaktik dargestellt sowie Formen und Verfahren der erprobten Implementierung in das Regelschulsystem präsentiert.
Ein Schlusskapitel (9) fasst die Ergebnisse zusammen. Im umfangreichen Anhang finden sich verschiedene Publikationen zu Aspekten der Projektdidaktik, auf die der systematische Teil jeweils Bezug nimmt.
Die bildungshistorische Analyse (Kapitel 2) untersucht das Verhältnis von pädagogischer Theorie und schulischer Praxis, die weder in Literatur und noch in Praxis genügend verbunden sind. Nach der Rezeption der gut erforschten Konzeptgeschichte pädagogischer Theorie in Anlehnung an Dewey und Kilpatrick wird durch eine erste Analyse der „Praxisgeschichte“ des Projektunterrichts auf ein Forschungsdesiderat hingewiesen, dies auch um die Projektpraxis am Oberstufen-Kolleg in Beziehung zu der in den Regelschulen setzen zu können. Dabei wurden seit 1975 sechs Entwicklungslinien herausgearbeitet: Start, Krise und ihre Überwindung durch Öffnung und Vernetzung (1975-1990), didaktisch-methodische Differenzierung und Notwendigkeit von Professionalisierung (ab 1990) sowie Schulentwicklung und Institutionalisierung (seit Ende der 1990er Jahre).
Projektunterricht besteht am Oberstufen-Kolleg seit der Gründung 1974 als fest eingerichtete Unterrichtsform (seit 2002 zweimal jährlich 2 Wochen) mit dem Ziel, für das Regelschulsystem die Projektdidaktik zu erproben und weiterzuentwickeln. Als wichtige praxisorientierte Ziele wurden ein praxistauglicher Begriff, Bildungswert und Kompetenzen im Unterschied zum Lehrgang herausgearbeitet (z.B. handlungs- und anwendungsorientierte Kompetenzen) und das Verhältnis zum Fachunterricht bestimmt (Kapitel 3). Letzteres wurde am Beispiel des Fachs Geschichte entwickelt und exemplarisch in Formen der Verzahnung dargestellt (Kapitel 6).
Auch für die methodische Dimension galt, die allgemeine Projektdidaktik weiterzuentwickeln durch ihre Abgrenzung zu anderen Methoden der Öffnung von Schule und Unterricht (Kapitel 4). Dabei wurde als zentrales methodisches Prinzip die Handlungsorientierung bestimmt sowie sieben Phasen und jeweilige Handlungsschritte festgelegt. Besonders Planung und Rollenwechsel bedürfen dabei besonderer Beachtung, um Selbsttätigkeit der ProjektteilnehmerInnen zu erreichen. Verschiedene methodische „Etüden“ ( z.B. Gruppenarbeit, recherchieren, sich öffentlich verhalten), handlungsorientierte Vorformen und projektorientiertes Arbeiten sollten die Vollform Projektunterricht vorbereiten helfen.
Die Bewertung von Projekten (Kapitel 5) stellt andere Anforderungen als der Lehrgang, weil sie unterschiedliche Bewertungsebenen (z.B. Prozessbedeutung, Produktbeurteilung, Gruppenbewertung) umfasst. Dazu sind am Oberstufen-Kolleg andere Bewertungsformen als die Ziffernnote entwickelt worden: z.B. ein „Reflexionsbericht“ als individuelle Rückmeldung von SchülerInnen und LehrerInnen und ein „Zertifikat“ für besondere Leistungen im Projekt.
Zentral für die Entwicklung von Projektunterricht ist jedoch die Organisationsfrage (Kapitel 7). Dazu bedarf es einer Organisationsgruppe Projekt, die die Unterrichtsform didaktisch betreut und in einem Hearing die angemeldeten Projekte berät. Das Oberstufen-Kolleg hat damit eine entwickelte „Projektkultur“ organisatorisch umgesetzt. Für eine empirische Untersuchung an sechs Regelschulen in Ostwestfalen ist dann eine idealtypische Merkmalsliste von schulischer „Projektkultur“ als Untersuchungsinstrument entstanden, das zugleich als Leitlinie für Schulentwicklung im Bereich Projektlernen in den Regelschulen dienen kann. Zu dieser Implementierung (Kapitel 8) wurden Konzepte und Erfahrungen vom Oberstufen-Kolleg für schulinterne und schulexterne Fortbildungsformen sowie eine exemplarische Fortbildungseinheit entwickelt. So konnten in zahlreichen Lehrerfortbildungen durch die Versuchsschule Impulse für das Regelschulsystem gegeben werden.
The use of preformed polymers for the preparation of Langmuir-Blodgett (LB) multilayers is reviewed. Principles for polymer self-organization are outlined and the appropriate molecular designs are discussed. Recent developments in the different classes of polymers for LB multilayers are presented, and their outstanding properties highlighted.
Linking together the processes of rapid physical erosion and the resultant chemical dissolution of rock is a crucial step in building an overall deterministic understanding of weathering in mountain belts. Landslides, which are the most volumetrically important geomorphic process at these high rates of erosion, can generate extremely high rates of very localised weathering. To elucidate how this process works we have taken advantage of uniquely intense landsliding, resulting from Typhoon Morakot, in the T'aimali River and surrounds in southern Taiwan. Combining detailed analysis of landslide seepage chemistry with estimates of catchment-by-catchment landslide volumes, we demonstrate that in this setting the primary role of landslides is to introduce fresh, highly labile mineral phases into the surface weathering environment. There, rapid weathering is driven by the oxidation of pyrite and the resultant sulfuric-acid-driven dissolution of primarily carbonate rock. The total dissolved load correlates well with dissolved sulfate - the chief product of this style of weathering - in both landslides and streams draining the area (R-2 = 0.841 and 0.929 respectively; p < 0.001 in both cases), with solute chemistry in seepage from landslides and catchments affected by significant landsliding governed by the same weathering reactions. The predominance of coupled carbonate-sulfuric-acid-driven weathering is the key difference between these sites and previously studied landslides in New Zealand (Emberson et al., 2016), but in both settings increasing volumes of landslides drive greater overall solute concentrations in streams.
Bedrock landslides, by excavating deep below saprolite-rock interfaces, create conditions for weathering in which all mineral phases in a lithology are initially unweathered within landslide deposits. As a result, the most labile phases dominate the weathering immediately after mobilisation and during a transient period of depletion. This mode of dissolution can strongly alter the overall output of solutes from catchments and their contribution to global chemical cycles if landslide-derived material is retained in catchments for extended periods after mass wasting.
Within the context of United Nations (UN) environmental institutions, it has become apparent that intergovernmental responses alone have been insufficient for dealing with pressing transboundary environmental problems. Diverging economic and political interests, as well as broader changes in power dynamics and norms within global (environmental) governance, have resulted in negotiation and implementation efforts by UN member states becoming stuck in institutional gridlock and inertia. These developments have sparked a renewed debate among scholars and practitioners about an imminent crisis of multilateralism, accompanied by calls for reforming UN environmental institutions. However, with the rise of transnational actors and institutions, states are not the only relevant actors in global environmental governance. In fact, the fragmented architectures of different policy domains are populated by a hybrid mix of state and non-state actors, as well as intergovernmental and transnational institutions. Therefore, coping with the complex challenges posed by severe and ecologically interdependent transboundary environmental problems requires global cooperation and careful management from actors beyond national governments.
This thesis investigates the interactions of three intergovernmental UN treaty secretariats in global environmental governance. These are the secretariats of the United Nations Framework Convention on Climate Change, the Convention on Biological Diversity, and the United Nations Convention to Combat Desertification. While previous research has acknowledged the increasing autonomy and influence of treaty secretariats in global policy-making, little attention has been paid to their strategic interactions with non-state actors, such as non-governmental organizations, civil society actors, businesses, and transnational institutions and networks, or their coordination with other UN agencies. Through qualitative case-study research, this thesis explores the means and mechanisms of these interactions and investigates their consequences for enhancing the effectiveness and coherence of institutional responses to underlying and interdependent environmental issues.
Following a new institutionalist ontology, the conceptual and theoretical framework of this study draws on global governance research, regime theory, and scholarship on international bureaucracies. From an actor-centered perspective on institutional interplay, the thesis employs concepts such as orchestration and interplay management to assess the interactions of and among treaty secretariats. The research methodology involves structured, focused comparison, and process-tracing techniques to analyze empirical data from diverse sources, including official documents, various secondary materials, semi-structured interviews with secretariat staff and policymakers, and observations at intergovernmental conferences.
The main findings of this research demonstrate that secretariats employ tailored orchestration styles to manage or bypass national governments, thereby raising global ambition levels for addressing transboundary environmental problems. Additionally, they engage in joint interplay management to facilitate information sharing, strategize activities, and mobilize relevant actors, thereby improving coherence across UN environmental institutions. Treaty secretariats play a substantial role in influencing discourses and knowledge exchange with a wide range of actors. However, they face barriers, such as limited resources, mandates, varying leadership priorities, and degrees of politicization within institutional processes, which may hinder their impact. Nevertheless, the secretariats, together with non-state actors, have made progress in advancing norm-building processes, integrated policy-making, capacity building, and implementation efforts within and across framework conventions. Moreover, they utilize innovative means of coordination with actors beyond national governments, such as data-driven governance, to provide policy-relevant information for achieving overarching governance targets.
Importantly, this research highlights the growing interactions between treaty secretariats and non-state actors, which not only shape policy outcomes but also have broader implications for the polity and politics of international institutions. The findings offer opportunities for rethinking collective agency and actor dynamics within UN entities, addressing gaps in institutionalist theory concerning the interaction of actors in inter-institutional spaces. Furthermore, the study addresses emerging challenges and trends in global environmental governance that are pertinent to future policy-making. These include reflections for the debate on reforming international institutions, the role of emerging powers in a changing international world order, and the convergence of public and private authority through new alliance-building and a division of labor between international bureaucracies and non-state actors in global environmental governance.
The Rio Conventions stand at the centerpiece of international cooperation within the governance area of climate change, biodiversity, and desertification. Due to substantial environmental and political linkages, there are interrelations between the three regimes. This study seeks to examine the inter-institutional relationship between the United Nations Framework Convention on Climate Change, the Convention on Biological Diversity and the United Nations Convention to Combat Desertification by analyzing and assessing their horizontal interplay activities from the starting point of their genesis at Earth Summit in 1992 until today. In this research, I address the connections between the three conventions and identify the conflicting, cooperative, and synergetic aspects of inter-institutional relationship. While the overall empirical analysis suggests weak indications of a conflictive type, this research asserts that the interplay activities have thus far led to a cooperative relationship between the Rio Conventions. Moreover, increasing coordination and collaboration between the conventions’ treaty secretariats signals characteristics of a synergetic relationship, which could open up a potential window of opportunity for these actors to further engage and progress in institutional management in the future. In a conclusion, this study explores the possibility of the formation of an overarching environmental institution as a result of joint institutional management within the complex of climate change, biodiversity, and desertification.
Die vorliegende Arbeit beschäftigte sich mit zwei Themengebieten. Es ging zum einen um die mechanischen Eigenschaften von Polyelektrolythohlkapseln und zum anderen um die Adhäsion von Polyelektrolythohlkapseln. Die mechanischen Eigenschaften wurden mit der AFM „colloidal probe” Technik untersucht. Dabei zeigte sich, dass die Kraftdeformationskurven für kleine Deformationen den nach der Schalentheorie vorhergesagten linearen Verlauf haben. Ebenso wurde die quadratische Abhängigkeit der Federkonstanten von der Dicke bestätigt. Für PAH/PSS findet man einen E-Modul von 0.25 GPa. Zusammen mit der Tatsache, dass die Deformationskurven unabhängig von der Geschwindigkeit sind und praktisch keine Hysterese zeigen, sowie der Möglichkeit die Kapseln plastisch zu deformieren, kann man schließen, dass das System in einem glasartigen Zustand vorliegt. <pt>Erwartungsgemäß zeigte der pH einen starken Einfluss auf die PEM. Während in einem pH-Bereich zwischen 2 und 11.5 keine morphologischen Änderungen festgestellt werden konnten, vergrößerte sich der Radius bei pH = 12 um bis zu 50 %. Diese Radienänderung war reversibel und ging einher mit einem sichtbaren Weicherwerden der Kapseln. Eine Abnahme des E-Moduls um mindestens drei Größenordungen wurde durch Kraftdeformationsmessungen bestätigt. Die Kraftdeformationskurven zeigen eine starke Hysterese. Das System befindet sich nun nicht mehr in einem glasartigen Zustand, sondern ist viskos bis gummiartig geworden. Messungen an Kapseln, die mit Glutardialdehyd behandelt wurden, zeigten, dass die Behandlung das pH-abhängige Verhalten verändert. Dies kann darauf zurückgeführt werden, dass das PAH durch den Glutardialdehyd quervernetzt wird. Bei einem hohen Quervernetzungsgrad, zeigen die Kapseln keine Änderung des mechanischen Verhaltens bei pH = 12. Schwach quervernetzte Kapseln werden immer noch signifikant weicher bei pH = 12, jedoch ändert sich der Radius nicht. Außerdem wurden Multilagenkapseln untersucht, deren Stabilität nicht auf elektrostatischen Wechselwirkungen sondern auf Wasserstoffbrückenbindungen beruhte. Diese Kapseln zeigten eine deutlich höhere Steifigkeit mit E-Modulen bis zu 1 GPa. Es wurde gefunden, dass auch dieses System für kleine Deformationen ein lineares Kraft-Deformationsverhalten zeigt, und dass die Federkonstante quadratisch von der Dicke abhängt. Die Kapseln lösen sich praktisch sofort bei pH = 6.5 auf. In der Nähe dieses pHs konnte das Abnehmen der Federkonstanten verfolgt werden. Außerdem wurde das Adhäsionsverhalten von PAH/PSS Kapseln auf mit PEI-beschichtetem Glas untersucht. Die Adhäsionsflächen waren zu einem großen Teil rund und ließen sich quantitativ auswerten. Der Adhäsionsradius nimmt mit dem Kapselradius zu und mit der Dicke ab. Das Verhalten konnte mit zwei Modellen, einem für die große und einem für die kleine Deformation beschrieben werden. Das große Deformationsmodell liefert um eine Größenordung niedrigere Adhäsionsenergien als das kleine Deformationsmodell, welches mit Werten von ‑0.2 mJ/m<sup>2 Werte in einem plausiblen Bereich liefert. Es wurde gefunden, dass bei einem Verhältnis von Dicke zu Deformation von etwa eins "buckling" auftritt. Dieser Punkt markierte zugleich den Übergang von der großen zur kleinen Deformation.
Faunal remains from Palaeolithic sites are important genetic sources to study preglacial and postglacial populations and to investigate the effect of climate change and human impact. Post mortem decay, resulting in fragmented and chemically modified DNA, is a key obstacle in ancient DNA analyses. In the absence of reliable methods to determine the presence of endogenous DNA in sub-fossil samples, temporal and spatial surveys of DNA survival on a regional scale may help to estimate the potential of faunal remains from a given time period and region. We therefore investigated PCR amplification success, PCR performance and post mortem damage in c. 47,000 to c. 12,000-year-old horse remains from 14 Palaeolithic sites along the Swiss Jura Mountains in relation to depositional context, tissue type, storage time and age, potentially influencing DNA preservation. The targeted 75 base pair mitochondrial DNA fragment could be amplified solely from equid remains from caves and not from any of the open dry and (temporary) wetland sites. Whether teeth are better than bones cannot be ultimately decided; however, both storage time after excavation and age significantly affect PCR amplification and performance, albeit not in a linear way. This is best explained by the—inevitable—heterogeneity of the data set. The extent of post mortem damage is not related to any of the potential impact factors. The results encourage comprehensive investigations of Palaeolithic cave sites, even from temperate regions.
Looking times and gaze behavior indicate that infants can predict the goal state of an observed simple action event (e.g., object-directed grasping) already in the first year of life. The present paper mainly focuses on infants' predictive gaze-shifts toward the goal of an ongoing action. For this, infants need to generate a forward model of the to-be-obtained goal state and to disengage their gaze from the moving agent at a time when information about the action event is still incomplete. By about 6 months of age, infants show goal-predictive gaze-shifts, but mainly for familiar actions that they can perform themselves (e.g., grasping) and for familiar agents (e.g., a human hand). Therefore, some theoretical models have highlighted close relations between infants' ability for action-goal prediction and their motor development and/or emerging action experience. Recent research indicates that infants can also predict action goals of familiar simple actions performed by non-human agents (e.g., object-directed grasping by a mechanical claw) when these agents display agency cues, such as self-propelled movement, equifinality of goal approach, or production of a salient action effect. This paper provides a review on relevant findings and theoretical models, and proposes that the impacts of action experience and of agency cues can be explained from an action-event perspective. In particular, infants' goal-predictive gaze-shifts are seen as resulting from an interplay between bottom-up processing of perceptual information and top-down influences exerted by event schemata that store information about previously executed or observed actions.
Behandelte Themen sind: Staat und Wirtschaft als wesentliches Thema von TI; Staat und Wirtschaft früher stärker verbandelt; Distanz zwischen Staat und Wirtschaft als Korruptionsprävention; Geforderte Distanz gegenläufig zu New Public Management; New Public Management als Alternative zum Klüngel; Public Private Partnerships (PPP) – populär, wo formalisierte Lösungen versagen; „Privatisierung“ führt zu neuen Korruptionsrisiken; New Public Management – in Teilbereichen Alternative zu „Privatisierung“?; Das Potential von Transparenz; Neue Chancen für Ethik und Integrität
Mit der globalen Banken- und Finanzkrise ist die Debatte um den Kapitalismus neu entfacht. Doch wie kapitalistisch ist die Weltwirtschaft und welche Folgen entstehen für die internationale Politik? Bereits mit seinem 2007 erschienenen Werk zur „Geschichte und Ökonomie der europäischen Welteroberung – Vom Zeitalter der Entdeckungen zum 1. Weltkrieg“ legt Hartmut Elsenhans eine umfangreiche Analyse der Geschichte und Bedingungen kapitalistischer Expansion vor. Im vorliegenden Beitrag bleibt der Autor seinem interdisziplinären Ansatz treu. Als entscheidend für kapitalistisches Wachstum werden gesellschaftliche Kräfteverhältnisse zwischen dominanten und subalternen Klassen erachtet. Der Kapitalismus erweist sich hier als fragiles System, dessen Entstehung nicht auf in vorkapitalistischen Gesellschaften vorhandene Interessen herrschender Klassen zurückzuführen ist, sondern ein ungeplant umgesetztes „Projekt“ der Subalternen darstellt.
Underlying the importance of revenue the author discusses the future of the international order from the perspective of political economy. The international system will not be a capitalist one. Political conflicts will not be removed by nonviolent market regulations. Weakness of labour force and a dominant role of revenue will further more result in political interventions by nation states. The struggle for revenue to maintain comparative advantages in high-tech-development strengthens state intervention in order to protect domestic market. The failure of the "development state" in the third world and the rising of fundamentalistic tendencies supported by a market-oriented middle class will increase conflicts in those regions.
Hellmanns Warnung vor einer Resozialisierung der deutschen Außenpolitik in eine traditionelle Großmachtrolle erweckt bei mir viel Sympathie. Seine Alternative finde ich moralisch ehrenhaft, aber realistisch nur innerhalb des Prozesses der europäischen Integration. Ich glaube allerdings nicht, dass das Erbe der Geschichte Deutschlands ein besonderes außenpolitisches Vorgehen erzwingt. Ebenso wenig glaube ich, dass idealistische Positionen, gleich welcher Couleur, bei der Bewahrung von Frieden realistischen überlegen sind. Der Berliner Republik haftet ein gewisser Wilhelminismus in der Außenpolitik an. Man will durch Nachholen gleich werden wie die anderen. Die Warnung vor Rissen im Bündnis und vor der Möglichkeit einer Spirale des Niedergangs der europäischen Integration im Beitrag von Hellmann teile ich. Ich würde noch weiter gehen: Auch die humanitäre Intervention bleibt Intervention. Prinzipien der Menschenrechte sind wichtig, ihre Ausgestaltung, manchmal sogar Teile ihrer Prinzipien aber strittig. Welche Kriterien gibt uns der offensive Realismus bei der Stärkung der Interventionsmöglichkeiten draußen, wenn wir dabei keine machtpolitischen Interessen vertreten sollen? Wenn wir nicht alle Übel der Welt abschaffen wollen, dann muss eine Hierarchie verfolgt werden. Die rot-grüne Koalition hat mit der Ausnahme der Irak-Entscheidung im Wesentlichen das Ziel verfolgt, den eigenen Einfluss innerhalb der westlichen Staatengemeinschaft zu steigern. Hellmanns Empfehlung lautet wohl, dort mitzumachen, wo supranationale Institutionen geschaffen werden sollen. Welches sind die Kriterien zur Messung dieser Ziele?
Vor 50 Jahren löste sich Algerien nach langem Kampf endgültig aus dem französischen Kolonialreich. Die anschließend durchgeführten Wirtschaftsreformen konnten das Land aber nicht befrieden, weil sie keine effektive Nutzung der Rente verwirklichten. Bis heute ist die Wirtschaft des Landes wenig diversifiziert und stark von Erdöleinnahmen abhängig. Ist eine exportorientierte Industrialisierung als Lösung der Probleme denkbar?
Von einem destruktiven Keynesianismus wird angenommen, dass er das Beschäftigungsproblem aufwirft – allerdings nur in Deutschland und zulasten der Partner in der EU. Wer Wachstum von steigenden Exportüberschüssen erwartet – ohne Ausweitung des deutschen Binnenmarktes –, exportiert auch Arbeitslosigkeit und Wirtschaftskrisen.
Was uns Algerien lehrt
(2011)
Earlier investigations at South Creek in northeastern Queensland established the importance of overland flow as a hydrologic pathway in this tropical rainforest environment. Since this pathway is ‘fast’, transmitting presumably ‘new’ water, its importance should be reflected in the stormflow chemistry of South Creek: the greater the volumentric contribution to the stormflow hydrograph, the more similarity between the chemical composition of streamwater and of overland flow is to be expected. Water samples were taken during two storm events in an ephemeral gully (gully A), an intermittent gully (gully B) and at the South Creek catchment outlet; additional spot checks were made in several poorly defined rills. The chemical composition of ‘old’ water was determined from 45 baseflow samples collected throughout February. The two events differed considerably in their magnitudes, intensities and antecedent moisture conditions. In both events, the stormflow chemistry in South Creek was characterized by a sharp decrease in Ca, Mg, Na, Si, Cl, EC, ANC, alkalinity and total inorganic carbon. pH remained nearly constant with discharge, whereas K increased sharply, as did sulfate in an ill-defined manner. In event 1, this South Creek stormflow pattern was closely matched by the pattern in gully A, implying a dominant contribution of ‘new’ water. This match was confirmed by the spot samples from rills. Gully B behaved like South Creek itself, but with a dampened ‘new’ water signal, indicating less overland flow generation in its subcatchment. In event 2, which occurred five days later, the initial ‘new’ water signal in gully A was rapidly overwhelmed by a different signal which is attributed to rapid drainage from a perched water table. This study shows that stormflow in this rainforest catchment consists predominantly of ‘new’ water which reaches the stream channel via ‘fast’ pathways. Where the ephemeral gullies delivering overland flow are incised deeply enough to intersect a perched water table, a delayed, ‘old’ water-like signal may be transmitted.
Previous hydrometric studies demonstrated the prevalence of overland flow as a hydrological pathway in the tropical rain forest catchment of South Creek, northeast Queensland. The purpose of this study was to consider this information in a mixing analysis with the aim of identifying sources of, and of estimating their contribution to, storm flow during two events in February 1993. K and acid-neutralizing capacity (ANC) were used as tracers because they provided the best separation of the potential sources, saturation overland flow, soil water from depths of 0.3, 0.6, and 1.2 m, and hillslope groundwater in a two-dimensional mixing plot. It was necessary to distinguish between saturation overland flow, generated at the soil surface and following unchanneled pathways, and overland flow in incised pathways. This latter type of overland flow was a mixture of saturation overland flow (event water) with high concentrations of K and a low ANC, soil water (preevent water) with low concentrations of K and a low ANC, and groundwater (preevent water) with low concentrations of K and a high ANC. The same sources explained the streamwater chemistry during the two events with strongly differing rainfall and antecedent moisture conditions. The contribution of saturation overland flow dominated the storm flow during the first, high-intensity, 178-mm event, while the contribution of soil water reached 50% during peak flow of the second, low-intensity, 44-mm event 5 days later. This latter result is remarkably similar to soil water contributions to storm flow in mountainous forested catchments of the southeastern United States. In terms of event and preevent water the storm flow hydrograph of the high-intensity event is dominated by event water and that of the low-intensity event by preevent water. This study highlights the problems of applying mixing analyses to overland flow-dominated catchments and soil environments with a poorly developed vertical chemical zonation and emphasizes the need for independent hydrometric information for a complete characterization of watershed hydrology and chemistry.
Chemical fingerprints of hydrological compartments and flow paths at La Cuenca, western Amazonia
(1995)
A forested first-order catchment in western Amazonia was monitored for 2 years to determine the chemical fingerprints of precipitation, throughfall, overland flow, pipe flow, soil water, groundwater, and streamflow. We used five tracers (hydrogen, calcium, magnesium, potassium, and silica) to distinguish “fast” flow paths mainly influenced by the biological subsystem from “slow” flow paths in the geochemical subsystem. The former comprise throughfall, overland flow, and pipe flow and are characterized by a high potassium/silica ratio; the latter are represented by soil water and groundwater, which have a low potassium/silica ratio. Soil water and groundwater differ with respect to calcium and magnesium. The groundwater-controlled streamflow chemistry is strongly modified by contributions from fast flow paths during precipitation events. The high potassium/silica ratio of these flow paths suggests that the storm flow response at La Cuenca is dominated by event water.
Throughfall measurements were made under primary terra firme rainforest in the Rio Pichis valley, in the Upper Amazon Basin of Peru. Based on 214 precipitation events over nearly 18 months, throughfall was estimated to be 83.1±8.8% of gross precipitation. Regression analysis of all events revealed that gross precipitation is the only significant explanatory variable; the use of one-burst events does not significantly improve the regression relationship. Gross precipitation is, however, a poor predictor of throughfall for small rainfall events. The two forest structure parameters, canopy capacity, S, and free throughfall coefficient, p, were determined to be 1.3±0.2 mm and 0.32±0.18 mm. Rainfall intensity was found to influence these parameters. New methods which attempt to minimize the influence of meteorologic variables are used to estimate the potential values of these canopy parameters.
Rainfall erosivities as defined by the R factor from the universal soil loss equation were determined for all events during a two-year period at the station La Cuenca in western Amazonia. Three methods based on a power relationship between rainfall amount and erosivity were then applied to estimate event and daily rainfall erosivities from the respective rainfall amounts. A test of the resulting regression equations against an independent data set proved all three methods equally adequate in predicting rainfall erosivity from daily rainfall amount. We recommend the Richardson model for testing in the Amazon Basin, and its use with the coefficient from La Cuenca in western Amazonia.
The topography of first-order catchments in a region of western Amazonia was found to exhibit distinctive, recurrent features: a steep, straight lower side slope, a flat or nearly flat terrace at an intermediate elevation between valley floor and interfluve, and an upper side slope connecting interfluve and intermediate terrace. A detailed survey of soil-saturated hydraulic conductivity (K sat)-depth relationships, involving 740 undisturbed soil cores, was conducted in a 0.75-ha first-order catchment. The sampling approach was stratified with respect to the above slope units. Exploratory data analysis suggested fourth-root transformation of batches from the 0–0.1 m depth interval, log transformation of batches from the subsequent 0.1 m depth increments, and the use of robust estimators of location and scale. The K sat of the steep lower side slope decreased from 46 to 0.1 mm/h over the overall sampling depth of 0.4 m. The corresponding decrease was from 46 to 0.1 mm/h on the intermediate terrace, from 335 to 0.01 mm/h on the upper side slope, and from 550 to 0.015 mm/h on the interfluve. A depthwise comparison of these slope units led to the formulation of several hypotheses concerning the link between K sat and topography.
Dynamic resource management is an essential requirement for private and public cloud computing environments. With dynamic resource management, the physical resources assignment to the cloud virtual resources depends on the actual need of the applications or the running services, which enhances the cloud physical resources utilization and reduces the offered services cost. In addition, the virtual resources can be moved across different physical resources in the cloud environment without an obvious impact on the running applications or services production. This means that the availability of the running services and applications in the cloud is independent on the hardware resources including the servers, switches and storage failures. This increases the reliability of using cloud services compared to the classical data-centers environments.
In this thesis we briefly discuss the dynamic resource management topic and then deeply focus on live migration as the definition of the compute resource dynamic management. Live migration is a commonly used and an essential feature in cloud and virtual data-centers environments. Cloud computing load balance, power saving and fault tolerance features are all dependent on live migration to optimize the virtual and physical resources usage. As we will discuss in this thesis, live migration shows many benefits to cloud and virtual data-centers environments, however the cost of live migration can not be ignored. Live migration cost includes the migration time, downtime, network overhead, power consumption increases and CPU overhead.
IT admins run virtual machines live migrations without an idea about the migration cost. So, resources bottlenecks, higher migration cost and migration failures might happen. The first problem that we discuss in this thesis is how to model the cost of the virtual machines live migration. Secondly, we investigate how to make use of machine learning techniques to help the cloud admins getting an estimation of this cost before initiating the migration for one of multiple virtual machines. Also, we discuss the optimal timing for a specific virtual machine before live migration to another server. Finally, we propose practical solutions that can be used by the cloud admins to be integrated with the cloud administration portals to answer the raised research questions above.
Our research methodology to achieve the project objectives is to propose empirical models based on using VMware test-beds with different benchmarks tools. Then we make use of the machine learning techniques to propose a prediction approach for virtual machines live migration cost. Timing optimization for live migration is also proposed in this thesis based on using the cost prediction and data-centers network utilization prediction. Live migration with persistent memory clusters is also discussed at the end of the thesis. The cost prediction and timing optimization techniques proposed in this thesis could be practically integrated with VMware vSphere cluster portal such that the IT admins can now use the cost prediction feature and timing optimization option before proceeding with a virtual machine live migration.
Testing results show that our proposed approach for VMs live migration cost prediction shows acceptable results with less than 20% prediction error and can be easily implemented and integrated with VMware vSphere as an example of a commonly used resource management portal for virtual data-centers and private cloud environments. The results show that using our proposed VMs migration timing optimization technique also could save up to 51% of migration time of the VMs migration time for memory intensive workloads and up to 27% of the migration time for network intensive workloads. This timing optimization technique can be useful for network admins to save migration time with utilizing higher network rate and higher probability of success.
At the end of this thesis, we discuss the persistent memory technology as a new trend in servers memory technology. Persistent memory modes of operation and configurations are discussed in detail to explain how live migration works between servers with different memory configuration set up. Then, we build a VMware cluster with persistent memory inside server and also with DRAM only servers to show the live migration cost difference between the VMs with DRAM only versus the VMs with persistent memory inside.
Social networks are currently at the forefront of tools that
lend to Personal Learning Environments (PLEs). This study aimed to
observe how students perceived PLEs, what they believed were the
integral components of social presence when using Facebook as part
of a PLE, and to describe student’s preferences for types of interactions
when using Facebook as part of their PLE. This study used mixed
methods to analyze the perceptions of graduate and undergraduate
students on the use of social networks, more specifically Facebook as a
learning tool. Fifty surveys were returned representing a 65 % response
rate. Survey questions included both closed and open-ended questions.
Findings suggested that even though students rated themselves relatively
well in having requisite technology skills, and 94 % of students used
Facebook primarily for social use, they were hesitant to migrate these
skills to academic use because of concerns of privacy, believing that
other platforms could fulfil the same purpose, and by not seeing the
validity to use Facebook in establishing social presence. What lies
at odds with these beliefs is that when asked to identify strategies in
Facebook that enabled social presence to occur in academic work, the
majority of students identified strategies in five categories that lead to
social presence establishment on Facebook during their coursework.
Die Maßnahmen zur Eindämmung der COVID-19-Pandemie gingen mit Schulschließungen und variablen Unterrichtsformen einher, was laut Studienlage zum Thema viele Schüler:innen vor große Herausforderungen gestellt hat und noch immer stellt. Es werden Leistungsabfälle und negative Auswirkungen auf die psychische Gesundheit diskutiert. Da besonders die Lesekompetenz eine grundlegende Ressource für schulische Leistungssituationen ist, soll sie im Fokus dieser Studie stehen.
Die Daten der längsschnittlich angelegten BLab-Studie, die den Erwerbsverlauf von Lese- und Rechtschreibleistungen über die Klassenstufen 1 bis 10 untersucht, wurden dazu genutzt, Unterschiede zwischen den Leseleistungen (operationalisiert aus den normierten und standardisierten Untertests zur Lesekompetenz aus ELFE 1 – 6 und SLRT-II) und vier Skalen des Fragebogens zur Erfassung von schulrelevanten Einstellungen und Sichtweisen von Grundschüler:innen FEESS 3 – 4 (Schuleinstellung, Anstrengungsbereitschaft, Lernfreude und Selbstkonzept) statistisch zu analysieren. Dazu wurden die Testergebnisse von N = 174 Viertklässler:innen zweier Kohorten ausgewertet, von denen eine vom variablen Unterrichtsmodus während der COVID-19-Pandemie betroffen war.
Die Ergebnisse der Gruppenvergleiche stellen sich heterogen dar und müssen differenziert betrachtet werden. Insgesamt scheinen die hier einbezogenen Schüler:innen mit den schulbezogenen Maßnahmen zur Eindämmung der COVID-19-Pandemie gut zurechtgekommen zu sein.
Objective
To improve consumer decision making, the results of risk assessments on food, feed, consumer products or chemicals need to be communicated not only to experts but also to non-expert audiences. The present study draws on evidence from literature reviews and focus groups with diverse stakeholders to identify content to integrate into an existing risk assessment communication (Risk Profile).
Methods
A combination of rapid literature reviews and focus groups with experts (risk assessors (n = 15), risk managers (n = 8)), and non-experts (general public (n = 18)) were used to identify content and strategies for including information about risk assessment results in the “Risk Profile” from the German Federal Institute for Risk Assessment. Feedback from initial focus groups was used to develop communication prototypes that informed subsequent feedback rounds in an iterative process. A final prototype was validated in usability tests with experts.
Results
Focus group feedback and suggestions from risk assessors were largely in line with findings from the literature. Risk managers and lay persons offered similar suggestions on how to improve the existing communication of risk assessment results (e.g., including more explanatory detail, reporting probabilities for individual health impairments, and specifying risks for subgroups in additional sections). Risk managers found information about quality of evidence important to communicate, whereas people from the general public found this information less relevant. Participants from lower educational backgrounds had difficulties understanding the purpose of risk assessments. User tests found that the final prototype was appropriate and feasible to implement by risk assessors.
Conclusion
An iterative and evidence-based process was used to develop content to improve the communication of risk assessments to the general public while being feasible to use by risk assessors. Remaining challenges include how to communicate dose-response relationships and standardise quality of evidence ratings across disciplines.
Polizei im Orient
(2009)
Inhalt: Polizei in Kambodscha – Der Blick in die Vergangenheit - Folgen dieser Erfahrungen auf Bevölkerung und Gesellschaft - Zusammensetzung und Organisation der Polizei in Kambodscha - Betriebsförmigkeit - Standardisierung - Formalisierung Zur Sozialkultur und Außenwirkung der kambodschanischen Polizei Einordnung des kambodschanischen Polizeiapparats in das Herrschaftstypenmodell Max Webers
Oil and gas are the most important gains for the russian economy. So the improvement of these industries is very important and should be analyzed very well. In this paper we analyze the tendency in the development of these industries for the past ten years. We use a factor-analysis for the identification of determinants which have positive and negative effects on the development of the performance of these companies. Some of these determinants are the investment activities or the influence by the government. As result we get three types of firms related to their performances. There are the leaders, the middle and the outsiders.
Over the last decades mechanisms of recognition of morphologically complex words have been extensively examined in order to determine whether all word forms are stored and retrieved from the mental lexicon as wholes or whether they are decomposed into their morphological constituents such as stems and affixes. Most of the research in this domain focusses on English. Several factors have been argued to affect morphological processing including, for instance, morphological structure of a word (e.g., existence of allomorphic stem alternations) and its linguistic nature (e.g., whether it is a derived word or an inflected word form). It is not clear, however, whether processing accounts based on experimental evidence from English would hold for other languages. Furthermore, there is evidence that processing mechanisms may differ across various populations including children, adult native speakers and language learners. Recent studies claim that processing mechanisms could also differ between older and younger adults (Clahsen & Reifegerste, 2017; Reifegerste, Meyer, & Zwitserlood, 2017).
The present thesis examined how properties of the morphological structure, types of linguistic operations involved (i.e., the linguistic contrast between inflection and derivation) and characteristics of the particular population such as older adults (e.g., potential effects of ageing as a result of the cognitive decline or greater experience and exposure of older adults) affect initial, supposedly automatic stages of morphological processing in Russian and German. To this end, a series of masked priming experiments was conducted.
In experiments on Russian, the processing of derived -ost’ nouns (e.g., glupost’ ‘stupidity’) and of inflected forms with and without allomorphic stem alternations in 1P.Sg.Pr. (e.g., igraju – igrat’ ‘to play’ vs. košu – kosit’ ‘to mow’) was examined. The first experiment on German examined and directly compared processing of derived -ung nouns (e.g., Gründung ‘foundation’) and inflected -t past participles (e.g., gegründet ‘founded’), whereas the second one investigated the processing of regular and irregular plural forms (-s forms such as Autos ‘cars’ and -er forms such as Kinder ‘children’, respectively).
The experiments on both languages have shown robust and comparable facilitation effects for derived words and regularly inflected forms without stem changes (-t participles in German, forms of -aj verbs in Russian). Observed morphological priming effects could be clearly distinguished from purely semantic or orthographic relatedness between words. At the same time, we found a contrast between forms with and without allomorphic stem alternations in Russian and regular and irregular forms in German, with significantly more priming for unmarked stems (relative to alternated ones) and significantly more priming for regular (compared) word forms. These findings indicate the relevance of morphological properties of a word for initial stages of processing, contrary to claims made in the literature holding that priming effects are determined by surface form and meaning overlap only. Instead, our findings are more consistent with approaches positing a contrast between combinatorial, rule-based and lexically-stored forms (Clahsen, Sonnenstuhl, & Blevins, 2003).
The doctoral dissertation also addressed the role of ageing and age-related cognitive changes on morphological processing. The results obtained on this research issue are twofold. On the one hand, the data demonstrate effects of ageing on general measures of language performance, i.e., overall longer reaction times and/or higher accuracy rates in older than younger individuals. These findings replicate results from previous studies, which have been linked to the general slowing of processing speed at older age and to the larger vocabularies of older adults. One the other hand, we found that more specific aspects of language processing appear to be largely intact in older adults as revealed by largely similar morphological priming effects for older and younger adults. These latter results indicate that initial stages of morphological processing investigated here by means of the masked priming paradigm persist in older age. One caveat should, however, be noted. Achieving the same performance as a younger individual in a behavioral task may not necessarily mean that the same neural processes are involved. Older people may have to recruit a wider brain network than younger individuals, for example. To address this and related possibilities, future studies should examine older people’s neural representations and mechanisms involved in morphological processing.
Fruits exhibit a vast array of different 3D shapes, from simple spheres and cylinders to more complex curved forms; however, the mechanism by which growth is oriented and coordinated to generate this diversity of forms is unclear. Here, we compare the growth patterns and orientations for two very different fruit shapes in the Brassicaceae: the heart-shaped Capsella rubella silicle and the near-cylindrical Arabidopsis thaliana silique. We show, through a combination of clonal and morphological analyses, that the different shapes involve different patterns of anisotropic growth during three phases. These experimental data can be accounted for by a tissue level model in which specified growth rates vary in space and time and are oriented by a proximodistal polarity field. The resulting tissue conflicts lead to deformation of the tissue as it grows. The model allows us to identify tissue-specific and temporally specific activities required to obtain the individual shapes. One such activity may be provided by the valve-identity gene FRUITFULL, which we show through comparative mutant analysis to modulate fruit shape during post-fertilisation growth of both species. Simple modulations of the model presented here can also broadly account for the variety of shapes in other Brassicaceae species, thus providing a simplified framework for fruit development and shape diversity.
The Semantics of Ellipsis
(2005)
There are four phenomena that are particularly troublesome for theories of ellipsis: the existence of sloppy readings when the relevant pronouns cannot possibly be bound; an ellipsis being resolved in such a way that an ellipsis site in the antecedent is not understood in the way it was there; an ellipsis site drawing material from two or more separate antecedents; and ellipsis with no linguistic antecedent. These cases are accounted for by means of a new theory that involves copying syntactically incomplete antecedent material and an analysis of silent VPs and NPs that makes them into higher order definite descriptions that can be bound into.
Der vorliegende Artikel befasst sich mit Adventure-based Learning, einer digitalen, spielbasierten Lernmethode. Das Ziel derartiger Anwendungen ist es, Motivation und Begeisterung der Lernenden zu stimulieren und dadurch Lernprozesse zu unterstützen. Die Frage, inwiefern Adventure-based Learning tatsächlich lernförderliche Mehrwerte induziert, wird anhand einer Fallstudie im Kontext betrieblicher Weiterbildung untersucht. Hierzu wird ein Experiment mit 40 Probanden durchgeführt, in der eine Adventure-based Learning-Anwendung mit einer interaktiven Powerpoint-Präsentation verglichen wird. Die Ergebnisse der Untersuchung deuten darauf hin, dass viele Lernende sich Lernprogramme wünschen, die weniger textlastig sind und mit Adventure-based Learning eine vergleichbare Behaltensleistung erreicht wird.
A variety of polymerizable lipids containing a hydrophilic spacer group between the reactive group and the main amphiphilic structure have been synthesized. They were investigated in monolayers, liposomes, and multilayers. When the spacer concept was used, efficient decoupling of the motions of the polymeric chain and the amphiphilic side groups is achieved. Thus, the often found loss of the important fluid phases by polymerization is avoided. Polymeric monolayers of the spacer lipid, prepared either by polymerization in the monolayer or by spreading of prepolymerized lipid, exhibit nearly identical surface pressure-area diagrams. Most distinctly, the successful decoupling of the motions of the polymer main chain and the membrane forming amphiphilic side groups is demonstrated by the self-organization of bulk polymerized spacer lipids to polymeric liposomes. In addition, spacer lipids are able to build polymeric Langmuir-Blodgett multilayers. The decoupling of the polymer main chain and the membrane-forming amphiphilic side groups enables the deposition of already polymeric monolayers onto supports to form defined multilayers. If, alternatively, monomeric monolayers are deposited and polymerized on the support, defects in the layers due to structural changes during the polymerization are avoided by the flexible spacer group.
Dietary antioxidants are believed to play an important role in the prevention and treatment of a variety of diseases associated with oxidative stress. Although there is a wide range of dietary antioxidants, the bulk of the research to date has been focused on the nutrient antioxidants vitamin C, E, and carotenoids. Certain relatively uncommon antioxidants such as lipoic acid (LA), and phenolic compounds such as (-)-epicatechin (EC), (-)-epigallocatechin (EGC), (-)-epicatechin gallate (ECG), and (-)-epigallocatechin gallate (EGCG), have not been extensively investigated although they may exert greater antioxidant potency than that of carotenoids and vitamins. Extracts from selected plants and plant byproducts may represent rich sources for one or more of such antioxidants and therefore exhibit higher effects than a single antioxidant due to the synergistic effects produced between such antioxidants. However, in the last decade a number of epidemiological, animal and in vitro studies have suggested a protective and therapeutic potency of these antioxidants in a broad range of diseases such as cancer, diabetes, atherosclerosis, cataract and acute and chronic neurological disorders. Inflammation, the response of the host toward any infection or injury, plays a central role in the development of many chronic diseases. Several evidences demonstrated the rise of different types of cancer from sites of inflammation. This suggests that active oxygen species and some cytokines generated in the inflamed tissues can cause injury to DNA and ultimately lead to carcinogenesis. Diethylnitrosamine (DEN) is one of the most important environmental carcinogens, present in a variety of foods, alcoholic beverages, tobacco smoke and it can be synthesized endogenously. In addition to the liver it can induce carcinogenesis in other organs like kidney, trachea, lung, esophagus, fore stomach, and nasal cavity. Several epidemiological and laboratory studies indicate that nitroso compounds including DEN may induce hyperplasia and chronic inflammation which is closely associated with the development of hepatocellular carcinoma. Despite increasing evidence on the potential of antioxidants in modulating the etiology of chronic diseases, little is known about their role in inflammation and acute phase response (APR). Therefore the aim of the present work was to study the protective effect of water and solvent extracts of eight plant and plant byproducts including green tea, artichoke, spinach, broccoli, onion and eggplant, orange and potato peels as well as eight antioxidants agents including EC, EGC, ECG, EGCG, ascorbic acid (AA), acetylcysteine (NAC), α-LA, and alpha-tocopherol (α-TOC) toward acute inflammation induced by interleukin-6 (IL-6) and hepatotoxicity induced by DEN in vitro. The negative acute phase proteins (APP), transthyretin (TTR) and retinol-binding protein (RBP) were used as inflammatory biomarkers analyzed by ELISA, whereas neutral red assay was used for evaluating the cytotoxicity. All experiments were performed in vitro using human hepatocarcinoma cell line (HepG2). Additionally the antioxidant activity was measured by TEAC and FRAP assays, phenolic content was measured by Folin–Ciocalteu and characterized by HPLC. Moreover, the microheterogeneity of TTR was detected using immunoprecipitation assay combined with SELDI-TOF MS. Results of present study showed that HepG2 cells provide a simple, sensitive in vitro system for studying the regulation of the negative APP, TTR and RBP under free and inflammatory condition. IL-6, a potent proinflammatory cytokine, in a concentration of 25 ng/ml was able to reduce TTR and RBP secretion by approximately 50-60% after 24h of incubation. With exception of broccoli and water extract of onion which showed pro-inflammatory effects in this study, all other plant extracts, at specific concentrations, were able to elevate TTR secretion in normal condition and even under treatment of IL-6 where the effect was quite lower. Green tea followed by artichoke and potato peel exhibited the highest elevation in TTR concentration which reached 1.1 and 2.5 folds of control in presence and absences of IL-6 respectively. In general Plant extracts were ordered according their anti-inflammatory potency as following: in water extracts; green tea > artichoke > potato peel > orange peel > spinach > eggplant peel, where in solvent extracts; green tea > artichoke > potato peel > spinach > eggplant peel > onion > orange peel. The antiinflammatory effect of water extracts of green tea, artichoke and orange peel were significantly higher than their corresponding solvent extracts whereas water extracts of eggplant-, potato peels and spinach showed lower effect than their solvent extracts. On the other hand α-LA followed by EGCG and ECG exhibited the highest elevation in TTR concentration compared to other antioxidants. The relation between the anti-inflammatory potential and antioxidants activity and phenolic content for the investigated substances was generally weak. This may suggest the involvement of other mechanisms than antioxidants properties for the observed effect. TTR secreted by HepG2 cells has a molecular structure quite similar to the purified standard and serum TTR in which all the three main variants are contained including native, S-cystinylated and Sglutathionylated TTR. Interestingly, a variant with molecular mass of 13453.8 + 8.3 Da has been detected only in TTR secreted by HepG2. Among all investigated antioxidants and plant extracts, six substances were able to elevate the native preferable TTR variant. The potency of these substances can be ordered as following α-LA > NAC > onion > AA > EGCG > green tea. A weak correlation between elevation on TTR and shifting to the native form was observed. Similar weak correlation has also been observed between antioxidants activity and elevation in native TTR. Although DEN was able to induce cell death in a concentration dependent manner, it requires considerably higher concentrations for its effects especially after 24h. This may be attributed to a lack in cytochrome P450 enzymes produced by HepG2. At selected concentrations some antioxidants and plant extracts significantly attenuate DEN cytotoxicity as following: spinach > α-LA > artichoke > orange peel > eggplant peel > α-TOC > onion > AA. Contrary all other substances especially green tea, broccoli, potato peel, and ECG stimulate DEN toxicity. In conclusion, this study demonstrated that selected antioxidants and plant extracts may attenuate the inflammatory process, not only by their antioxidants potency but also by other mechanisms which remain unclear. They may also play a vital role on stabilizing the tetramic structure of TTR and thereby prevent amyloidosis diseases. Lipoic acid represents in this study unique function against inflammation and hepatotoxicity. Despite the protective effect demonstrated by investigated substances, attention should also be given to the pro-oxidant and potential cytotoxic effects produced at higher concentrations.
Discussing the case of Egypt, the author claims that since the preconditions in the Middle East are very different from those in Europe, there also has to be a different approach towards its modernization process. She suggests a „restructuring“ of the state not only in the economic sector but also in the political, cultural, or social areas. The advantage of such an approach lies in the fact that elements and values of the traditional culture can be maintained and even expanded. Furthermore, as this approach does not presuppose any specific model, it can be applied to all kinds of societies. However, restrucuring cannot replace modernization.
The author distinguishes between three types of Islamic states. A first type uses Islam as political legitimation (Saudi Arabia). In contrast, the second type uses Islam merely as a political framework. In Iran, for instance, religious values are maintained while at the same time democratic elements, such as elections, can be found. Egypt is mentioned as an example of the third type of state that ranges between a secular and a religious political system. Looking at the modernization process in Egypt more closely, the author claims that without good governance the efforts of the state will be useless and religious extremism may dominate.
Purpose: To examine the effects of fatiguing isometric contractions on maximal eccentric strength and electromechanical delay (EMD) of the knee flexors in healthy young adults of different training status.
Methods: Seventy-five male participants (27.7 ± 5.0 years) were enrolled in this study and allocated to three experimental groups according to their training status: athletes (ATH, n = 25), physically active adults (ACT, n = 25), and sedentary participants (SED, n = 25). The fatigue protocol comprised intermittent isometric knee flexions (6-s contraction, 4-s rest) at 60% of the maximum voluntary contraction until failure. Pre- and post-fatigue, maximal eccentric knee flexor strength and EMDs of the biceps femoris, semimembranosus, and semitendinosus muscles were assessed during maximal eccentric knee flexor actions at 60, 180, and 300°/s angular velocity. An analysis of covariance was computed with baseline (unfatigued) data included as a covariate.
Results: Significant and large-sized main effects of group (p ≤ 0.017, 0.87 ≤ d ≤ 3.69) and/or angular velocity (p < 0.001, d = 1.81) were observed. Post hoc tests indicated that regardless of angular velocity, maximal eccentric knee flexor strength was lower and EMD was longer in SED compared with ATH and ACT (p ≤ 0.025, 0.76 ≤ d ≤ 1.82) and in ACT compared with ATH (p = ≤0.025, 0.76 ≤ d ≤ 1.82). Additionally, EMD at post-test was significantly longer at 300°/s compared with 60 and 180°/s (p < 0.001, 2.95 ≤ d ≤ 4.64) and at 180°/s compared with 60°/s (p < 0.001, d = 2.56), irrespective of training status.
Conclusion: The main outcomes revealed significantly higher maximal eccentric strength and shorter eccentric EMDs of knee flexors in individuals with higher training status (i.e., athletes) following fatiguing exercises. Therefore, higher training status is associated with better neuromuscular functioning (i.e., strength, EMD) of the hamstring muscles in fatigued condition. Future longitudinal studies are needed to substantiate the clinical relevance of these findings.
Background
Maximal isokinetic strength ratios of joint flexors and extensors are important parameters to indicate the level of muscular balance at the joint. Further, in combat sports athletes, upper and lower limb muscle strength is affected by the type of sport. Thus, this study aimed to examine the differences in maximal isokinetic strength of the flexors and extensors and the corresponding flexor–extensor strength ratios of the elbows and knees in combat sports athletes.
Method
Forty male participants (age = 22.3 ± 2.5 years) from four different combat sports (amateur boxing, taekwondo, karate, and judo; n = 10 per sport) were tested for eccentric peak torque of the elbow/knee flexors (EF/KF) and concentric peak torque of the elbow/knee extensors (EE/KE) at three different angular velocities (60, 120, and 180°/s) on the dominant and non-dominant side using an isokinetic device.
Results
Analyses revealed significant, large-sized group × velocity × limb interactions for EF, EE, and EF–EE ratio, KF, KE, and KF–KE ratio (p ≤ 0.03; 0.91 ≤ d ≤ 1.75). Post-hoc analyses indicated that amateur boxers displayed the largest EE strength values on the non-dominant side at ≤ 120°/s and the dominant side at ≥ 120°/s (p < 0.03; 1.21 ≤ d ≤ 1.59). The largest EF–EE strength ratios were observed on amateur boxers’ and judokas’ non-dominant side at ≥ 120°/s (p < 0.04; 1.36 ≤ d ≤ 2.44). Further, we found lower KF–KE strength measures in karate (p < 0.04; 1.12 ≤ d ≤ 6.22) and judo athletes (p ≤ 0.03; 1.60 ≤ d ≤ 5.31) particularly on the non-dominant side.
Conclusions
The present findings indicated combat sport-specific differences in maximal isokinetic strength measures of EF, EE, KF, and KE particularly in favor of amateur boxers on the non-dominant side.
This study aimed at examining physiological responses (i.e., oxygen uptake [VO2] and heart rate [HR]) to a semi-contact 3 x 3-min format, amateur boxing combat simulation in elite level male boxers. Eleven boxers aged 21.4 +/- 2.1 years (body height 173.4 +/- 3.7, body mass 74.9 +/- 8.6 kg, body fat 12.1 +/- 1.9, training experience 5.7 +/- 1.3 years) volunteered to participate in this study. They performed a maximal graded aerobic test on a motor-driven treadmill to determine maximum oxygen uptake (VO2max), oxygen uptake (VO2AT) and heart rate (HRAT) at the anaerobic threshold, and maximal heart rate (HRmax). Additionally, VO2 and peak HR (HRpeak) were recorded following each boxing round. Results showed no significant differences between VO2max values derived from the treadmill running test and VO2 outcomes of the simulated boxing contest (p > 0.05, d = 0.02 to 0.39). However, HRmax and HRpeak recorded from the treadmill running test and the simulated amateur boxing contest, respectively, displayed significant differences regardless of the boxing round (p < 0.01, d = 1.60 to 3.00). In terms of VO2 outcomes during the simulated contest, no significant between-round differences were observed (p = 0.19, d = 0.17 to 0.73). Irrespective of the boxing round, the recorded VO2 was >90% of the VO2max. Likewise, HRpeak observed across the three boxing rounds were >= 90% of the HRmax. In summary, the simulated 3 x 3-min amateur boxing contest is highly demanding from a physiological standpoint. Thus, coaches are advised to systematically monitor internal training load for instance through rating of perceived exertion to optimize training-related adaptations and to prevent boxers from overreaching and/or overtraining.
Stottern in Schule und Beruf
(2020)
Die professionalisierte Kommunikation komplexer Gebilde wie Staaten und Nationen, die ihre Hinwendung politischer Fragestellungen in die Sphären von Image und Einfluss verlegt, kommt vor dem Hintergrund wachsenden Wettbewerbs an der Bedeutung der Reputation nicht vorbei. Denn neben ihrer ökonomischen Bedeutung legitimiert Reputation als mittel- oder langfristiges öffentliches Ansehen, das ihren Trägern Definitions- und Überzeugungsmacht verschafft, Macht- und Herrschaftspositionen. In einer mediatisierten Gesellschaft wächst die Bedeutung der Kommunikation mit der Öffentlichkeit sowohl für Erwerb und Erhalt von Reputation – wie auch für deren Aberkennung. Dabei spielt eine zunehmende Skandalisierung als Eigenheit der Mediengesellschaft eine Rolle, die eine erhöhte Fragilisierung der Reputation zur Folge hat und als wirksamster Mechanismus bei der Aberkennung von Reputation gilt, wie das Beispiel der dänischen „Karikaturen-Affäre“ veranschaulicht. In einer kommunikativ schnelllebigen Welt, zunehmend frei verfügbarer Information, geistern durch die Außenministerien des Global Village Begriffe wie Public Diplomacy, Nation Branding, Country Branding oder Place Branding, deren gemeinsamer Nenner zunächst die nach außen gerichtete Kommunikation ist. Aber schon die Frage nach Absender und Adressat, nach Akteur und Rezipient, Botschaften und Zielgruppen verweist auf die Komplexität der Kommunikation eines Landes. Ziel der Untersuchung ist es in den Kommunikationsbemühungen von Ländern, Faktoren zu identifizieren, die Image und Reputation nachhaltig beeinflussen können. Dabei stehen die folgenden Fragen im Mittelpunkt der Untersuchung: Wie werden Länder wahrgenommen und Reputation gebildet? Können die Bezugsgruppen eines Landes durch die Stakeholdertheorie (Freeman 1984) beschrieben werden – und wenn ja, welche Konsequenzen hat eine solche Berücksichtigung der Anspruchs- und Adressatengruppen auf die Kommunikation eines Landes? Welche Aspekte der theoretischen Ansätze können für die Kommunikation von Ländern als zentral bewertet werden? Und schließlich: Kann die Reflexion durch die Praxis, am Fallbeispiel der Schweiz, die Relevanz der eruierten Aspekte bestätigen bzw. um weitere Aspekte ergänzen und können auf dieser Grundlage Erfolgsfaktoren identifiziert und geeignete Instrumente für die Reputationskommunikation aufgezeigt werden?
In dieser Arbeit werden drei Themen im Zusammenhang mit den spektroskopischen Eigenschaften von Cumarin- (Cou) und DBD-Farbstoffen ([1,3]Dioxolo[4,5-f][1,3]benzodioxol) behandelt. Der erste Teil zeigt die grundlegende spektroskopische Charakterisierung von 7-Aminocumarinen und ihre potentielle Anwendung als Fluoreszenzsonde für Fluoreszenzimmunassays. Im zweiten Teil werden mit die photophysikalischen Eigenschaften der Cumarine genutzt um Cou- und DBD-funktionalisierte Oligo-Spiro-Ketal-Stäbe (OSTK) und ihre Eigenschaften als Membransonden zu untersuchen. Der letzte Teil beschäftigt sich mit der Synthese und der Charakterisierung von Cou- und DBD-funktionalisierten Polyprolinen als Referenzsysteme für schwefelfunktionalisierte OSTK-Stäbe und ihrer Kopplung an Goldnanopartikel.
Immunochemische Analysemethoden sind in der klinischen Diagnostik sehr erfolgreich und werden heute auch für die Nahrungsmittelkontrolle und Überwachung von Umweltfragen mit einbezogen. Dadurch sind sie von großem Interesse für weitere Forschungen. Unter den verschiedenen Immunassays zeichnen sich lumineszenzbasierte Formate durch ihre herausragende Sensitivität aus, die dieses Format für zukünftige Anwendungen besonders attraktiv macht. Die Notwendigkeit von Multiparameterdetektionsmöglichkeiten erfordert einen Werkzeugkasten mit Farbstoffen, um die biochemische Reaktion in ein optisch detektierbares Signal umzuwandeln. Hier wird bei einem Multiparameteransatz jeder Analyt durch einen anderen Farbstoff mit einer einzigartigen Emissionsfarbe, die den blauen bis roten Spektralbereich abdecken, oder eine einzigartige Abklingzeit detektiert. Im Falle eines kompetitiven Immunassayformats wäre für jeden der verschiedenen Farbstoffe ein einzelner Antikörper erforderlich. In der vorliegenden Arbeit wird ein leicht modifizierter Ansatz unter Verwendung einer Cumarineinheit, gegen die hochspezifische monoklonale Antikörper (mAb) erzeugt wurden, als grundlegendes Antigen präsentiert. Durch eine Modifikation der Stammcumarineinheit an einer Position des Moleküls, die für die Erkennung durch den Antikörper nicht relevant ist, kann auf den vollen Spektralbereich von blau bis tiefrot zugegriffen werden. In dieser Arbeit wird die photophysikalische Charakterisierung der verschiedenen Cumarinderivate und ihrer entsprechenden Immunkomplexe mit zwei verschiedenen, aber dennoch hochspezifischen, Antikörpern präsentiert. Die Cumarinfarbstoffe und ihre Immunkomplexe wurden durch stationäre und zeitaufgelöste Absorptions- sowie Fluoreszenzemissionsspektroskopie charakterisiert. Darüber hinaus wurden Fluoreszenzdepolarisationsmessungen durchgeführt, um die Daten zu vervollständigen, die die verschiedenen Bindungsmodi der beiden Antikörper betonten. Im Gegensatz zu häufig eingesetzten Nachweissystemen wurde eine massive Fluoreszenzverstärkung bei der Bildung des Antikörper-Farbstoffkomplexes bis zu einem Faktor von 50 gefunden. Wegen der leichten Emissionsfarbenänderung durch das Anpassen der Cumarinsubstitution in der für die Antigenbindung nicht relevanten Position des Elternmoleküls, ist eine Farbstoff-Toolbox vorhanden, die bei der Konstruktion von kompetitiven Multiparameterfluoreszenzverstärkungsimmunassays verwendet werden kann.
Oligo-Spiro-Thio-Ketal-Stäbe werden aufgrund ihres hydrophoben Rückgrats leicht in Doppellipidschichten eingebaut und deshalb als optische Membransonde verwendet. Wegen ihres geringen Durchmessers wird nur eine minimale Störung der Doppellipidschicht verursacht. Durch die Markierung mit Fluoreszenzfarbstoffen sind neuartige Förster-Resonanz-Energietransfersonden mit hoch definierten relativen Orientierungen der Übergangsdipolmomente der Donor- und Akzeptorfarbstoffe zugänglich und macht die Klasse der OSTK-Sonden zu einem leistungsstarken, flexiblen Werkzeugkasten für optische Biosensoranwendungen. Mit Hilfe von stationären und zeitaufgelösten Fluoreszenzexperimenten wurde der Einbau von Cumarin- und DBD markierten OSTK-Stäben in großen unilamellaren Vesikeln untersucht und die Ergebnisse durch Fluoreszenzdepolarisationsmessungen untermauert.
Der letzte Teil dieser Arbeit beschäftigt sich mit der Synthese und Charakterisierung von Cou- und DBD-funktionalisierten Polyprolinen und ihrer Kopplung an Goldnanopartikel. Die farbstoffmarkierten Polyproline konnten erfolgreich hergestellt werden. Es zeigten sich deutlich Einflüsse auf die spektroskopischen Eigenschaften der Farbstoffe durch die Bindung an die Polyprolinhelix. Die Kopplung an die 5 nm großen AuNP konnte erfolgreich durchgeführt werden. Die Erfahrungen, die durch die Kopplung der Polyproline an die AuNP, gewonnen wurde, ist die Basis für eine Einzelmolekül-AFM-FRET-Nanoskopie mit OSTK-Stäben.
Das Gebiet der Netzsicherheit ist ein schwer zu lehrendes und mühsam zu lernendes Fach in der Informatikausbildung. Dies hat verschiedene Gründe, z.B. erfordert es Fachkenntnis, die jenseits von bunten Bildern zu vermitteln ist und sich dabei mit geringer Halbwertszeit weiterentwickelt. Echte Bedrohungsszenarien müssen unter Laborbedingungen nachgestellt werden, und der Umgang mit den Sicherheitswerkzeugen ist sehr komplex. Auf der einen Seite muss das System konzeptionell verstanden werden und auf der anderen Seite sind viele Details in der Konfiguration von Firewalls, Netz-Komponenten und –Werkzeugen für klassische Prüfungssituationen in der Ausbildung anzuwenden. Mit NetS-X (Network Security Experience) stellen wir einen laufenden Prototyp einer e-learning Plattform vor, mit der ein weiter Bereich von Sicherheitsszenarien vermittelt werden kann. Dabei wird der Lernende in einem Spielsystem mit Situationen konfrontiert, die er in einer echten, auf Linux basierenden typischen IT-Infrastruktur eines Unternehmens beherrschen muss. Die sicherheitsrelevanten Aktivitäten des Lernenden, z.B. der Einsatz von Monitor-Werkzeugen oder die Konfiguration von Netz-Komponenten werden dabei nicht simuliert, sondern real durchgeführt und durch Prozesse des Spielsystems beobachtet und bewertet. Autorenwerkzeuge ermöglichen den Lehrenden und Spielern, selber neue Spielsituationen, Sicherheitsszenarien oder Wissenskomponenten in das System zu integrieren.
Der Jude in der Musik
(2005)
Many children struggle with reading for comprehension. Reading is a complex cognitive task depending on various sub-tasks, such as word decoding and building connections across sentences. The task of connecting sentences is guided by referential expressions. References, such as anaphoric noun phrases (Minky/the cat) or pronouns (Minky/she), signal to the reader how the protagonists of adjacent sentences are connected. Readers construct a coherent mental model of the text by resolving these references. Personal pronouns (he/she) in particular need to be resolved towards an appropriate antecedent before they can be fully understood. Pronoun resolution therefore is vital for successful text comprehension. The present thesis investigated children’s resolution of personal pronouns during natural reading as a possible source of reading comprehension difficulty. Three eye tracking studies investigated whether children aged 8-9 (Grade 3-4) resolve pronouns online during reading and how the varying information around the pronoun region influences children’s eye movement behavior.
The first study investigated whether children prefer a pronoun over a noun phrase when the antecedent is highly accessible. Children read three-sentence stories that introduced a protagonist (Mia) in the first sentence and a reference to this protagonist in one of the following sentences using either a repeated name (Mia) or a pronoun (she). For proficient readers, it was repeatedly shown that there is a preference for a pronoun over the name in these contexts, i.e., when the antecedent is salient. The first study tested the repeated name penalty effect in children using eye tracking. It was hypothesized that in contrast to proficient readers, the fluency of children’s reading processing profits from an overlapping word form (i.e., the repeated noun phrase) compared to a pronoun. This is because overlapping word forms allow for direct mapping, whereas pronouns have to be resolved towards their antecedent first.
The second study investigated children’s online processing of pronominal gender in a mismatch paradigm. Children read sentences in which the pronoun either was a gender-match to the antecedent or a gender-mismatch. Reading skill and reading fluency were also tested and related to children’s ability to detect a mismatching pronoun during reading.
The third study investigated the online processing of gender information on the pronoun and whether disambiguating gender information improves the accuracy of pronoun comprehension. Offline comprehension accuracy, that is the comprehension of the pronoun, was related to children’s online eye movement behavior. This study was conducted in a semi-longitudinal paradigm: 70 children were tested in Grade 3 (age 8) and again in Grade 4 (age 9) to investigate effects of age and reading skill on pronoun processing and comprehension.
The results of this thesis clearly show that children aged 8-9, when they are in the second half of primary school, struggle with the comprehension of pronouns in reading tasks. The responses to pronoun comprehension questions revealed that children have difficulties with the comprehension of a pronoun in the absence of a disambiguating gender cue, that is when they have to apply context information. When there is a gender cue to disambiguate the pronoun, children’s accuracy improves significantly. This is true for children in Grade 3, but also in Grade 4, albeit their overall resolution accuracy slightly improves with age.
The results from the analyses of eye movements suggest that the discourse accessibility of an antecedent does play a role in children’s processing of pronouns and repeated names. The repetition of a name does not facilitate children’s reading processing like it was anticipated. Similar to adults, children showed a penalty effect for the repeated name where a pronoun is expected. However, this does not mean that children’s processing of pronouns is always adult-like. The results from eye movement analyses in the pronoun region during sentence reading revealed significant individual differences related to children’s individual reading skill and reading fluency.
The results from the mismatch study revealed that reading fluency is associated with children’s detection of incongruent pronouns. All children had longer gaze durations at mismatching than matching pronouns, but only fluent readers among the children followed this up with a regression out of the pronoun region. This was interpreted as an attempt to gain processing time and “repair” the inconsistency. Reading fluency was therefore associated with detection of the mismatch, while less fluent readers did not see any mismatch between pronoun and antecedent. The eye movement pattern of the “detectors” is more adult-like and was interpreted as reflecting successful monitoring and attempted pronoun resolution.
Children differ considerably in their reading comprehension skill. The results of this thesis show that only skilled readers among the children use gender information online for pronoun resolution. They took more time to read the pronoun when there was disambiguating gender information that was useful to resolve the pronoun, in contrast to the less skilled readers. Age was a less important factor in pronoun resolution processes and comprehension than were reading skill and reading fluency. Taken together, this suggests that the good readers direct cognitive resources towards pronoun resolution when the pronoun can be resolved, which is a successful comprehension strategy. Moreover, there was evidence that reading skill is a relevant factor in this task but not age.
The contribution of the present thesis is a depiction of the specific eye movement patterns that are related to successful and unsuccessful attempts at pronoun resolution in children. Eye movement behavior in the pronoun area is related to children’s reading skill and fluency. The results of this thesis suggest that many children do not resolve pronouns spontaneously during sentence reading, which is likely detrimental to their reading comprehension in more complex reading materials. The present thesis informs our understanding of the challenge that pronoun resolution poses for beginning readers, and gives new impulses for the study of higher-order reading processes in children’s natural reading.
In diesem Beitrag werden das Konzept der „Virtuellen Runden Tische“ (ViRuTi) sowie Ergebnisse ihrer Pilotierung und Perspektiven für die Implementierung vorgestellt. Dabei geht es um die ressourcenfreundliche, digitale Umsetzung und niederschwellige Durchführung der ViRuTi. Inklusive Bestrebungen sind fest mit der Notwendigkeit interdisziplinärer Fallbesprechungen verknüpft. Akteure aus Kita, Schule und Gesundheitswesen können mit Bezugspersonen des betreffenden Kindes gemeinsam am runden Tisch Perspektiven austauschen und Entscheidungen treffen, bspw. zur Einleitung und Evaluierung von Sprachförder- oder -therapiemaßnahmen. Eine durch ein Konzept vorgegebene Struktur erleichtert den Austausch und die Fokussierung der Beteiligten auf die Ressourcen und Bedürfnisse des Kindes. Außerdem ist dieser interprofessionelle bzw. transdisziplinäre Austausch auch digital möglich.
Business processes are instrumental to manage work in organisations. To study the interdependencies between business processes, Business Process Architectures have been introduced. These express trigger and message ow relations between business processes. When we investigate real world Business Process Architectures, we find complex interdependencies, involving multiple process instances. These aspects have not been studied in detail so far, especially concerning correctness properties. In this paper, we propose a modular transformation of BPAs to open nets for the analysis of behavior involving multiple business processes with multiplicities. For this purpose we introduce intermediary nets to portray semantics of multiplicity specifications. We evaluate our approach on a use case from the public sector.
Business Process Management has become an integral part of modern organizations in the private and public sector for improving their operations. In the course of Business Process Management efforts, companies and organizations assemble large process model repositories with many hundreds and thousands of business process models bearing a large amount of information. With the advent of large business process model collections, new challenges arise as structuring and managing a large amount of process models, their maintenance, and their quality assurance.
This is covered by business process architectures that have been introduced for organizing and structuring business process model collections. A variety of business process architecture approaches have been proposed that align business processes along aspects of interest, e. g., goals, functions, or objects. They provide a high level categorization of single processes ignoring their interdependencies, thus hiding valuable information. The production of goods or the delivery of services are often realized by a complex system of interdependent business processes. Hence, taking a holistic view at business processes interdependencies becomes a major necessity to organize, analyze, and assess the impact of their re-/design. Visualizing business processes interdependencies reveals hidden and implicit information from a process model collection.
In this thesis, we present a novel Business Process Architecture approach for representing and analyzing business process interdependencies on an abstract level. We propose a formal definition of our Business Process Architecture approach, design correctness criteria, and develop analysis techniques for assessing their quality. We describe a methodology for applying our Business Process Architecture approach top-down and bottom-up. This includes techniques for Business Process Architecture extraction from, and decomposition to process models while considering consistency issues between business process architecture and process model level. Using our extraction algorithm, we present a novel technique to identify and visualize data interdependencies in Business Process Data Architectures. Our Business Process Architecture approach provides business process experts,managers, and other users of a process model collection with an overview that allows reasoning about a large set of process models,
understanding, and analyzing their interdependencies in a facilitated way. In this regard we evaluated our Business Process Architecture approach in an experiment and provide implementations of selected techniques.
Inhalt I. Einführung: Marktstruktur und Marktergebnisse II. Die Ausgestaltung der deutschen Rundfunkordnung durch dasBundesverfassungsgericht III. Gutseigenschaften und Marktbesonderheiten 1. Totales Marktversagen infolge öffentlicher Güter? 2. Externe Effekte des Rundfunkkonsums? 3. Rundfunk als meritorisches Gut? 4. Intransitive Präferenzen beim Rundfunkkonsum? 5. Asymmetrische Informationen im Rundfunkbereich? 6. Zwischenergebnis IV. Finanzierungsalternativen 1. Gebührenfinanzierung 2. Werbefinanzierung 3. Pay-TV 4. Zwischenergebnis V. Reformvorschläge zur deutschen Rundfunkordnung 1. Neubestimmung des öffentlich-rechtlichen Funktionsauftrages? 2. Finanzierung des öffentlich-rechtlichen Rundfunks durch die privaten Veranstalter? 3. Verzicht auf den öffentlich-rechtlichen Rundfunk? VI. Resümee
Do economists matter?
(2005)
Inhalt 1 Einleitung 2 Angebot an wettbewerbspolitischen Leitbildern 2.1 Ziele der Wissenschaftler 2.2 Bedeutung wettbewerbspolitischer Leitbilder 2.2.1 Ordoliberalismus 2.2.2 Workability-Konzepte 2.2.3 Kantzenbachs Leitbild der optimalen Wettbewerbsintensität 2.2.4 Hoppmanns Leitbild der Wettbewerbsfreiheit 2.2.5 Chicago School 3 Nachfrage nach wettbewerbspolitischen Leitbildern 3.1 Unterschiedliche Rollen der Politiker 3.2 Politiker und Ausrichtung der Wettbewerbspolitik 3.3 Wettbewerbspolitische Leitbilder und US-amerikanische Antitrustpolitik 4 Einfluss wettbewerbspolitischer Leitbilder auf die europäische Fusionskontroller 4.1 Deutsche Grundlagen 4.2 Materiell-rechtliche-Regelungen der FKVO 4.3 Einflüsse der wettbewerbspolitischen Leitbilder 4.4 Positionen der Interessengruppen 5 Fazit
Inhalt 1 Einleitung 2 Die Ziele des EnWG 2005 3 Die wichtigsten Neuregelungen des EnWG 2005 3.1 Neuregelungen zwecks Förderung des Wettbewerbs 3.1.1 Netzzugang 3.1.2 Netzentgelte 3.1.3 Unbundling 3.1.4 Stromkennzeichnung 3.2 Neuregelungen im Interesse der Versorgungssicherheit 4 Auswirkungen der Neuregelungen auf die Ziele des EnWG 2005 4.1 Preisgünstigkeit 4.2 Versorgungssicherheit 4.3 Umweltverträglichkeit 4.4 Energieeffizienz und Verbraucherfreundlichkeit 5 Fazit
Im August 2007 verstarb Erich Hoppmann. Die Wettbewerbsökonomik hat ihm außerordentlich viel zu verdanken. Besondere Bekanntheit erlangte seine Kontroverse mit Erhard Kantzenbach über das adäquate Leitbild der Wettbewerbspolitik. Hoppmanns Leitbild der Wettbewerbsfreiheit entstand ab 1966 vornehmlich als Reaktion auf Kantzenbachs Leitbild der optimalen Wettbewerbsintensität. Hoppmanns Leitbild wandte sich aber auch gegen bestimmte Workability-Konzepte, ferner gegen die mit dem neoklassischen Modell der vollkommenen Konkurrenz verbundenen Gleichgewichtsvorstellungen. Wegen der für die Entwicklung der Wettbewerbspolitik in Deutschland bedeutsamen Kontroverse zwischen Hoppmann und Kantzenbach wollen wir uns im Folgenden auf deren Leitbilder konzentrieren. Zunächst werden beide Konzeptionen rekapituliert und sodann gegenübergestellt. Schließlich wird nach ihrer Bedeutung für die Theorie und Praxis der Wettbewerbspolitik gefragt.
Inhalt 1 Ausgangslage 2 Regional- und industriepolitische Maßnahmen 2.1 Begriffliche Vorbemerkungen 2.2 Wichtige Maßnahmenbereiche 2.3 Brutto- und Nettotransfers 3 Auswirkungen 4 Regional- und industriepolitische Reformalternativen 4.1 Fortführung der Solidarpakts 4.2 Sonderwirtschaftszone Ost 4.3 Förderung der Infrastruktur 5 Fazit
Inhalt 1. Öffentliche Unternehmen als ordnungspolitisches Problem 2. Positive Analyse und Neue Politische Ökonomik 2.1. Empirische Befunde zur Effizienzalternativer Produktion 2.2. Bürokratietheoretische Erklärungsansätze undModellerweiterungen 3. Normative Analyse und aktuelle Entwicklungen 3.1. Ordnungspolitische Konsequenzen:Privatisierung staatlicher Monopole undwettbewerbliche Marktöffnung 3.2. Natürliche Monopole als Liberalisierungshindernisse? 3.3. Liberalisierungsprozesse in einzelnen Sektoren 3.4. Ausblick und Perspektiven öffentlicher Unternehmen
Inhalt 1 Globalisierung und Wettbewerb 1.1 Einzelne Aspekte 1.2 Unterschiedliche Bewertungen 2 Das MacDougall-Kemp-Modelldes institutionellen Wettbewerbs 2.1 Modellprämissen und -implikationen 2.2 Empirische Evidenz 3 Untersuchung weiterer Politikbereiche 3.1 Sozial- und Umweltpolitik 3.2 Wettbewerbspolitik 4 Mängel der betrachteten Ansätze 4.1 Transaktionskosten von Individuen und Unternehmen 4.2 Verhaltensweisen privater und politischer Akteure 5 Wirtschaftspolitische Konsequenzen
Inhalt 1 Gegenstand der Untersuchung 2 SV aus wirtschaftstheoretischer Sicht:(neoklassische) Umweltökonomik 3 SV aus wirtschaftspolitischer Sicht:(ordoliberale) ordnungspolitische Aspekte 4 SV aus empirischer Sicht 5 Realitätsbezogene Probleme und Lösungsansätze 6 Realitätsnähere Analyse der Effektivität, Effizienz undWettbewerbskonformität von SV 7 Realitätsnähere Analyse der ordnungspolitischen Aspekte 8 Kriterien erfolgreicher SV 9 Aktuelle Problematik: SV versus Emissionsrechtehandel
Background
Aim of the study was to find predictors of allocating patients after transcatheter aortic valve implantation (TAVI) to geriatric (GR) or cardiac rehabilitation (CR) and describe this new patient group based on a differentiated characterization.
Methods
From 10/2013 to 07/2015, 344 patients with an elective TAVI were consecutively enrolled in this prospective multicentric cohort study. Before intervention, sociodemographic parameters, echocardiographic data, comorbidities, 6-min walk distance (6MWD), quality of life and frailty (score indexing activities of daily living [ADL], cognition, nutrition and mobility) were documented. Out of these, predictors for assignment to CR or GR after TAVI were identified using a multivariable regression model.
Results
After TAVI, 249 patients (80.7 ± 5.1 years, 59.0% female) underwent CR (n = 198) or GR (n = 51). GR patients were older, less physically active and more often had a level of care, peripheral artery disease as well as a lower left ventricular ejection fraction. The groups also varied in 6MWD. Furthermore, individual components of frailty revealed prognostic impact: higher values in instrumental ADL reduced the probability for referral to GR (OR:0.49, p < 0.001), while an impaired mobility was positively associated with referral to GR (OR:3.97, p = 0.046). Clinical parameters like stroke (OR:0.19 of GR, p = 0.038) and the EuroSCORE (OR:1.04 of GR, p = 0.026) were also predictive.
Conclusion
Advanced age patients after TAVI referred to CR or GR differ in several parameters and seem to be different patient groups with specific needs, e.g. regarding activities of daily living and mobility. Thus, our data prove the eligibility of both CR and GR settings.
Background: Telerehabilitation can contribute to the maintenance of successful rehabilitation regardless of location and time. The aim of this study was to investigate a specific three-month interactive telerehabilitation routine regarding its effectiveness in assisting patients with physical functionality and with returning to work compared to typical aftercare.
Objective: The aim of the study was to investigate a specific three-month interactive telerehabilitation with regard to effectiveness in functioning and return to work compared to usual aftercare.
Methods: From August 2016 to December 2017, 111 patients (mean 54.9 years old; SD 6.8; 54.3% female) with hip or knee replacement were enrolled in the randomized controlled trial. At discharge from inpatient rehabilitation and after three months, their distance in the 6-minute walk test was assessed as the primary endpoint. Other functional parameters, including health related quality of life, pain, and time to return to work, were secondary endpoints.
Results: Patients in the intervention group performed telerehabilitation for an average of 55.0 minutes (SD 9.2) per week. Adherence was high, at over 75%, until the 7th week of the three-month intervention phase. Almost all the patients and therapists used the communication options. Both the intervention group (average difference 88.3 m; SD 57.7; P=.95) and the control group (average difference 79.6 m; SD 48.7; P=.95) increased their distance in the 6-minute-walk-test. Improvements in other functional parameters, as well as in quality of life and pain, were achieved in both groups. The higher proportion of working patients in the intervention group (64.6%; P=.01) versus the control group (46.2%) is of note.
Conclusions: The effect of the investigated telerehabilitation therapy in patients following knee or hip replacement was equivalent to the usual aftercare in terms of functional testing, quality of life, and pain. Since a significantly higher return-to-work rate could be achieved, this therapy might be a promising supplement to established aftercare.
Background
Total hip or knee replacement is one of the most frequently performed surgical procedures. Physical rehabilitation following total hip or knee replacement is an essential part of the therapy to improve functional outcomes and quality of life. After discharge from inpatient rehabilitation, a subsequent postoperative exercise therapy is needed to maintain functional mobility. Telerehabilitation may be a potential innovative treatment approach. We aim to investigate the superiority of an interactive telerehabilitation intervention for patients after total hip or knee replacement, in comparison to usual care, regarding physical performance, functional mobility, quality of life and pain.
Methods/design
This is an open, randomized controlled, multicenter superiority study with two prospective arms. One hundred and ten eligible and consenting participants with total knee or hip replacement will be recruited at admission to subsequent inpatient rehabilitation. After comprehensive, 3-week, inpatient rehabilitation, the intervention group performs a 3-month, interactive, home-based exercise training with a telerehabilitation system. For this purpose, the physiotherapist creates an individual training plan out of 38 different strength and balance exercises which were implemented in the system. Data about the quality and frequency of training are transmitted to the physiotherapist for further adjustment. Communication between patient and physiotherapist is possible with the system. The control group receives voluntary, usual aftercare programs. Baseline assessments are investigated after discharge from rehabilitation; final assessments 3 months later. The primary outcome is the difference in improvement between intervention and control group in 6-minute walk distance after 3 months. Secondary outcomes include differences in the Timed Up and Go Test, the Five-Times-Sit-to-Stand Test, the Stair Ascend Test, the Short-Form 36, the Western Ontario and McMaster Universities Osteoarthritis Index, the International Physical Activity Questionnaire, and postural control as well as gait and kinematic parameters of the lower limbs. Baseline-adjusted analysis of covariance models will be used to test for group differences in the primary and secondary endpoints.
Discussion
We expect the intervention group to benefit from the interactive, home-based exercise training in many respects represented by the study endpoints. If successful, this approach could be used to enhance the access to aftercare programs, especially in structurally weak areas.
Hintergrund
Für Patienten mit hochgradiger Aortenklappenstenose, die aufgrund ihres Alters oder ihrer Multimorbidität ein hohes Operationsrisiko tragen, konnte mit der kathetergestützten Aortenklappenkorrektur (transcatheter aortic valve implantation, TAVI) eine vielversprechende Alternative zum herzchirurgischen Eingriff etabliert werden. Explizite Daten zur multidisziplinären kardiologischen Rehabilitation nach TAVI liegen bislang nicht vor. Ziel vorliegender Arbeit war, den Effekt der kardiologischen Rehabilitation auf die körperliche Leistungsfähigkeit, den emotionalen Status, die Lebensqualität und die Gebrechlichkeit bei Patienten nach TAVI zu untersuchen sowie Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und der Lebensqualität zu identifizieren.
Methodik
Zwischen 10/2013 und 07/2015 wurden 136 Patienten (80,6 ± 5,0 Jahre, 47,8 % Männer) in Anschlussheilbehandlung nach TAVI in drei kardiologischen Rehabilitationskliniken eingeschlossen. Zur Beurteilung des Effekts der kardiologischen Rehabilitation wurden jeweils zu Beginn und Ende der Rehabilitation der Frailty (Gebrechlichkeits)-Index (Score bestehend aus Barthel-Index, Instrumental Activities of Daily Living, Mini Mental State Exam, Mini Nutritional Assessment, Timed Up and Go und subjektiver Mobilitätsverschlechterung), die Lebensqualität im Short-Form 12 (SF-12) sowie die funktionale körperliche Leistungsfähigkeit im 6-Minuten Gehtest (6-minute walk test, 6MWT) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie erhoben. Zusätzlich wurden soziodemographische Daten (z. B. Alter und Geschlecht), Komorbiditäten (z. B. chronisch obstruktive Lungenerkrankung, koronare Herzkrankheit und Karzinom), kardiovaskuläre Risikofaktoren und die NYHA-Klasse dokumentiert. Prädiktoren für die Veränderung der körperlichen Leistungsfähigkeit und Lebensqualität wurden mit Kovarianzanalysen angepasst.
Ergebnisse
Die maximale Gehstrecke im 6MWT konnte um 56,3 ± 65,3 m (p < 0,001) und die maximale körperliche Leistungsfähigkeit in der Belastungs-Ergometrie um 8,0 ± 14,9 Watt (p < 0001) gesteigert werden. Weiterhin konnte eine Verbesserung im SF-12 sowohl in der körperlichen Summenskala um 2,5 ± 8,7 Punkte (p = 0,001) als auch in der psychischen Summenskala um 3,4 ± 10,2 Punkte (p = 0,003) erreicht werden. In der multivariaten Analyse waren ein höheres Alter und eine höhere Bildung signifikant mit einer geringeren Zunahme im 6MWT assoziiert, währenddessen eine bessere kognitive Leistungsfähigkeit und Adipositas einen positiven prädiktiven Wert aufwiesen. Eine höhere Selbstständigkeit und ein besserer Ernährungsstatus beeinflussten die Veränderung in der körperlichen Summenskala des SF-12 positiv, währenddessen eine bessere kognitive Leistungsfähigkeit einen Prädiktor für eine geringere Veränderung darstellte. Des Weiteren hatten die jeweiligen Ausgangswerte der körperlichen und psychischen Summenskala im SF-12 einen inversen Einfluss auf die Veränderungen in der gleichen Skala.
Schlussfolgerung
Eine multidisziplinäre kardiologische Rehabilitation kann sowohl die körperliche Leistungs-fähigkeit und Lebensqualität verbessern als auch die Gebrechlichkeit von Patienten nach kathetergestützter Aortenklappenkorrektur verringern. Daraus resultierend gilt es, spezifische Assessments für die kardiologische Rehabilitation zu entwickeln. Weiterhin ist es notwendig, individualisierte Therapieprogramme mit besonderem Augenmerk auf kognitive Funktionen und Ernährung zu initiieren, um die Selbstständigkeit hochbetagter Patienten zu erhalten bzw. wiederherzustellen und um die Pflegebedürftigkeit der Patienten hinauszuzögern.
Der Beitrag stellt das Konzept und die Durchführung eines Seminars zum Thema „Sprachliche Heterogenität“ innerhalb des Moduls „Grundlagen der Inklusionspädagogik“ vor, welches im Rahmen der Qualitätsoffensive Lehrerbildung an der Universität Potsdam (PSI Potsdam) durch den Arbeitsbereich Deutsch als Fremd- und Zweitsprache entwickelt wurde. Das Seminar begleitet eine außerunterrichtliche Praxiserfahrung im Bachelorstudium für Lehramtsstudierende aller Fächer und ist in ein Seminar sowie eine anschließende Blockphase nach dem eigentlichen Praktikum gegliedert. Dargestellt werden hier die inhaltliche sowie theoretische Verortung des Konzepts, welches auf eine Sensibilisierung und (Selbst-)Reflexion der angehenden Lehrkräfte in Bezug auf Sprache und Inklusion zielt sowie deren forschende Haltung durch die eigenständige Bearbeitung einer Beobachtungsaufgabe weiterentwickeln will. Aufbau, Verortung, methodische Ausgestaltung und tatsächliche Durchführung des Seminars werden erläutert und kritisch reflektiert.
Due to the high concentration of people and infrastructures in European cities, the possible impacts of climate change are particularly high (cities' social, economic and technical vulnerabilities). Adaptation measures to reduce the sensitivity of a city to climate risks are therefore of particular importance. Nevertheless, it is also common to develop compact and dense urban areas to reduce urban sprawl. Urban infill development and sustainable spatial climate policies are thus in apparent conflict with each other. This article examines how German cities deal with the tensions between these two policy fields. Using six case studies, a new heuristic analysis method is applied. This study identifies three key governance aspects that are essential for promoting the joint implementation: instruments, organisation and interaction. Based on our case studies, we conclude that successful implementation can only be achieved through integrative governance including all three domains.
Language developers who design domain-specific languages or new language features need a way to make fast changes to language definitions. Those fast changes require immediate feedback. Also, it should be possible to parse the developed languages quickly to handle extensive sets of code.
Parsing expression grammars provides an easy to understand method for language definitions. Packrat parsing is a method to parse grammars of this kind, but this method is unable to handle left-recursion properly. Existing solutions either partially rewrite left-recursive rules and partly forbid them, or use complex extensions to packrat parsing that are hard to understand and cost-intensive. We investigated methods to make parsing as fast as possible, using easy to follow algorithms while not losing the ability to make fast changes to grammars.
We focused our efforts on two approaches.
One is to start from an existing technique for limited left-recursion rewriting and enhance it to work for general left-recursive grammars. The second approach is to design a grammar compilation process to find left-recursion before parsing, and in this way, reduce computational costs wherever possible and generate ready to use parser classes.
Rewriting parsing expression grammars is a task that, if done in a general way, unveils a large number of cases such that any rewriting algorithm surpasses the complexity of other left-recursive parsing algorithms. Lookahead operators introduce this complexity. However, most languages have only little portions that are left-recursive and in virtually all cases, have no indirect or hidden left-recursion. This means that the distinction of left-recursive parts of grammars from components that are non-left-recursive holds great improvement potential for existing parsers.
In this report, we list all the required steps for grammar rewriting to handle left-recursion, including grammar analysis, grammar rewriting itself, and syntax tree restructuring. Also, we describe the implementation of a parsing expression grammar framework in Squeak/Smalltalk and the possible interactions with the already existing parser Ohm/S. We quantitatively benchmarked this framework directing our focus on parsing time and the ability to use it in a live programming context. Compared with Ohm, we achieved massive parsing time improvements while preserving the ability to use our parser it as a live programming tool.
The work is essential because, for one, we outlined the difficulties and complexity that come with grammar rewriting. Also, we removed the existing limitations that came with left-recursion by eliminating them before parsing.
Die Reform des Gemeinsamen Europäischen Asylsystems (GEAS) ist eine der größten Herausforderungen und eine der drängendsten Aufgaben der EU und ihrer Mitgliedstaaten. Dabei stellt die Frage der „gerechten Lastenteilung“ in der Asyl- und Migrationspolitik den Zusammenhalt der EU auf eine Zerreißprobe. Seit den gescheiterten Verhandlungen über die GEAS-Reform 2016/2017 versuchen die Mitgliedstaaten, einen Ausgleich zwischen den Grundsätzen der Solidarität und Verantwortlichkeit zu finden, wie es Art. 80 AEUV für das GEAS vorgibt. Je nach Interessenlage verbirgt sich dahinter aber ein sehr unterschiedliches Verständnis.
Diese Arbeit untersucht die Reformbemühungen beim GEAS nach Vorlage der Kommissionsvorschläge im September 2020 und beleuchtet die divergierenden Interessenlagen der Mitgliedstaaten hinsichtlich Aufnahme und Verteilung von Geflüchteten. Ziel der Arbeit ist, eine Aussage über die Erfolgsaussichten einer Einigung über die Grundsätze der Solidarität und Verantwortung zu treffen. Dazu werden zunächst die Verpflichtungen im Asylrecht basierend auf internationalen Übereinkommen wie der Genfer Flüchtlingskonvention dargestellt. An-schließend werden GEAS und Dublin-System, das dem Ersteinreisestaat die Zuständigkeit für die Asylverfahren zuschreibt, und die Ursachen für sein Scheitern analysiert.
Diese Verantwortungsteilung, die zu einer überproportionalen Belastung der Mitgliedstaaten im Süden führt, ist Kristallisationspunkt für Konflikte, gegenseitigen Vorwürfe und Misstrau-en zwischen den Mitgliedstaaten. Infolge einer tatsächlichen Überlastung und teilweise selbst verschuldeten Unmöglichkeit, die GEAS-Verpflichtungen zu erfüllen, rufen die Südstaaten nach Unterstützung aus dem Norden und betreiben teilweise sogar eine Politik des Laissez-Passer. Durch teilweise katastrophale Zustände bei Verfahren, Unterbringung und Versorgung der Geflüchteten entstehen Rückführungshindernisse und Druck auf die Zielstaaten, mehr Solidarität zu leisten.
Ausgehend von diesem Befund wird der Bedeutungsgehalt des Solidaritätsprinzips in Art. 80 AEUV in normativer und deskriptiver Hinsicht untersucht. Normativ handelt es sich dabei um eine abstrakte Rechtspflicht zur gegenseitigen Unterstützung, deren Ausgestaltung im politischen Ermessen der Mitgliedstaaten liegt. Deskriptiv kann unter „Solidarität“ der Zweck verstanden werden, dass die Verwirklichung individueller Interessen einer kollektiven Anstrengung bedarf, die wiederum das Gemeinwohl fördert und somit im Interesse aller liegt. Dem folgend müssten alle Mitgliedstaaten ein Interesse an der Bewältigung der Herausforderungen der Migration nach Europa haben.
Die Interessen der Mitgliedstaten deuten aber auf etwas anderes hin. Die durch die Ankünfte von Schutzsuchenden aus dem Süden stark belasteten Mittelmeeranrainer wie Griechenland und Italien fordern eine Abkehr vom Dublin-System. Die migrationskritischen Visegrád-Staaten verweigern im Grunde jede Unterstützung bei der Aufnahme und berufen sich darauf, dass sie ihre rechtlichen Verpflichtungen erfüllen. Staaten, die lange Zeit eine liberale Migrationspolitik verfolgten und beliebte Zielländer waren wie Schweden, ringen nach der Migrationskrise 2015/2016 mit sich auf der Suche nach einem migrationspolitischen Kurs, der rechts-populistische Kräfte nicht noch weiter erstarken lässt. Auch die Hauptzielländer Deutschland und Frankreich versuchen den jeweiligen innenpolitischen Diskursen entsprechend, die Sekundärmigration zu verhindern und wollen auf unterschiedliche Weise die Außengrenzstaaten unterstützen, wobei Deutschland die Umverteilung aller unterstützt.
Die im September 2020 vorgelegten Vorschläge der Kommission versuchen, den unterschiedlichen Interessen Rechnung zu tragen. Durch die Schaffung eines Grenzverfahrens soll die Anzahl der in die EU einreisenden und zu verteilenden Geflüchteten reduziert werden. Durch Änderung der Dublin-Kriterien soll die Zuständigkeit der potentiellen Zielländer erweitert werden, um die Südländer zu entlasten und der Sekundärmigration entgegenzuwirken. Mit der gleichen Zielrichtung soll auf Grundlage eines neuen Solidaritätsmechanismus eine Umverteilung unbegleiteter Minderjähriger und aus Seenot Geretteter erfolgen. In Krisenzeiten soll daraus eine generelle Umverteilung aller Schutzsuchenden erwachsen, wobei Solidarität weiterhin auf verschiedene Art und Weise geleistet werden können soll.
Angesichts der Verhandlungen während der deutschen EU-Ratspräsidentschaft und des er-reichten Zwischenergebnisses besteht Skepsis, dass die Mitgliedstaaten sich bald auf eine GEAS-Reform einigen werden. Dazu liegen die Interessen der Mitgliedstaaten auch hinsichtlich der Solidarität zu weit auseinander. Zudem stellt sich die in Hinblick auf die europäische Integration und die Zukunft der EU besorgniserregende Frage, worin das im Interesse aller liegende Gemeinwohl in der Asylpolitik liegen soll, das die gemeinsame Kraftanstrengung zu einem individuellen Interesse jedes Einzelnen werden lässt. Denn anders als bei der Schaffung des Schengen-Raums als Raum ohne Binnengrenzen sind Wohlstandsgewinne von der Aufnahme Geflüchteter vorerst nicht zu erwarten.
In many biological and environmental applications spatially resolved sensing of molecular oxygen is desirable. A powerful tool for distributed measurements is optical time domain reflectometry (OTDR) which is often used in the field of telecommunications. We combine this technique with a novel optical oxygen sensor dye, triangular-[4] phenylene (TP), immobilized in a polymer matrix. The TP luminescence decay time is 86 ns. The short decay time of the sensor dye is suitable to achieve a spatial resolution of some meters. In this paper we present the development and characterization of a reflectometer in the UV range of the electromagnetic spectrum as well as optical oxygen sensing with different fiber arrangements.
Prognosen
(2012)
The shape of a defense-growth trade-off governs seasonal trait dynamics in natural phytoplankton
(2020)
Theory predicts that trade-offs, quantifying costs of functional trait adjustments, crucially affect community trait adaptation to altered environmental conditions, but empirical verification is scarce. We evaluated trait dynamics (antipredator defense, maximum growth rate, and phosphate affinity) of a lake phytoplankton community in a seasonally changing environment, using literature trait data and 21 years of species-resolved high-frequency biomass measurements. The trait data indicated a concave defense-growth trade-off, promoting fast-growing species with intermediate defense. With seasonally increasing grazing pressure, the community shifted toward higher defense levels at the cost of lower growth rates along the trade-off curve, while phosphate affinity explained some deviations from it. We discuss how low fitness differences of species, inferred from model simulations, in concert with stabilizing mechanisms, e.g., arising from further trait dimensions, may lead to the observed phytoplankton diversity. In conclusion, quantifying trade-offs is key for predictions of community trait adaptation and biodiversity under environmental change.
It is well-known that prey species often face trade-offs between defense against predation and competitiveness, enabling predator-mediated coexistence. However, we lack an understanding of how the large variety of different defense traits with different competition costs affects coexistence and population dynamics. Our study focusses on two general defense mechanisms, that is, pre-attack (e.g., camouflage) and post-attack defenses (e.g., weaponry) that act at different phases of the predator—prey interaction. We consider a food web model with one predator, two prey types and one resource. One prey type is undefended, while the other one is pre-or post-attack defended paying costs either by a higher half-saturation constant for resource uptake or a lower maximum growth rate. We show that post-attack defenses promote prey coexistence and stabilize the population dynamics more strongly than pre-attack defenses by interfering with the predator’s functional response: Because the predator spends time handling “noncrackable” prey, the undefended prey is indirectly
facilitated. A high half-saturation constant as defense costs promotes coexistence more and stabilizes the dynamics less than a low maximum growth rate. The former imposes high costs at low resource concentrations but allows for temporally high growth rates at predator-induced resource peaks preventing the extinction of the defended prey. We evaluate the effects of the different defense mechanisms and costs on coexistence under different enrichment levels in order to vary the importance of bottom-up and top-down control of the prey community.
Predation drives coexistence, evolution and population dynamics of species in food webs, and has strong impacts on related ecosystem functions (e.g. primary production). The effect of predation on these processes largely depends on the trade-offs between functional traits in the predator and prey community. Trade-offs between defence against predation and competitive ability, for example, allow for prey speciation and predator-mediated coexistence of prey species with different strategies (defended or competitive), which may stabilize the overall food web dynamics. While the importance of such trade-offs for coexistence is widely known, we lack an understanding and the empirical evidence of how the variety of differently shaped trade-offs at multiple trophic levels affect biodiversity, trait adaptation and biomass dynamics in food webs. Such mechanistic understanding is crucial for predictions and management decisions that aim to maintain biodiversity and the capability of communities to adapt to environmental change ensuring their persistence.
In this dissertation, after a general introduction to predator-prey interactions and tradeoffs, I first focus on trade-offs in the prey between qualitatively different types of defence (e.g. camouflage or escape behaviour) and their costs. I show that these different types lead to different patterns of predator-mediated coexistence and population dynamics, by using a simple predator-prey model. In a second step, I elaborate quantitative aspects of trade-offs and demonstrates that the shape of the trade-off curve in combination with trait-fitness relationships strongly affects competition among different prey types: Either specialized species with extreme trait combinations (undefended or completely defended) coexist, or a species with an intermediate defence level dominates. The developed theory on trade-off shapes and coexistence is kept general, allowing for applications apart from defence-competitiveness trade-offs. Thirdly, I tested the theory on trade-off shapes on a long-term field data set of phytoplankton from Lake Constance. The measured concave trade-off between defence and growth governs seasonal trait changes of phytoplankton in response to an altering grazing pressure by zooplankton, and affects the maintenance of trait variation in the community. In a fourth step, I analyse the interplay of different tradeoffs at multiple trophic levels with plankton data of Lake Constance and a corresponding tritrophic food web model. The results show that the trait and biomass dynamics of the different three trophic levels are interrelated in a trophic biomass-trait cascade, leading to unintuitive patterns of trait changes that are reversed in comparison to predictions from bitrophic systems. Finally, in the general discussion, I extract main ideas on trade-offs in multitrophic systems, develop a graphical theory on trade-off-based coexistence, discuss the interplay of intra- and interspecific trade-offs, and end with a management-oriented view on the results of the dissertation, describing how food webs may respond to future global changes, given their trade-offs.
Rezensiertes Werk: Anklam, Ewa: Wissen nach Augenmaß : militärische Beobachtung und Berichterstattung im Siebenjährigen Krieg / Ewa Anklam. - Münster : Lit-Verl., 2007. - 312 S. - (Herrschaft und soziale Systeme in der frühen Neuzeit ; 10) Zugl.: Braunschweig, Techn. Univ., Diss., 2006: Anklam, Ewa: "Wissen nach Augenmaaß" ISBN 978-3-8258-0585-2
When top sports performers fail or “choke” under pressure, everyone asks: why? Research has identified a number of conditions (e.g. an audience) that elicit choking and that moderate (e.g. trait-anxiety) pressure – performance relation. Furthermore, mediating processes have been investigated. For example, explicit monitoring theories link performance failure under psychological stress to an increase in attention paid to a skill and its step-by-step execution (Beilock & Carr, 2001). Many studies have provided support for these ideas. However, so far only overt performance measures have been investigated which do not allow more thorough analyses of processes or performance strategies. But also a theoretical framework has been missing, that could (a) explain the effects of explicit monitoring on skill execution and that (b) makes predictions as to what is being monitored during execution. Consequently in this study, the nodalpoint hypothesis of motor control (Hossner & Ehrlenspiel, 2006) was taken to predict movement changes on three levels of analysis at certain “nodalpoints” within the movement sequence. Performance in two different laboratory tasks was assessed with respect to overt performance (the observable result, for example accuracy in the target), covert performance (description of movement execution, for example the acceleration of body segements) and task exploitation (the utilization of task properties such as covariation). A fake competition (see Beilock & Carr, 2002) was used to invoke pressure. In study 1 a ball bouncing task in a virtual-reality set-up was chosen. Previous studies (de Rugy, Wei, Müller, & Sternad, 2003) have shown that learners are usually able to “passively” exploit the dynamical stability of the system. According to explicit monitoring theories, choking should be expected either if the task itself evokes an “active control” (Experiment 1) or if learners are provided with explicit instructions (Experiment 2). In both experiments, participants first went through a practice phase on day 1. On day 2, following the Baseline Test participants were divided into a High-Stress or No-Stress Group for the final Performance Test. The High-Stress Group entered a fake competition. Overt performance was measured by the Absolute Error (AE) of ball amplitudes from target height; covert performance was measured by Period Modulation between successive hits and task exploitation was measured by Acceleration (AC) at ball-racket impact and Covariation (COV) of impact parameters. To evoke active control in Exp. 1 (N=20), perturbations to the ball flight were introduced. In Exp. 2 (N=39) half of the participants received explicit skill-focused instructions during learning. For overt performance, results generally show an interaction between Stress Group and Test, with better performance (i. e. lower AE) for the High-Stress group in the final Performance Test. This effect is also independent of the Instructions that participants had received during learning (Exp. 2). Similar effects were found for COV but not for AC. In study 2 a visuomotor tracking task in which participants had to pursuit a target cross that was moving on an invisible curve. This curve consisted of 3 segments of 6 turning points sequentially ordered around the x-axis. Participants learned two short movement sequences which were then concatenated to form a single sequence. It was expected that under pressure, this sequence should “fall apart” at the point of concatenation. Overt Performance was assessed by the Root Mean Square Error between target and pursuit cross as well as the Absolute Error at the turning points, covert performance was measured by the Latency from target to pursuit turning and task exploitation was measured by the temporal covariation between successive intervals between turning points. Experiment 3 (intraindividual variation) as well as Experiment 4 (interindividual variation) show performance enhancement in the pressure situation on the overt level with matching results on covert and task exploitation level. Thus, contrary to previous studies, no choking under pressure was found in any of the experiments. This may be interpreted as a failure in the experimental manipulation. But certainly also important characteristics of the task are highlighted. Choking should occur in tasks where performers do not have the time to use action or thought control strategies, that are more relevant to their “self” and that are discrete in nature.
Under the influence of orientation towards European integration, Georgia has introduced a variety of new laws with the apparent aim to decentralize legislative and executive powers. This paper shows that the Georgian efforts of decentralization remain superficial, mainly because they are not backed by additional fiscal competences at the municipality level. Following an initial description of the pre-reform situation as of 2006 and based upon a detailed account of the structural changes since 2007, the author gives insight into the conflicts which arise from the lack of institutional congruency. Neither the extraordinary status of the capital Tbilisi nor the seeming autonomy of the Rebublic of Adjara are likely to sway the renegade territories of Abchasia and Ossetia towards a reintegration under Georgian centralized rule as it continues to exist today. Likewise, the success of the proposed and discussed fiscal equalization scheme depends on whether the President and his ruling party are willing to delegate powers to the subodinate jurisdictions.
Inhalt: Empirie: Anfänge der Strukturpolitik: der Aufbau des Europäischen Sozialfonds Beginn der Regionalpolitik und der Europäische Fonds für regionale Entwicklung Strukturförderung im ländlichen Raum – die Abteilung Ausrichtung des Agrarfonds Neue Probleme und neue Ansätze: Die 1980er Jahre Einheitliche Europäische Akte und grundlegende Reform der Strukturpolitik ab 1986 Zwischen den Reformen: Die 1990er Jahre Die EU-Strukturfonds heute Theorie: Risikoausgleich bei Migration und interregionalen Transfers Risikoausgleich in der Europäischen Union? – Eine empirische Untersuchung Spillover-Effekte als Problem – matching grants als Lösung? Das Problem der dritten Ebene: Verdrängung nationaler Zuschüsse durch EU-Mittel Externe Effekte durch Wanderung von Arbeitnehmern Der flypaper-Effekt als Besonderheit öffentlicher Zuschüsse "Dezentralisierte" Föderation
Die internationale Staatengemeinschaft steht Sezessionsbestrebungen zur Aufspaltung bestehender Staaten gewöhnlich ablehnend gegenüber. Gleichzeitig wendet sie in vielen Ländern Instrumente der Entwicklungspolitik an und greift so auch in den dortigen politischen Prozess ein. Untersucht wird, inwiefern Entwicklungspolitik so gestaltet werden kann, dass sie nicht, quasi als Nebenwirkung, einer Sezessionsbewegung zum Durchbruch verhilft. Betrachtet wird dabei neben der gezielten Förderung wirtschaftlichen Wachstums auch das Instrument der Dezentralisierung, das oft als Mittel zur „Beruhigung“ separatistischer Bestrebungen vorgeschlagen wird. Zuvor jedoch wird aufgewiesen, dass eine Politik, die Sezessionen verhindern will, zumindest in vielen Fällen auch moralphilosophisch schlüssig begründet werden kann. Den Abschluss der Arbeit bilden drei Fallstudien zu Sezessionen auf dem Gebiet der ehemaligen Sowjetunion.
Nested application conditions generalise the well-known negative application conditions and are important for several application domains. In this paper, we present Local Church-Rosser, Parallelism, Concurrency and Amalgamation Theorems for rules with nested application conditions in the framework of M-adhesive categories, where M-adhesive categories are slightly more general than weak adhesive high-level replacement categories. Most of the proofs are based on the corresponding statements for rules without application conditions and two shift lemmas stating that nested application conditions can be shifted over morphisms and rules.
Challenging Khmer citizenship : minorities, the state, and the international community in Cambodia
(2013)
The idea of a distinctly ‘liberal’ form of multiculturalism has emerged in the theory and practice of Western democracies and the international community has become actively engaged in its global dissemination via international norms and organizations. This thesis investigates the internationalization of minority rights, by exploring state-minority relations in Cambodia, in light of Will Kymlicka’s theory of multicultural citizenship. Based on extensive empirical research, the analysis explores the situation and aspirations of Cambodia’s ethnic Vietnamese, highland peoples, Muslim Cham, ethnic Chinese and Lao and the relationships between these groups and the state. All Cambodian regimes since independence have defined citizenship with reference to the ethnicity of the Khmer majority and have - often violently - enforced this conception through the assimilation of highland peoples and the Cham and the exclusion of ethnic Vietnamese and Chinese. Cambodia’s current constitution, too, defines citizenship ethnically. State-sponsored Khmerization systematically privileges members of the majority culture and marginalizes minority members politically, economically and socially. The thesis investigates various international initiatives aimed at promoting application of minority rights norms in Cambodia. It demonstrates that these initiatives have largely failed to accomplish a greater degree of compliance with international norms in practice. This failure can be explained by a number of factors, among them Cambodia’s neo-patrimonial political system, the geo-political fears of a ‘minoritized’ Khmer majority, the absence of effective regional security institutions, the lack of minority access to political decision-making, the significant differences between international and Cambodian conceptions of modern statehood and citizenship and the emergence of China as Cambodia’s most important bilateral donor and investor. Based on this analysis, the dissertation develops recommendations for a sequenced approach to minority rights promotion, with pragmatic, less ambitious shorter-term measures that work progressively towards achievement of international norms in the longer-term.
Das folgende Forschungsprojekt beschäftigt sich mit metakognitiven und motivationalen Fähigkeiten als Teilbereiche des selbstgesteuerten Lernens. Es untersucht den Nutzen und die Grenzen von Lerntagebüchern, die zugeschnitten wurden auf Grundschülerinnen und Grundschüler mit Migrationshintergrund. Das Ziel der Studie war es herauszufinden, ob und wie selbststeurungsbezogene Lernprozesse durch den Einsatz von Lerntagebüchern gemessen und verändert werden können. Hierzu führten 28 Grundschülerinnen und Grundschüler 14 Wochen lang während des Unterrichts ein halbstandardisiertes Lerntagebuch in Anlehnung an Wohland/Spinath (2004). Zur Messung von Veränderungen in metakognitiven und motivationalen Fähigkeiten füllten 43 Schülerinnen und Schüler zweier Experimentalgruppen und einer Kontrollgruppe vor und nach der Lerntagebuch-Intervention standardisierte Fragebögen aus. Weiterhin wurden die 28 Lerntagebücher der Experimentalgruppen inhalts- und prozessanalytisch ausgewertet. Außerdem wurden Interviews mit den Lehrkräften über ihre Unterrichtspraxis geführt und einige Schülerinnen und Schüler zu ihrer Wahrnehmung der Lerntagebucharbeit befragt. Die Ergebnisse der Analyse der Lerntagebuchdaten zeigen, dass die 28 Schülerinnen und Schüler mit Migrationshintergrund erfolgreich ihren Lernprozess bei der Bearbeitung einer Aufgabe verbalisierten. Sie haben weiterhin erfolgreich Vorhersagen über ihre Vorgehensweisen zur Lösung einer Aufgabe getroffen. Die Lerntagebücher unterstützten sie darin, ihre metakognitiven Erfahrungen (Efklides/Petkaki 2005) zu kalibrieren (Desoete/Roeyers 2006). Den Lernenden ist es gelungen, ihre Repräsentationen über das Lösen einer Aufgabe aufeinander (fein-) abzustimmen, während sie daran arbeiteten. Mit Hilfe von Zeitreihenanalysen konnte gezeigt werden, dass die Schülerinnen und Schüler die Fragen im Lerntagebuch gegen Ende der Intervention oberflächlicher beantworteten und die Lerntagebücher tendenziell weniger häufig ausgefüllt wurden (negative Trends). Eine Erklärung für die geringere Antworthäufigkeit, die zu negativen Verlaufskurven über die Zeit führten, könnte sein, dass die Instruktionsdichte durch den Mix an offenen und geschlossenen Fragen im Lerntagebuch zu hoch war. Die Lernenden haben sich möglicherweise so an die Fragen bzw. Antwortformate gewöhnt, dass die Motivation, in das Lerntagebuch zu schreiben, geringer wurde.
The central gas in half of all galaxy clusters shows short cooling times. Assuming unimpeded cooling, this should lead to high star formation and mass cooling rates, which are not observed. Instead, it is believed that condensing gas is accreted by the central black hole that powers an active galactic nuclei jet, which heats the cluster. The detailed heating mechanism remains uncertain. A promising mechanism invokes cosmic ray protons that scatter on self-generated magnetic fluctuations, i.e. Alfvén waves. Continuous damping of Alfvén waves provides heat to the intracluster medium. Previous work has found steady state solutions for a large sample of clusters where cooling is balanced by Alfvénic wave heating. To verify modeling assumptions, we set out to study cosmic ray injection in three-dimensional magnetohydrodynamical simulations of jet feedback in an idealized cluster with the moving-mesh code arepo. We analyze the interaction of jet-inflated bubbles with the turbulent magnetized intracluster medium.
Furthermore, jet dynamics and heating are closely linked to the largely unconstrained jet composition. Interactions of electrons with photons of the cosmic microwave background result in observational signatures that depend on the bubble content. Those recent observations provided evidence for underdense bubbles with a relativistic filling while adopting simplifying modeling assumptions for the bubbles. By reproducing the observations with our simulations, we confirm the validity of their modeling assumptions and as such, confirm the important finding of low-(momentum) density jets.
In addition, the velocity and magnetic field structure of the intracluster medium have profound consequences for bubble evolution and heating processes. As velocity and magnetic fields are physically coupled, we demonstrate that numerical simulations can help link and thereby constrain their respective observables. Finally, we implement the currently preferred accretion model, cold accretion, into the moving-mesh code arepo and study feedback by light jets in a radiatively cooling magnetized cluster. While self-regulation is attained independently of accretion model, jet density and feedback efficiencies, we find that in order to reproduce observed cold gas morphology light jets are preferred.
Forum Logopädie
(2023)
Recently, C K-edge Near Edge X-ray Absorption Fine Structure (NEXAFS) spectra of graphite (HOPG) surfaces have been measured for the pristine material, and for HOPG treated with either bromine or krypton plasmas (Lippitz et al., Surf. Sci., 2013, 611, L1). Changes of the NEXAFS spectra characteristic for physical (krypton) and/or chemical/physical modifications of the surface (bromine) upon plasma treatment were observed. Their molecular origin, however, remained elusive. In this work we study by density functional theory, the effects of selected point and line defects as well as chemical modifications on NEXAFS carbon K-edge spectra of single graphene layers. For Br-treated surfaces, also Br 3d X-ray Photoelectron Spectra (XPS) are simulated by a cluster approach, to identify possible chemical modifications. We observe that some of the defects related to plasma treatment lead to characteristic changes of NEXAFS spectra, similar to those in experiment. Theory provides possible microscopic origins for these changes.
In Near Edge X-Ray Absorption Fine Structure (NEXAFS) spectroscopy X-Ray photons are used to excite tightly bound core electrons to low-lying unoccupied orbitals of the system. This technique offers insight into the electronic structure of the system as well as useful structural information. In this work, we apply NEXAFS to two kinds of imidazolium based ionic liquids ([CnC1im]+[NTf2]- and [C4C1im]+[I]-). A combination of measurements and quantum chemical calculations of C K and N K NEXAFS resonances is presented. The simulations, based on the transition potential density functional theory method (TP-DFT), reproduce all characteristic features observed by the experiment. Furthermore, a detailed assignment of resonance features to excitation centers (carbon or nitrogen atoms) leads to a consistent interpretation of the spectra.
Die vorgelegte Dissertation präsentiert wissenschaftliche Ergebnisse, die in der Zeit vom Dezember 2012 bis August 2016, erarbeitet wurden. Der zentrale Inhalt der Arbeit ist die Simulation von Röntgenabsorptionsprozessen von verschiedenen Systemen in kondensierter Phase. Genauer gesagt, werden Nahkantenabsorptions- (NEXAFS) sowie Röntgenphotoelektronenspektren (XPS) berechnet. In beiden Fällen wird ein Röntgenphoton von einem molekularen System absorbiert. Aufgrund der hohen Photonenenergie wird ein stark gebundenes kernnahes Elektron angeregt. Bei der XPS gelangt dieses mit einer zu messenden kinetischen Energie in Kontinuumszustände. In Abhängigkeit der eingestrahlten Photonenenergie und der kinetischen Energie des austreten Elektrons, kann die Bindungsenergie berechnet werden, welche die zentrale Größe der XPS ist. Im Falle der NEXAFS-Spektroskopie wird das kernnahe Elektron in unbesetzte gebundene Zustände angeregt. Die zentrale Größe ist die Absorption als Funktion der eingestrahlten Photonenenergie. Das erste Kapitel meiner Arbeit erörtert detailliert die experimentellen Methoden sowie die daraus gewonnenen charakteristischen Größen.
Die experimentellen Spektren zeigen oft viele Resonanzen, deren Interpretation aufgrund fehlender Referenzmaterialien schwierig ist. In solchen Fällen bietet es sich an, die Spektren mittels quantenchemischer Methoden zu simulieren. Der dafür erforderliche mathematisch-physikalische Methodenkatalog wird im zweiten Kapitel der Arbeit erörtert.
Das erste von mir untersuchte System ist Graphen. In experimentellen Arbeiten wurde die Oberfläche mittels Bromplasma modifiziert. Die im Anschluss gemessenen NEXAFS-Spektren unterscheiden sich maßgeblich von den Spektren der unbehandelten Oberfläche. Mithilfe periodischer DFT-Rechnungen wurden verschiedene Gitterdefekte sowie bromierte Systeme untersucht und die NEXAFS-Spektren simuliert. Mittels der Simulationen können die Beiträge verschiedener Anregungszentren analysiert werden. Die Berechnungen erlauben den Schluss, dass Gitterdefekte maßgeblich für die entstandenen Veränderungen verantwortlich sind.
Polyvinylalkohol (PVA) wurde als zweites System behandelt. Hierbei sollte untersucht werden, wie groß der Einfluss der Molekularbewegung auf die Verbreiterung der Peaks im XP-Spektrum ist. Des Weiteren wurde untersucht, wie groß der Einfluss von intermolekularen Wechselwirkungen auf die Peakpositionen und Peakverbreiterung ist. Für die Berechnung dieses Systems wurde eine Kombination aus molekulardynamischen und quantenchemischen Methoden verwendet. Als Strukturen dienten Oligomermodelle, die unter dem Einfluss eines (ab initio) Potentials propagiert wurden. Entlang der erstellten Trajektorie wurden Schnappschüsse der Geometrien extrahiert und für die Berechnung der XP-Spektren verwendet. Die Spektren werden bereits mithilfe klassischer Molekulardynamik sehr gut reproduziert. Die erhaltenen Peakbreiten sind verglichen mit dem Experiment allerdings zu klein. Die Hauptursache der Peakverbreiterung ist die Molekularbewegung. Intermolekulare Wechselwirkungen verschieben die Peakpositionen um 0.6 eV zu kleineren Anregungsenergien.
Im dritten Teil der Arbeit stehen die NEXAFS-Spektren von ionischen Flüssigkeiten (ILs) im Fokus. Die experimentell gefundenen Spektren zeigen eine komplexe Struktur mit vielen Resonanzen. In der Arbeit wurden zwei ILs untersucht. Als Geometrien verwenden wir Clustermodelle, die aus experimentellen Kristallstrukturen extrahiert wurden. Die berechneten Spektren erlauben es, die Resonanzen den Anregungszentren zuzuordnen. Außerdem kann eine erstmals gemessene Doppelresonanz simuliert und erklärt werden. Insgesamt kann die Interpretation der Spektren mithilfe der Simulation signifikant erweitert werden.
In allen Systemen wurde zur Berechnung des NEXAFS-Spektrums eine auf Dichtefunktionaltheorie basierende Methode verwendet (die sogenannte Transition-Potential Methode). Gängige wellenfunktionsbasierte Methoden, wie die Konfigurationswechselwirkung mit Einfachanregungen (CIS), zeigen eine starke Blauverschiebung, wenn als Referenz eine Hartree-Fock Slaterdeterminante verwendet wird. Wir zeigen, dass die Verwendung von kernnah-angeregten Determinanten sowohl das resultierende Spektrum als auch die Anregungsenergien deutlich verbessert. Des Weiteren werden auch Referenzen aus Dichtefunktionalrechnungen getestet. Zusätzlich werden auch Referenzen mit gebrochenen Besetzungszahlen für kernnahe Elektronen verwendet. In der Arbeit werden die Resultate der verschiedenen Referenzen miteinander verglichen. Es zeigt sich, dass Referenzen mit gebrochenen Besetzungszahlen das Spektrum nicht weiter verbessern. Der Einfluss der verwendeten Elektronenstrukturmethode ist eher gering.
Intelligence, as well as working memory and attention, affect the acquisition of mathematical competencies. This paper aimed to examine the influence of working memory and attention when taking different mathematical skills into account as a function of children’s intellectual ability. Overall, intelligence, working memory, attention and numerical skills were assessed twice in 1868 German pre-school children (t1, t2) and again at 2nd grade (t3). We defined three intellectual ability groups based on the results of intellectual assessment at t1 and t2. Group comparisons revealed significant differences between the three intellectual ability groups. Over time, children with low intellectual ability showed the lowest achievement in domain-general and numerical and mathematical skills compared to children of average intellectual ability. The highest achievement on the aforementioned variables was found for children of high intellectual ability. Additionally, path modelling revealed that, depending on the intellectual ability, different models of varying complexity could be generated. These models differed with regard to the relevance of the predictors (t2) and the future mathematical skills (t3). Causes and conclusions of these findings are discussed.
Im ersten Teil werden die vorliegenden Untersuchungen zur Kinderform der Picture- Frustration Study (P-F S) diskutiert. Die vorgelegten Befunde stützen einander wenig. Neben methodischen Mängeln der Untersuchungen lassen gewisse Besonderheiten des Tests wie der fehlende Geschlechterunterschied, das (unbekannte) Niveau der Selbstdarstellung und der (unberücksichtigte) Anregungsgehalt der Bildvorlagen auf gültigkeitsmindernde Fehlervarianzquellen schließen. Im zweiten Teil wird eine Untersuchung beschrieben, in der die Testergebnisse von 28 neunjährigen Heimkindern beiderlei Geschlechts mit der Beurteilung der Aggressivität durch die Erzieher und mit den Aggressionen im freien Spiel verglichen wurden. Der Rosenzweig-Faktor E und, in gegenläufiger Richtung, die Impunitivität zeigten sehr enge Beziehungen zu den beiden Kriterien. Eine Kontrolle des Niveaus der Selbstdarstellung und des Anregungsgehaltes der Bildvorlagen erwies sich als nicht notwendig. Es ergab sich auch ein Erklärungsansatz in bezug auf die fehlende Geschlechterabhängigkeit der Aggressivitätsvariablen der P-F S.
Inhalt der Arbeit ist es, einen Überblick über die historische Entwicklung der öffentlich-rechtlichen Gefährdungshaftung in Deutschland vom 18. Jahrhundert bis heute zu geben sowie ihre praktische Bedeutung zu analysieren. Dabei wird zwischen den unterschiedlichen Gesetzgebungen, Rechtsprechungen und den theoretischen Lösungsansätzen der öffentlich-rechtlichen Gefährdungshaftung unterschieden und insbesondere letzteres problematisiert. Ferner wird auf das Verhältnis zu den grundrechtlichen Schutzpflichten, den sozialen Risikotatbeständen, dem sozialrechtlichen Herstellungsanspruch und den Tumultschäden eingegangen.
Die vorliegende Masterarbeit untersucht die Rolle des „Neuen Plan“ von Reichswirtschaftsminister Hjalmar Schacht in der nationalsozialistischen Außenwirtschaftspolitik in fünf konsekutiven Teilschritten. Erstens wird ein kurzer Überblick über den derzeitigen Forschungsstand zum „Neuen Plan“ geliefert und auf die Quellenlage zur Bearbeitung der Fragestellung eingegangen. Um zweitens eine Aussage über das Verhältnis zwischen dem „Neuen Plan“ und den außenwirtschaftspolitischen Leitlinien des Nationalsozialismus treffen zu können, werden diese für die NSDAP als Partei sowie für Hitler als unangefochtene politische Führungsfigur auf Basis geeigneter Primärquellen herausgearbeitet. Drittens wird anhand relevanter Wirtschaftsentwicklungen auf die Ausgangslage der außenwirtschaftspolitischen Krisensituation ab Mitte 1934 eingegangen, die durch den „Neuen Plan“ im Sinne des NS-Regimes gelöst werden sollte. Viertens wird im Hauptteil der Forschungsarbeit der „Neue Plan“ in mehreren Teilschritten erklärt. Zunächst wird hierfür auf die politischen Entwicklungen eingegangen, an welche der „Neue Plan“ anknüpfen konnte sowie auf die verschiedenen Bestandteile seiner Funktionsweise, die auf dieser Grundlage reformiert, erweitert oder neu geschaffen wurden. Inwieweit diese Maßnahmen mit den außenwirtschaftspolitischen Leitlinien der NS-Ideologie kompatibel waren, wird im Nachgang analysiert und kritisch eingeordnet. Die Effektivität des „Neuen Plans“ wird zudem in Bezug auf fünf Themenfelder anhand wirtschaftlicher Kennzahlen des Statistischen Jahrbuchs des Deutschen Reiches quellenbasiert beurteilt. Diese Analyse umfasst den Zeitraum vom Beginn des „Neuen Plans“ im Jahr 1934 bis zur Entmachtung Schachts als Reichswirtschaftsminister zum Jahresende 1937.
Dieser Beitrag diskutiert die Konzeption eines Software-Projektpraktikums im Bereich E-Learning, welches Lehramts- und Fachstudierenden der Informatik ermöglicht, voneinander zu profitieren und praxisrelevante Ergebnisse generiert. Vorbereitungen, Organisation und Durchführung werden vorgestellt und diskutiert. Den Abschluss bildet ein Ausblick auf die Fortführung des Konzepts und den Ausbau des Forschungsgebietes.
Übungsbuch zur Stochastik
(2023)
Dieses Buch stellt Übungen zu den Grundbegriffen und Grundsätzen der Stochastik und ihre Lösungen zur Verfügung. So wie man Tonleitern in der Musik trainiert, so berechnet man Übungsaufgaben in der Mathematik. In diesem Sinne soll dieses Übungsbuch vor allem als Vorlage dienen für das eigenständige, eigenverantwortliche Lernen und Üben.
Die Schönheit und Einzigartigkeit der Wahrscheinlichkeitstheorie besteht darin, dass sie eine Vielzahl von realen Phänomenen modellieren kann. Daher findet man hier Aufgaben mit Verbindungen zur Geometrie, zu Glücksspielen, zur Versicherungsmathematik, zur Demographie und vielen anderen Themen.
Despite its many challenges and limitations the concept of in situ upgrading of informal settlements has become one of the most favoured approaches to the housing crisis in the ‘Global South’. Due to its inherent principles of incremental in situ development, prevention of relocations, protection of local livelihoods and democratic participation and cooperation, this approach is often perceived to be more sustainable than other housing approaches that often rely on quantitative housing delivery and top down planning methodologies. While this study does not question the benefits of the in situ upgrading approach, it seeks to identify problems of its practical implementation within a specific national and local context. The study discusses the origin and importance of this approach on the basis of a review of international housing policy development and analyses the broader political and social context of the incorporation of this approach into South African housing policy. It further uses insights from a recent case study in Cape Town to determine complications and conflicts that can arise when applying in situ upgrading of informal settlements in a complex local context. On that basis benefits and limitations of the in situ upgrading approach are specified and prerequisites for its successful implementation formulated.