Refine
Has Fulltext
- yes (108) (remove)
Year of publication
- 2015 (108) (remove)
Document Type
- Doctoral Thesis (108) (remove)
Is part of the Bibliography
- yes (108)
Keywords
- Klimawandel (3)
- climate change (3)
- Arbeitsgedächtnis (2)
- Aspekt (2)
- Bakteriophagen (2)
- Erosion (2)
- Germany (2)
- Geschäftsprozessmanagement (2)
- Modellierung (2)
- Nanopartikel (2)
Institute
- Institut für Geowissenschaften (23)
- Institut für Physik und Astronomie (15)
- Institut für Biochemie und Biologie (11)
- Institut für Ernährungswissenschaft (7)
- Sozialwissenschaften (7)
- Institut für Chemie (6)
- Institut für Umweltwissenschaften und Geographie (6)
- Department Linguistik (4)
- Institut für Mathematik (4)
- Department Erziehungswissenschaft (3)
We study segregation of the subducted oceanic crust (OC) at the core mantle boundary and its ability to accumulate and form large thermochemical piles (such as the seismically observed Large Low Shear Velocity Provinces - LLSVPs). Our high-resolution numerical simulations suggest that the longevity of LLSVPs for up to three billion years, and possibly longer, can be ensured by a balance in the rate of segregation of high-density OC-material to the CMB, and the rate of its entrainment away from the CMB by mantle upwellings.
For a range of parameters tested in this study, a large-scale compositional anomaly forms at the CMB, similar in shape and size to the LLSVPs. Neutrally buoyant thermochemical piles formed by mechanical stirring - where thermally induced negative density anomaly is balanced by the presence of a fraction of dense anomalous material - best resemble the geometry of LLSVPs. Such neutrally buoyant piles tend to emerge and survive for at least 3Gyr in simulations with quite different parameters. We conclude that for a plausible range of values of density anomaly of OC material in the lower mantle - it is likely that it segregates to the CMB, gets mechanically mixed with the ambient material, and forms neutrally buoyant large scale compositional anomalies similar in shape to the LLSVPs.
We have developed an efficient FEM code with dynamically adaptive time and space resolution, and marker-in-cell methodology. This enabled us to model thermochemical mantle convection at realistically high convective vigor, strong thermally induced viscosity variations, and long term evolution of compositional fields.
In this thesis we study reciprocal classes of Markov chains. Given a continuous time Markov chain on a countable state space, acting as reference dynamics, the associated reciprocal class is the set of all probability measures on path space that can be written as a mixture of its bridges. These processes possess a conditional independence property that generalizes the Markov property, and evolved from an idea of Schrödinger, who wanted to obtain a probabilistic interpretation of quantum mechanics.
Associated to a reciprocal class is a set of reciprocal characteristics, which are space-time functions that determine the reciprocal class. We compute explicitly these characteristics, and divide them into two main families: arc characteristics and cycle characteristics. As a byproduct, we obtain an explicit criterion to check when two different Markov chains share their bridges.
Starting from the characteristics we offer two different descriptions of the reciprocal class, including its non-Markov probabilities.
The first one is based on a pathwise approach and the second one on short time asymptotic. With the first approach one produces a family of functional equations whose only solutions are precisely the elements of the reciprocal class. These equations are integration by parts on path space associated with derivative operators which perturb the paths by mean of the addition of random loops. Several geometrical tools are employed to construct such formulas. The problem of obtaining sharp characterizations is also considered, showing some interesting connections with discrete geometry. Examples of such formulas are given in the framework of counting processes and random walks on Abelian groups, where the set of loops has a group structure.
In addition to this global description, we propose a second approach by looking at the short time behavior of a reciprocal process. In the same way as the Markov property and short time expansions of transition probabilities characterize Markov chains, we show that a reciprocal class is characterized by imposing the reciprocal property and two families of short time expansions for the bridges. Such local approach is suitable to study reciprocal processes on general countable graphs. As application of our characterization, we considered several interesting graphs, such as lattices, planar
graphs, the complete graph, and the hypercube.
Finally, we obtain some first results about concentration of measure implied by lower bounds on the reciprocal characteristics.
Ziel dieser Arbeit war die Synthese und Charakterisierung von neuartigen fluoreszierenden Copolymeren zur Analytdetektion in wässrigen Systemen. Das Detektionssystem sollte ein einfaches Schalten der Fluoreszenz bei Analytbindung „Aus“ bzw. Verdrängung „An“ ermöglichen. Dafür wurde die Synthese eines funktionalisierten Monomers so geplant, dass sich Fluorophor und Analyt innerhalb derselben Monomereinheit in direkter Nachbarschaft zueinander befinden. So sollten bei Erkennung des Analyten durch eine mit einem Fluoreszenzlöscher funktionalisierte Erkennungsstruktur Fluorophor und Löscher in einen vorgegebenen Abstand zueinander gezwungen und die Fluoreszenz des Fluorophors effizient gelöscht werden. Bei anschließender Verdrängung der Erkennungseinheit durch einen stärker bindenden Analyten sollte die Fluoreszenz wieder „angeschaltet“ werden. Eine weitere Zielstellung für das Detektionssystem war eine hohe Löslichkeit und Fluoreszenzintensität in Wasser. Da die Anwendung solcher Sensoren besonders in der Medizin und Biologie, z.B. für Schnellerkennungstest von Pathogenen, von Interesse ist, ist die Kompatibilität mit wässrigen Medien essentiell. Die funktionalisierten Monomere wurden frei radikalisch mit N Vinyl-pyrrolidon bzw. N Vinyl¬caprolactam zu wasserlöslichen, fluoreszierenden Copolymeren umgesetzt. In den N-Vinyl¬pyrrolidon-Polymeren (PNVP) wurde RhodaminB, in den thermoresponsiven N Vinyl¬caprolactam-Polymeren (PNVCL) ein Naphthalsäureimid als Fluorophor verwendet. Während Rhodamine eine hohe Fluoreszenzintensität, gute Quantenausbeuten und hohen Extinktionskoeffizienten in Wasser zeigen, sind Naphthalsäure¬imide umgebungssensitive Chromophore, die bei Änderung ihrer Lösungsmittelumgebung, wie z.B. beim Kollaps eines thermoresponsiven Polymers in Wasser, ihre Fluoreszenzintensität und Quantenausbeute drastisch ändern können. Der Vorteil der hier verwendeten Strategie der Monomersynthese liegt darin, dass bei jeder spezifischen Analytdetektion durch eine Erkennungseinheit die Fluoreszenz effizient gelöscht bzw. bei Verdrängung durch einen stärker bindenden Analyten wieder „angeschaltet“ wird. Dieses Prinzip wird bereits vielfach in der Biologie in sogenannten „Molecular Beacons“ ausgenutzt, wobei ein Fluorophor und ein Löscher durch spezifische DNA Basenpaarung in einen vorgegebenen Abstand zueinander gezwungen werden und so ein „Schalten“ der Fluoreszenz ermöglichen. Aufgrund der vorgegebenen Struktur der DNA Basensequenzen ist es jedoch nicht direkt auf andere Erkennungsreaktionen übertragbar. Daher wurde ein Modellsystem entwickelt, welches die Möglichkeit bietet Analyt, Erkennungseinheit und Signalgeber variabel, je nach Anforderungen des Systems, auszutauschen. So soll es möglich sein, den Sensor a priori für jede Erkennungs¬reaktion zu verwenden. Als Modell Bindungs¬paare wurden ß Cyclodextrin/Adamantan und Con¬cana¬valinA/Mannose ausgewählt. Adamantan bzw. Mannose wurde als Analyt zusammen mit dem Fluorophor in das Polymer eingebunden. ß Cyclo¬dextrin (ß CD) bzw. ConcanavalinA (ConA) wurde als Erkennungsstruktur an einem Fluoreszenzlöscher immobilisiert. Polymer-basierte Fluoreszenzsensoren sind in der Fachliteratur gut dokumentiert. In der Regel sind Signalgeber und Analyt jedoch statistisch im Polymer verteilt, da sie sich entweder in unterschiedlichen Monomereinheiten befinden oder die Funktionalisierung durch eine polymeranaloge Umsetzung erfolgt. Der gewählte Ansatz Fluorophor und Analyt innerhalb derselben Monomereinheit einzubinden, soll bei jeder Erkennungsreaktion des Analyten zu einer Änderung der Signalintensität des Fluorophors führen. Eine hohe Signalintensität bei Analytdetektion ist wünschenswert, insbesondere für Erkennungsreaktionen, die mit möglichst geringem apparativem Aufwand, am besten mit dem bloßen Auge zu verfolgen sein sollen. Des Weiteren ist es möglich den Fluorophorgehalt im Polymer genau einzustellen und so Selbstlöschung zu vermeiden. Die synthetisierten Polymere haben einen Fluorophorgehalt von 0,01 mol% bis 0,5 mol%. Für die RhodaminB haltigen Polymere zeigte sich, dass ein Fluorophorgehalt unterhalb 0,1 mol% im Polymer die höchsten Ausbeuten, Molmassen und Quantenausbeuten liefert. Für die Naphthalsäureimid haltigen Polymere hingegen wurden auch für einen Fluorophorgehalt von bis zu 1 mol% hohe Ausbeuten und Molmassen erreicht. Die Naphthalsäureimid haltigen Polymere haben jedoch in wässriger Lösungsmittelumgebung nur geringe Quantenausbeuten. Als Fluoreszenzlöscher wurden Goldnanopartikel synthetisiert, die mit den entsprechenden Erkennungsstrukturen (ß-CD oder ConA) für den verwendeten Analyten funktionalisiert wurden. Goldnanopartikel als Löscher bieten den Vorteil, dass ihre Dispergierbarkeit in einem Lösemittel durch Funktionalisierung ihrer Hülle gezielt gesteuert werden kann. Durch die hohe Affinität von Goldnanopartikeln zu Thiolen und Aminen konnten sie mit Hilfe einfacher Syntheseschritte mit Thio ß CD Derivaten bzw. ConA funktionalisiert werden. In der hier vorgelegten Arbeit sollte ein Modellsystem für einen solches fluoreszenz-basiertes Detektionssystem in Wasser entwickelt werden. Nachfolgend werden die zu erfüllenden strukturellen Voraussetzungen für die Synthese eines solchen Sensors nochmals zusammengefasst:
1. Verwendung eines Fluorophors, der eine hohe Signalintensität zeigt.
2. Analyt bzw. Erkennungseinheit soll sich im Abstand von wenigen Nanometern zum Signalgeber befinden, um bei jeder Detektionsreaktion die Signalintensität des Signalgebers beeinflussen zu können.
3. Die Detektionseinheit benötigt eine funktionelle Gruppe zur Immobilisierung. Immobilisierung kann z.B. durch Einbindung in ein Polymer erfolgen.
4. Der Fluorophor soll bei Änderung seiner lokalen Umgebung, durch Binden eines Löschers oder Änderung seiner Lösemittelumgebung seine Fluoreszenzeigenschaften drastisch ändern.
5. Die Reaktion sollte schnell und mit möglichst geringem apparativem Aufwand, am besten mit bloßem Auge zu verfolgen sein.
Für das ß-CD/Adamantan Modellsystem wurde ein Fluoreszenz Aus/An Sensor entwickelt, der bei Binden ß CD funktionalisierter Goldnanopartikel an das polymergebundene Adamantan die Fluoreszenz des RhodaminB Fluorophors effizient löscht und bei Verdrängung der Goldnanopartikel wieder zurück gewinnt. Dies konnte auch mit bloßem Auge verfolgt werden.
Für die Naphthalsäureimid Monomere, die mit NVCL copolymerisiert wurden, wurde abhängig von der lokalen Umgebung des Fluorophors eine unterschiedliche Verstärkung der Fluoreszenzintensität bei Überschreiten des Trübungspunktes des Polymers gefunden. Dabei zeigte sich, dass die Einführung eines Abstandshalters zwischen Polymerrückgrat und Fluorophor zu einer großen Fluoreszenz¬verstärkung führt, während sich ohne Abstandshalter die Fluoreszenzintensität bei Über¬schreiten des Trübungspunktes kaum ändert.
Das Schulbuch ist ein etablierter und bedeutender Bestandteil des Mathematikunterrichts. Lehrer nutzen es, um ihren Unterricht vorzubereiten und/oder zu gestalten; Schüler, um in selbigem zu lernen und zu bestehen, vielleicht sogar aus eigenem Interesse; Eltern, um sich darüber zu informieren, was ihr Kind eigentlich können soll und wie sie ihm gegebenenfalls helfen können. Darüber hinaus ist das Schulbuch ein markantes gesellschaftliches Produkt, dessen Zweck es ist, das Unterrichtsgeschehen zu steuern und zu beeinflussen. Damit ist es auch ein Anzeiger dafür, was und wie im Mathematikunterricht gelehrt werden sollte und wird. Die Lehrtexte als zentrale Bestandteile von Schulbüchern verweisen in diesem Zusammenhang insbesondere auf die Phasen der Einführung neuen Lernstoffs. Daraus legitimiert sich übergreifend die Fragestellung, was und wie (gut) Mathematikschulbuchlehrtexte lehren bzw. was und wie (gut) adressierte Schüler aus ihnen (selbstständig) lernen, d.h. Wissen erwerben können.
Angesichts der komplexen und vielfältigen Bedeutung von Schulbuchlehrtexten verwundert es, dass die mathematikdidaktische Forschung bislang wenig Interesse an ihnen zeigt: Es fehlen sowohl eine theoretische Konzeption der Größe ‚Lehrpotential eines schulmathematischen Lehrtextes‘ als auch ein analytisches Verfahren, um das anhand eines Mathematikschulbuchlehrtextes Verstehbare und Lernbare zu ermitteln. Mit der vorliegenden Arbeit wird sowohl in theoretisch-methodologischer als auch in empirischer Hinsicht der Versuch unternommen, diesen Defiziten zu begegnen. Dabei wird das ‚Lehrpotential eines Mathematikschulbuchlehrtextes‘ auf der Grundlage der kognitionspsychologischen Schematheorie und unter Einbeziehung textlinguistischer Ansätze als eine textimmanente und analytisch zugängliche Größe konzipiert. Anschließend wird das Lehrpotential von fünf Lehrtexten ausgewählter aktueller Schulbücher der Jahrgangsstufen 6 und 7 zu den Inhaltsbereichen ‚Brüche‘ und ‚lineare Funktionen‘ analysiert. Es zeigt sich, dass die untersuchten Lehrtexte aus deutschen Schulbüchern für Schüler sehr schwer verständlich sind, d.h. es ist kompliziert, einigen Teiltexten im Rahmen des Gesamttextes einen Sinn abzugewinnen. Die Lehrtexte sind insbesondere dann kaum sinnhaft lesbar, wenn ein Schüler versucht, die mitgeteilten Sachverhalte zu verstehen, d.h. Antworten auf die Fragen zu erhalten, warum ein mathematischer Sachverhalt gerade so und nicht anders ist, wozu ein neuer Sachverhalt/Begriff gebraucht wird, wie das Neue mit bereits Bekanntem zusammenhängt usw. Deutlich zugänglicher und sinnhafter erscheinen die Mathematikschulbuchlehrtexte hingegen unter der Annahme, dass ihre zentrale Botschaft in der Mitteilung besteht, welche Aufgabenstellungen in der jeweiligen Lehreinheit vorkommen und wie man sie bearbeitet. Demnach können Schüler anhand dieser Lehrtexte im Wesentlichen lernen, wie sie mit mathematischen Zeichen, die für sie kaum etwas bezeichnen, umgehen sollen. Die hier vorgelegten Analyseergebnisse gewinnen in einem soziologischen Kontext an Tragweite und Brisanz. So lässt sich aus ihnen u.a. die These ableiten, dass die analysierten Lehrtexte keine ‚unglücklichen‘ Einzelfälle sind, sondern dass die ‚Aufgabenorientierung in einem mathematischen Gewand‘ ein Charakteristikum typischer (deutscher) Mathematikschulbuchlehrtexte und – noch grundsätzlicher – einen Wesenszug typischer schulmathematischer Kommunikation darstellt.
Spots on stellar surfaces are thought to be stellar analogues of sunspots. Thus, starspots are direct manifestations of strong magnetic fields. Their decay rate is directly related to the magnetic diffusivity, which itself is a key quantity for the deduction of an activity cycle length. So far, no single starspot decay has been observed, and thus no stellar activity cycle was inferred from its corresponding turbulent diffusivity.
We investigate the evolution of starspots on the rapidly-rotating K0 giant XX Triangulum. Continuous high-resolution and phase-resolved spectroscopy was obtained with the robotic 1.2-m STELLA telescope on Tenerife over a timespan of six years. With our line-profile inversion code iMap we reconstruct a total of 36 consecutive Doppler maps. To quantify starspot area decay and growth, we match the observed images with simplified spot models based on a Monte-Carlo approach.
It is shown that the surface of XX Tri is covered with large high-latitude and even polar spots and with occasional small equatorial spots. Just over the course of six years, we see a systematically changing spot distribution with various time scales and morphology such as spot fragmentation and spot merging as well as spot decay and formation.
For the first time, a starspot decay rate on another star than the Sun is determined. From our spot-decay analysis we determine an average linear decay rate of D = -0.067±0.006 Gm^2/day. From this decay rate, we infer a turbulent diffusivity of η_τ = (6.3±0.5) x 10^14 cm^2/s and consequently predict an activity cycle of 26±6 years. The obtained cycle length matches very well with photometric observations.
Our time-series of Doppler maps further enables to investigate the differential rotation of XX Tri. We therefore applied a cross-correlation analysis. We detect a weak solar-like differential rotation with a surface shear of α = 0.016±0.003. This value agrees with similar studies of other RS CVn stars.
Furthermore, we found evidence for active longitudes and flip-flops. Whereas the more active longitude is located in phase towards the (unseen) companion star, the weaker active longitude is located at the opposite stellar hemisphere. From their periodic appearance, we infer a flip-flop cycle of ~2 years. Both activity phenomena are common on late-type binary stars.
Last but not least we redetermine several astrophysical properties of XX Tri and its binary system, as large datasets of photometric and spectroscopic observations are available since its last determination in 1999. Additionally, we compare the rotational spot-modulation from photometric and spectroscopic studies.
Analphabetismus und Teilhabe
(2015)
Aus bildungstheoretisch-gesellschaftskritischer Perspektive stellt sich Lernen als soziales Handeln in gesellschaftlich-vermittelten Verhältnissen – Möglichkeiten wie auch Begrenzungen – dar. Funktionaler Analphabetismus ist mit einem bundesweiten Anteil von 14% der erwerbsfähigen Bevölkerung oder 7,5 Millionen Analphabeten in Deutschland nicht nur ein bildungspolitisches und -praktisches, sondern auch ein wissenschaftlich zu untersuchendes Phänomen. Es gibt zahlreiche Untersuchungen, die sich mit dieser Thematik auseinandersetzen und Anknüpfungspunkte für die vorliegende Studie bieten. Aus der Zielgruppenforschung beispielsweise ist bekannt, dass die Hauptadressaten der Männer, der Älteren und der Bildungsfernen nicht adäquat erreicht bzw. als Teilnehmende gewonnen werden. Aus der Teilnehmendenforschung sind Abbrüche und Drop-Outs bekannt.
Warum Analphabeten im Erwachsenenalter, also nach der Aneignung vielfältigster Bewältigungsstrategien, durch das sich das Phänomen einer direkten Sichtbarkeit entzieht, dennoch beginnen das Lesen und Schreiben (wieder) zu lernen, wird bislang weder bildungs- noch lerntheoretisch untersucht. Im Rahmen der vorliegenden Erwachsenenbildungsstudie werden genau diese Lernanlässe empirisch herausgearbeitet.
Als Heuristik wird auf eine subjekttheoretische Theoriefolie rekurriert, die sich in besonderer Weise eignet Lernbegründungen im Kontext gesellschaftlich verhafteter Biografien sichtbar zu machen. Lernforschung im Begründungsmodell muss dabei auf eine Methodik zurückgreifen, die die Perspektive des Subjekts, Bedeutungszusammenhänge und typische Sinnstrukturen hervorbringen kann. Daher wird ein auf Einzelfallstudien basierendes, qualitatives Forschungsdesign gewählt, das Daten aus der Erhebung mittels problemzentrierter Interviews bereitstellt, die eine Auswertung innerhalb der Forschungsstrategie der Grounded Theory erfahren und in einer empirisch begründeten Typenbildung münden. Dieses Design ermöglicht die Rekonstruktion typischer Lernanlässe und im Ergebnis die Entwicklung einer gegenstandsbezogene Theorie mittlerer Reichweite.
Aus der vorliegenden Bedeutungs-Begründungsanalyse konnten empirisch fünf Lernbegründungstypen ausdifferenziert werden, die sich im Spannungsverhältnis von Teilhabeausrichtung und Widersprüchlichkeit bewegen und in ihrer Komplexität mittels der drei Schlüsselkategorien Bedeutungsraum, Reflexion der sozialen Eingebundenheit und Kompetenzen sowie Lernen bzw. dem Erleben der Diskrepanzerfahrung zwischen Lesen-Wollen und Lesen-Können dargestellt werden. Das Spektrum der Lernbegründungstypen reicht von teilhabesicherndem resignierten Lernen, bei dem die Sicherung des bedrohten Status quo im Vordergrund steht und die Welt als nicht gestaltbar erlebt wird, bis hin zu vielschichtigem teilhabeerweiternden Lernen, das auf die Erweiterung der eigenen Handlungsmöglichkeiten zielt und die umfangreichste Reflexion der sozialen Eingebundenheit und Kompetenzen aufweist. Funktionale Analphabeten begründen ihr Lernen und Nicht-Lernen vor dem Hintergrund ihrer sozialen Situation, ihrer Begrenzungen und Möglichkeiten: Schriftsprachlernen erhält erst im Kontext gesellschaftlicher Teilhabe und dessen Reflexion eine Bedeutung.
Mit der Einordnung der Lernbegründungen funktionaler Analphabeten in: erstens, Diskurse der Bildungsbenachteiligung durch Exklusionsprozesse; zweitens, die lerntheoretische Bedeutung von Inklusionsprozessen und drittens, den internationalen Theorieansatz transformativen Lernens durch die Integration der Reflexionskategorie, erfolgt eine Erweiterung bildungs- und lerntheoretischer Ansätze. In dieser Arbeit werden Alphabetisierungs- und Erwachsenen-bildungsforschung verbunden und in den jeweiligen Diskurs integriert. Weitere Anschluss- und Verwertungsmöglichkeiten in der Bildungsforschung wären denkbar. Die Untersuchung von Lernbegründungen im Längsschnitt beispielsweise kann Transformationsprozesse rekonstruierbar machen und somit Erträge für eine Bildungsprozessforschung liefern. Bildungspraktisch können die Lernbegründungstypen einerseits der Teilnehmergewinnung dienen, andererseits Ausgangspunkt für reflexive Lernbegleitungskonzepte sein, die Lernbegründungen zur Sprache bringen und die soziale Eingebundenheit thematisieren und damit Lernprozesse unterstützen.
In this thesis we investigate the evaporation behaviour of sessile droplets of aqueous saline solutions on planar inert and metallic surfaces and characterise the corrosion phenomenon for iron surfaces. First we study the evaporation behaviour of sessile salty droplets on inert surfaces for a wide range of salt concentrations, relative humidities, droplet sizes and contact angles. Our study reveals the range of validity of the well-accepted diffusion-controlled evaporation model and highlights the impact of salt concentration (surface tension) gradients driven Marangoni flows on the evaporation behaviour and the subsequent salty deposit patterns. Furthermore we study the spatial-temporal evolution of sessile droplets from saline solutions on metallic surfaces. In contrast to the simple, generally accepted Evans droplet model, we show that the corrosion spreads ahead of the macroscopic contact line with a peripheral film. The three-phase contact line is destabilized by surface tension gradients induced by ionic composition changes during the course of the corrosion process and migration of cations towards the droplet perimeter. Finally we investigate the corrosion behaviour under drying salty sessile droplets on metallic surfaces. The corrosion process, in particular the location of anodic and cathodic activities over the footprint droplet area is correlated to the spatial distribution of the salt inside the drying droplet.
This study presents the development of 1D and 2D Surface Evolution Codes (SECs) and their coupling to any lithospheric-scale (thermo-)mechanical code with a quadrilateral structured surface mesh.
Both SECs involve diffusion as approach for hillslope processes and the stream power law to reflect riverbed incision. The 1D SEC settles sediment that was produced by fluvial incision in the appropriate minimum, while the supply-limited 2D SEC DANSER uses a fast filling algorithm to model sedimantation. It is based on a cellular automaton. A slope-dependent factor in the sediment flux extends the diffusion equation to nonlinear diffusion. The discharge accumulation is achieved with the D8-algorithm and an improved drainage accumulation routine. Lateral incision enhances the incision's modelling. Following empirical laws, it incises channels of several cells width.
The coupling method enables different temporal and spatial resolutions of the SEC and the thermo-mechanical code. It transfers vertical as well as horizontal displacements to the surface model. A weighted smoothing of the 3D surface displacements is implemented. The smoothed displacement vectors transmit the deformation by bilinear interpolation to the surface model. These interpolation methods ensure mass conservation in both directions and prevent the two surfaces from drifting apart.
The presented applications refer to the evolution of the Pamir orogen. A calibration of DANSER's parameters with geomorphological data and a DEM as initial topography highlights the advantage of lateral incision. Preserving the channel width and reflecting incision peaks in narrow channels, this closes the huge gap between current orogen-scale incision models and observed topographies.
River capturing models in a system of fault-bounded block rotations reaffirm the importance of the lateral incision routine for capturing events with channel initiation. The models show a low probability of river capturings with large deflection angles. While the probability of river capturing is directly depending on the uplift rate, the erodibility inside of a dip-slip fault speeds up headward erosion along the fault: The model's capturing speed increases within a fault.
Coupling DANSER with the thermo-mechanical code SLIM 3D emphasizes the versatility of the SEC. While DANSER has minor influence on the lithospheric evolution of an indenter model, the brittle surface deformation is strongly affected by its sedimentation, widening a basin in between two forming orogens and also the southern part of the southern orogen to south, east and west.
Reconstructing climate from the Dead Sea sediment record using high-resolution micro-facies analyses
(2015)
The sedimentary record of the Dead Sea is a key archive for reconstructing climate in the eastern Mediterranean region, as it stores the environmental and tectonic history of the Levant for the entire Quaternary. Moreover, the lake is located at the boundary between Mediterranean sub-humid to semi-arid and Saharo-Arabian hyper-arid climates, so that even small shifts in atmospheric circulation are sensitively recorded in the sediments. This DFG-funded doctoral project was carried out within the ICDP Dead Sea Deep Drilling Project (DSDDP) that intended to gain the first long, continuous and high-resolution sediment core from the deep Dead Sea basin. The drilling campaign was performed in winter 2010-11 and more than 700 m of sediments were recovered. The main aim of this thesis was (1) to establish the lithostratigraphic framework for the ~455 m long sediment core from the deep Dead Sea basin and (2) to apply high-resolution micro-facies analyses for reconstructing and better understanding climate variability from the Dead Sea sediments.
Addressing the first aim, the sedimentary facies of the ~455 m long deep-basin core 5017-1 were described in great detail and characterised through continuous overview-XRF element scanning and magnetic susceptibility measurements. Three facies groups were classified: (1) the marl facies group, (2) the halite facies group and (3) a group involving different expressions of massive, graded and slumped deposits including coarse clastic detritus. Core 5017-1 encompasses a succession of four main lithological units. Based on first radiocarbon and U-Th ages and correlation of these units to on-shore stratigraphic sections, the record comprises the last ca 220 ka, i.e. the upper part of the Amora Formation (parts of or entire penultimate interglacial and glacial), the last interglacial Samra Fm. (~135-75 ka), the last glacial Lisan Fm. (~75-14 ka) and the Holocene Ze’elim Formation. A major advancement of this record is that, for the first time, also transitional intervals were recovered that are missing in the exposed formations and that can now be studied in great detail.
Micro-facies analyses involve a combination of high-resolution microscopic thin section analysis and µXRF element scanning supported by magnetic susceptibility measurements. This approach allows identifying and characterising micro-facies types, detecting event layers and reconstructing past climate variability with up to seasonal resolution, given that the analysed sediments are annually laminated. Within this thesis, micro-facies analyses, supported by further sedimentological and geochemical analyses (grain size, X-ray diffraction, total organic carbon and calcium carbonate contents) and palynology, were applied for two time intervals:
(1) The early last glacial period ~117-75 ka was investigated focusing on millennial-scale hydroclimatic variations and lake level changes recorded in the sediments. Thereby, distinguishing six different micro-facies types with distinct geochemical and sedimentological characteristics allowed estimating relative lake level and water balance changes of the lake. Comparison of the results to other records in the Mediterranean region suggests a close link of the hydroclimate in the Levant to North Atlantic and Mediterranean climates during the time of the build-up of Northern hemisphere ice sheets during the early last glacial period.
(2) A mostly annually laminated late Holocene section (~3700-1700 cal yr BP) was analysed in unprecedented detail through a multi-proxy, inter-site correlation approach of a shallow-water core (DSEn) and its deep-basin counterpart (5017-1). Within this study, a ca 1500 years comprising time series of erosion and dust deposition events was established and anchored to the absolute time-scale through 14C dating and age modelling. A particular focus of this study was the characterisation of two dry periods, from ~3500 to 3300 and from ~3000 to 2400 cal yr BP, respectively. Thereby, a major outcome was the coincidence of the latter dry period with a period of moist and cold climate in Europe related to a Grand Solar Minimum around 2800 cal yr BP and an increase in flood events despite overall dry conditions in the Dead Sea region during that time. These contrasting climate signatures in Europe and at the Dead Sea were likely linked through complex teleconnections of atmospheric circulation, causing a change in synoptic weather patterns in the eastern Mediterranean.
In summary, within this doctorate the lithostratigraphic framework of a unique long sediment core from the deep Dead Sea basin is established, which serves as a base for any further high-resolution investigations on this core. It is demonstrated in two case studies that micro-facies analyses are an invaluable tool to understand the depositional processes in the Dead Sea and to decipher past climate variability in the Levant on millennial to seasonal time-scales. Hence, this work adds important knowledge helping to establish the deep Dead Sea record as a key climate archive of supra-regional significance.
This thesis investigates temporal and aspectual reference in the typologically unrelated African languages Hausa (Chadic, Afro–Asiatic) and Medumba (Grassfields Bantu).
It argues that Hausa is a genuinely tenseless language and compares the interpretation of temporally unmarked sentences in Hausa to that of morphologically tenseless sentences in Medumba, where tense marking is optional and graded.
The empirical behavior of the optional temporal morphemes in Medumba motivates an analysis as existential quantifiers over times and thus provides new evidence suggesting that languages vary in whether their (past) tense is pronominal or quantificational (see also Sharvit 2014).
The thesis proposes for both Hausa and Medumba that the alleged future tense marker is a modal element that obligatorily combines with a prospective future shifter (which is covert in Medumba). Cross-linguistic variation in whether or not a future marker is compatible with non-future interpretation is proposed to be predictable from the aspectual architecture of the given language.
Business process management (BPM) is a systematic and structured approach to model, analyze, control, and execute business operations also referred to as business processes that get carried out to achieve business goals. Central to BPM are conceptual models. Most prominently, process models describe which tasks are to be executed by whom utilizing which information to reach a business goal. Process models generally cover the perspectives of control flow, resource, data flow, and information systems.
Execution of business processes leads to the work actually being carried out. Automating them increases the efficiency and is usually supported by process engines. This, though, requires the coverage of control flow, resource assignments, and process data. While the first two perspectives are well supported in current process engines, data handling needs to be implemented and maintained manually. However, model-driven data handling promises to ease implementation, reduces the error-proneness through graphical visualization, and reduces development efforts through code generation.
This thesis addresses the modeling, analysis, and execution of data in business processes and presents a novel approach to execute data-annotated process models entirely model-driven. As a first step and formal grounding for the process execution, a conceptual framework for the integration of processes and data is introduced. This framework is complemented by operational semantics through a Petri net mapping extended with data considerations. Model-driven data execution comprises the handling of complex data dependencies, process data, and data exchange in case of communication between multiple process participants. This thesis introduces concepts from the database domain into BPM to enable the distinction of data operations, to specify relations between data objects of the same as well as of different types, to correlate modeled data nodes as well as received messages to the correct run-time process instances, and to generate messages for inter-process communication. The underlying approach, which is not limited to a particular process description language, has been implemented as proof-of-concept.
Automation of data handling in business processes requires data-annotated and correct process models. Targeting the former, algorithms are introduced to extract information about data nodes, their states, and data dependencies from control information and to annotate the process model accordingly. Usually, not all required information can be extracted from control flow information, since some data manipulations are not specified. This requires further refinement of the process model. Given a set of object life cycles specifying allowed data manipulations, automated refinement of the process model towards containment of all data manipulations is enabled. Process models are an abstraction focusing on specific aspects in detail, e.g., the control flow and the data flow views are often represented through activity-centric and object-centric process models. This thesis introduces algorithms for roundtrip transformations enabling the stakeholder to add information to the process model in the view being most appropriate.
Targeting process model correctness, this thesis introduces the notion of weak conformance that checks for consistency between given object life cycles and the process model such that the process model may only utilize data manipulations specified directly or indirectly in an object life cycle. The notion is computed via soundness checking of a hybrid representation integrating control flow and data flow correctness checking. Making a process model executable, identified violations must be corrected. Therefore, an approach is proposed that identifies for each violation multiple, alternative changes to the process model or the object life cycles.
Utilizing the results of this thesis, business processes can be executed entirely model-driven from the data perspective in addition to the control flow and resource perspectives already supported before. Thereby, the model creation is supported by algorithms partly automating the creation process while model consistency is ensured by data correctness checks.
Hintergrund: In Deutschland stellt der akute Myokardinfarkt (MI) eine der häufigsten Todesursachen dar. Als Ursache für regionale Unterschiede bei den Mortalitätsraten werden divergente Versorgungsstrukturen vermutet. Ziel der Untersuchung war, diese Fragestellung anhand anonymisierter krankenkassenbasierter Abrechnungsdaten zu evaluieren.
Methodik: Standardisierte Hospitalisierungs- sowie Krankenhaus- und Ein-Jahres-Mortalitätsraten nach MI wurden anhand anonymisierter Versichertendaten einer gesetzlichen Krankenkasse für das Jahr 2012 und die Bundesländer Berlin, Brandenburg und Mecklenburg-Vorpommern ermittelt (n=1.387.084, 46.3% male, 60.9 ± 18,2 years). Weiterhin wurden prädiktive Einflussfaktoren auf die Ein-Jahres-Mortalität, auf die Durchführung invasiver Prozeduren und auf eine leitliniengerechte pharmakotherapeutische Sekundärprävention analysiert.
Ergebnisse: 6.733 Patienten (73,7 ±13,0 Jahre, 56,7% männlich) wurden identifiziert. Obwohl für das Bundesland Berlin eine höhere Hospitalisierungsrate als in Mecklenburg-Vorpommern ermittelt werden konnte, ließen sich bei der Krankenhaus- und 1-Jahres-Mortalität keine signifikant abweichenden Raten zwischen den Bundesländern beobachten. Die Durchführung einer Koronarangiographie (OR: 0,42 [0,35-0,51]) und eine leitliniengerechte Pharmakotherapie (OR: 0,14 [0,12-0,17] waren mit einer geringeren 1-Jahres-Mortalität assoziiert. Die Durchführung einer Koronarangiographie und eine leitliniengerechte Pharmakotherapie von Patienten nach Myokardinfarkt wurde hingegen primär durch Alter und Geschlecht, nicht aber durch das Bundesland determiniert.
Folgerung: Eine regional divergierende stationäre und postinfarzielle Versorgung auf Bundesland-Ebene kann anhand der vorliegenden Daten nicht nachgewiesen werden.
The Brazilian Cerrado is recognised as one of the most threatened biomes in the world, as the region has experienced a striking change from natural vegetation to intense cash crop production. The impacts of rapid agricultural expansion on soil and water resources are still poorly understood in the region. Therefore, the overall aim of the thesis is to improve our understanding of the ecohydrological processes causing water and soil degradation in the Brazilian Cerrado.
I first present a metaanalysis to provide quantitative evidence and identifying the main impacts of soil and water alterations resulting from land use change. Second, field studies were conducted to (i) examine the effects of land use change on soils of natural cerrado transformed to common croplands and pasture and (ii) indicate how agricultural production affects water quality across a meso-scale catchment. Third, the ecohydrological process-based model SWAT was tested with simple scenario analyses to gain insight into the impacts of land use and climate change on the water cycling in the upper São Lourenço catchment which experienced decreasing discharges in the last 40 years.
Soil and water quality parameters from different land uses were extracted from 89 soil and 18 water studies in different regions across the Cerrado. Significant effects on pH, bulk density and available P and K for croplands and less-pronounced effects on pastures were evident. Soil total N did not differ between land uses because most of the cropland sites were N-fixing soybean cultivations, which are not artificially fertilized with N. By contrast, water quality studies showed N enrichment in agricultural catchments, indicating fertilizer impacts and potential susceptibility to eutrophication. Regardless of the land use, P is widely absent because of the high-fixing capacities of deeply weathered soils and the filtering capacity of riparian vegetation. Pesticides, however, were consistently detected throughout the entire aquatic system. In several case studies, extremely high-peak concentrations exceeded Brazilian and EU water quality limits, which pose serious health risks.
My field study revealed that land conversion caused a significant reduction in infiltration rates near the soil surface of pasture (–96 %) and croplands (–90 % to –93 %). Soil aggregate stability was significantly reduced in croplands than in cerrado and pasture. Soybean crops had extremely high extractable P (80 mg kg–1), whereas pasture N levels declined. A snapshot water sampling showed strong seasonality in water quality parameters. Higher temperature, oxi-reduction potential (ORP), NO2–, and very low oxygen concentrations (<5 mg•l–1) and saturation (<60 %) were recorded during the rainy season. By contrast, remarkably high PO43– concentrations (up to 0.8 mg•l–1) were measured during the dry season. Water quality parameters were affected by agricultural activities at all sampled sub-catchments across the catchment, regardless of stream characteristic. Direct NO3– leaching appeared to play a minor role; however, water quality is affected by topsoil fertiliser inputs with impact on small low order streams and larger rivers. Land conversion leaving cropland soils more susceptible to surface erosion by increased overland flow events.
In a third study, the field data were used to parameterise SWAT. The model was tested with different input data and calibrated in SWAT-CUP using the SUFI-2 algorithm. The model was judged reliable to simulate the water balance in the Cerrado. A complete cerrado, pasture and cropland cover was used to analyse the impact of land use on water cycling as well as climate change projections (2039–2058) according to the projections of the RCP 8.5 scenario. The actual evapotranspiration (ET) for the cropland scenario was higher compared to the cerrado cover (+100 mm a–1). Land use change scenarios confirmed that deforestation caused higher annual ET rates explaining partly the trend of decreased streamflow. Taking all climate change scenarios into account, the most likely effect is a prolongation of the dry season (by about one month), with higher peak flows in the rainy season. Consequently, potential threats for crop production with lower soil moisture and increased erosion and sediment transport during the rainy season are likely and should be considered in adaption plans.
From the three studies of the thesis I conclude that land use intensification is likely to seriously limit the Cerrado’s future regarding both agricultural productivity and ecosystem stability. Because only limited data are available for the vast biome, we recommend further field studies to understand the interaction between terrestrial and aquatic systems. This thesis may serve as a valuable database for integrated modelling to investigate the impact of land use and climate change on soil and water resources and to test and develop mitigation measures for the Cerrado in the future.
In many procedures of seismic risk mitigation, ground motion simulations are needed to test systems or improve their effectiveness. For example they may be used to estimate the level of ground shaking caused by future earthquakes. Good physical models for ground motion simulation are also thought to be important for hazard assessment, as they could close gaps in the existing datasets. Since the observed ground motion in nature shows a certain variability, part of which cannot be explained by macroscopic parameters such as magnitude or position of an earthquake, it would be desirable that a good physical model is not only able to produce one single seismogram, but also to reveal this natural variability.
In this thesis, I develop a method to model realistic ground motions in a way that is computationally simple to handle, permitting multiple scenario simulations. I focus on two aspects of ground motion modelling. First, I use deterministic wave propagation for the whole frequency range – from static deformation to approximately 10 Hz – but account for source variability by implementing self-similar slip distributions and rough fault interfaces. Second, I scale the source spectrum so that the modelled waveforms represent the correct radiated seismic energy. With this scaling I verify whether the energy magnitude is suitable as an explanatory variable, which characterises the amount of energy radiated at high frequencies – the advantage of the energy magnitude being that it can be deduced from observations, even in real-time.
Applications of the developed method for the 2008 Wenchuan (China) earthquake, the 2003 Tokachi-Oki (Japan) earthquake and the 1994 Northridge (California, USA) earthquake show that the fine source discretisations combined with the small scale source variability ensure that high frequencies are satisfactorily introduced, justifying the deterministic wave propagation approach even at high frequencies. I demonstrate that the energy magnitude can be used to calibrate the high-frequency content in ground motion simulations.
Because deterministic wave propagation is applied to the whole frequency range, the simulation method permits the quantification of the variability in ground motion due to parametric uncertainties in the source description. A large number of scenario simulations for an M=6 earthquake show that the roughness of the source as well as the distribution of fault dislocations have a minor effect on the simulated variability by diminishing directivity effects, while hypocenter location and rupture velocity more strongly influence the variability. The uncertainty in energy magnitude, however, leads to the largest differences of ground motion amplitude between different events, resulting in a variability which is larger than the one observed.
For the presented approach, this dissertation shows (i) the verification of the computational correctness of the code, (ii) the ability to reproduce observed ground motions and (iii) the validation of the simulated ground motion variability. Those three steps are essential to evaluate the suitability of the method for means of seismic risk mitigation.
Arthur Ewert (1890-1959)
(2015)
Arthur Ewert (1890-1959) war in den zwanziger und frühen dreißiger Jahren ein wichtiger Funktionär der Kommunistischen Partei Deutschlands und der Kommunistischen Internationale.
Er wurde in der Familie eines armen Bauern in Ostpreußen geboren. Nach dem Abschluß der Schule ging er nach Berlin, um hier eine Lehre als Sattler zu absolvieren. Über die Berliner Arbeiterjugendbewegung fand er Kontakt zur Sozialdemokratischen Partei Deutschlands, deren Mitglied er 1908 wurde.
Im Mai 1914 emigrierte er gemeinsam mit seiner langjährigen Lebensgefährtin und späteren Ehefrau Elise Saborowski (1886-1939) nach Nordamerika, wo er sich sofort der sozialistischen Bewegung anschloß. Anfang 1919 gehörte er zu den Mitbegründern der ersten Kommunistischen Partei Kanadas.
Im Sommer 1919 kehrte er nach Deutschland zurück und wurde Mitglied der wenige Monate zuvor gegründeten KPD.
Auf dem Leipziger Parteitag der KPD im Februar 1923 wurde er in die zwanzigköpfige Zentrale seiner Partei gewählt und stieg damit in den engeren Führungszirkel auf.
Nach der gescheiterten »Deutschen Oktoberrevolution« im Herbst 1923 kämpfte er gemeinsam mit Ernst Meyer, Hugo Eberlein, Wilhelm Pieck und anderen um das Überleben der KPD, doch gelang es seiner Gruppe nicht, den Sieg der Linken und Ultralinken im parteiinternen Machtkampf zu verhindern. Ewert wurde politisch »kaltgestellt« und schied für mehr als ein Jahr aus der Parteiführung aus.
In dieser Zeit erfüllte er verschiedene Aufgaben für die Kommunistische Internationale. Bereits im Juni 1923 war er Berichterstatter zur Lage in der Norwegischen Arbeiterpartei gewesen, ab Ende 1924 war er Abgesandter bei der KP Großbritanniens. Im Sommer und Frühherbst 1927 hielt er sich mehrere Monate in den USA auf.
Im Sommer 1925 wurde er auf Veranlassung der Kommunistischen Internationale in die Führung der KPD zurückgeholt. Er trug wesentlich dazu bei, die Parteiführung unter Ernst Thälmann zu stabilisieren und sie – zumindest zeitweise – auf einen realpolitischen Kurs zu orientieren.
Mit dem erneuten »Links«-Schwenk der KPD ab Anfang 1928 wurde er als »Versöhnler« stigmatisiert und zunehmend zur Zielscheibe innerparteilicher Attacken. Der Versuch eines »Befreiungsschlages« unter Ausnutzung der sogenannten Wittorf-Affäre im Herbst 1928 scheiterte, bis zum Sommer 1929 wurde Arthur Ewert auf Drängen Stalins und mit ausdrücklicher Zustimmung Thälmanns aus allen Funktionen in der KPD entfernt.
Nach der Auflösung des Reichstags und dem damit verbundenen Verlust seines Reichstagsmandats im Juli 1930 schied Ewert endgültig aus der deutschen Parteiarbeit aus.
Ende 1930 wurde er zum Leiter des Südamerikanischen Büros der Kommunistischen Internationale in Montevideo, der Hauptstadt Uruguays, ernannt. Er trug damit Verantwortung für die unmittelbare Anleitung der Kommunistischen Parteien im sogenannten Südkegel Südamerikas. In diese Zeit fielen seine ersten Kontakte zu Luiz Carlos Prestes, dem legendären »Ritter der Hoffnung«, mit dem er ab Anfang 1935 in Brasilien zusammenarbeitete.
Von 1932 bis 1934 leitete Arthur Ewert das Büro der Kommunistischen Internationale in Shanghai und spielte dabei eine entscheidende Rolle zugunsten Mao Tse-tungs, dessen politisches Überleben er in einem innerparteilichen Machtkampf der KP Chinas sicherte.
Als Vertreter der Kommunistischen Internationale war Arthur Ewert im Verlaufe des Jahres 1935 an den Versuchen beteiligt, in Brasilien – gestützt auf ein breites Bündnis, die »Nationale Befreiungsallianz« - einen politischen Machtwechsel herbeizuführen. Nach dem Scheitern des von Prestes geführten Aufstandsversuches wurde er Ende 1935 verhaftet. Arthur Ewert verlor in Folge der barbarischen Folterungen in brasilianischer Haft den Verstand.
Er kam im Mai 1945 im Ergebnis einer Amnestie frei. 1947 gelang es seiner Schwester, ihn in die sowjetische Besatzungszone zurückzuholen. Die Ärzte dort konnten nur noch feststellen, daß eine Heilung unmöglich war. Arthur Ewert verbrachte den Rest seines Lebens in einem Pflegeheim in Eberswalde, wo er 1959 starb.
This PhD thesis is essentially a collection of six sequential articles on dynamics of accountability in the reformed employment and welfare administration in different countries. The first article examines how recent changes in the governance of employment services in three European countries (Denmark, Germany and Norway) have influenced accountability relationships from a very wide-ranging perspective. It starts from the overall assumption in the literature that accountability relationships are becoming more numerous and complex, and that these changes may lead to multiple accountability disorder. The article explores these assumptions by analyzing the different actors involved and the information requested in the new governance arrangements in all three countries. It concludes that the considerable changes in organizational arrangements and more managerial information demanded and provided have led to more shared forms of accountability. Nevertheless, a clear development towards less political or administrative accountability could not be observed.
The second article analyzes how the structure and development of reform processes affect accountability relationships and via what mechanisms. It is distinguished between an instrumental perspective and an institutional perspective and each of these perspectives takes a different view on the link between reforms and concrete action and results. By taking the welfare reforms in Norway and Germany as an example, it is shown that the reform outcomes in both countries are the result of a complex process of powering, puzzling and institutional constraints where different situational interpretations of problems, interests and administrative legacies had to be balanced. Accountability thus results not from a single process of environmental necessity or strategic choice, but from a dynamic interplay between different actors and institutional spheres.
The third article then covers a specific instrument of public sector reforms, i.e. the increasing use of performance management. The article discusses the challenges and ambiguities between performance management and different forms of accountability based on the cases of the reformed welfare administration in Norway and Germany. The findings are that the introduction of performance management creates new accountability structures which influence service delivery, but not necessarily in the direction expected by reform agents. Observed unintended consequences include target fixation, the displacement of political accountability and the predominance of control aspects of accountability.
The fourth article analyzes the accountability implications of the increasingly marketized models of welfare governance. It has often been argued that relocating powers and discretion to private contractors involve a trade-off between democratic accountability and efficiency. However, there is limited empirical evidence of how contracting out shapes accountability or is shaped by alternative democratic or administrative forms of accountability. Along these lines the article examines employment service accountability in the era of contracting out in Germany, Denmark and Great Britain. It is found that market accountability instruments are complementary instruments, not substitutes. The findings highlight the importance of administrative and political instruments in legitimizing marketized service provision and shed light on the processes that lead to the development of a hybrid accountability model.
The fifth and sixth articles focus on the diagonal accountability relationships between public agencies, supreme audit institutions (SAI) and parental ministry or parliament.
The fifth article examines the evolving role of SAIs in Denmark, Germany and Norway focusing particularly on their contribution to public accountability and their ambivalent relationship with some aspects of public sector reform in the welfare sector. The article analyzes how SAIs assess New Public Management inspired reforms in the welfare sector in the three countries. The analysis shows that all three SAIs have taken on an evaluative role when judging New Public Management instruments. At the same time their emphasis on legality and compliance can be at odds with some of the operating principles introduced by New Public Management reforms.
The sixth article focuses on the auditing activities of the German SAI in the field of labor market administration as a single in-depth case study. The purpose is to analyze how SAIs gain impact in diagonal accountability settings. The results show that the direct relationship between auditor and auditee based on cooperation and trust is of outstanding importance for SAIs to give effect to their recommendations. However, if an SAI has to rely on actors of diagonal accountability, it is in a vulnerable position as it might lose control over the interpretation of its results.
The main research question of this thesis concerns the relation between focus interpretation, focus realization, and association with focus in the West Chadic language Ngamo.
Concerning the relation between focus realization and interpretation, this thesis contributes to the question, cross-linguistically, what factors influence a marked realization of the focus/background distinction. There is background-marking rather than focus-marking in Ngamo, and the background marker is related to the definite determiner in the language. Using original fieldwork data as a basis, a formal semantic analysis of the background marker as a definite determiner of situations is proposed.
Concerning the relation between focus and association with focus, the thesis adds to the growing body of crosslinguistic evidence that not all so-called focus-sensitive operators always associate with focus. The thesis shows that while the exclusive particle yak('i) (= "only") in Ngamo conventionally associates
with focus, the particles har('i) (= "even, as far as, until, already"), and ke('e) (= "also, and") do not.
The thesis provides an analysis of these phenomena in a situation semantic framework.
Business Process Management has become an integral part of modern organizations in the private and public sector for improving their operations. In the course of Business Process Management efforts, companies and organizations assemble large process model repositories with many hundreds and thousands of business process models bearing a large amount of information. With the advent of large business process model collections, new challenges arise as structuring and managing a large amount of process models, their maintenance, and their quality assurance.
This is covered by business process architectures that have been introduced for organizing and structuring business process model collections. A variety of business process architecture approaches have been proposed that align business processes along aspects of interest, e. g., goals, functions, or objects. They provide a high level categorization of single processes ignoring their interdependencies, thus hiding valuable information. The production of goods or the delivery of services are often realized by a complex system of interdependent business processes. Hence, taking a holistic view at business processes interdependencies becomes a major necessity to organize, analyze, and assess the impact of their re-/design. Visualizing business processes interdependencies reveals hidden and implicit information from a process model collection.
In this thesis, we present a novel Business Process Architecture approach for representing and analyzing business process interdependencies on an abstract level. We propose a formal definition of our Business Process Architecture approach, design correctness criteria, and develop analysis techniques for assessing their quality. We describe a methodology for applying our Business Process Architecture approach top-down and bottom-up. This includes techniques for Business Process Architecture extraction from, and decomposition to process models while considering consistency issues between business process architecture and process model level. Using our extraction algorithm, we present a novel technique to identify and visualize data interdependencies in Business Process Data Architectures. Our Business Process Architecture approach provides business process experts,managers, and other users of a process model collection with an overview that allows reasoning about a large set of process models,
understanding, and analyzing their interdependencies in a facilitated way. In this regard we evaluated our Business Process Architecture approach in an experiment and provide implementations of selected techniques.
Der Beitrag der Dissertation „Theoriebasierte Betreuung vom Schulpraktikum im Lehramtsstudium Englisch“ zum wissenschaftlichen Diskurs liegt in der Verbindung von Theoriebereichen der Professionalisierungsforschung und angewandten Linguistik mit Untersuchungen zur hochschuldidaktischen Begleitung und Betreuung im ersten Unterrichtspraktikum des Lehramtsstudiums, dem fachdidaktischen Tagespraktikum, an der Universität Potsdam. Ein interaktionsanalytisches Vorgehen wurde eingesetzt zur Weiterentwicklung des hochschuldidaktischen Settings einer disziplinenverbindenden, fachwissenschaftlichen Begleitung von Praktika im komplexen Kontext Schule. Die Implementierung entsprechender Formate ins reguläre Studium wurde in einer über drei Jahre angelegten iterativen Studie turnusmäßig evaluiert.
Gut ausgebildete Schreibkompetenzen gelten als zentrale Voraussetzung für den schulischen Erfolg. Wenngleich die schriftliche Textproduktion unbestritten fester Bestandteil des Deutschunterrichts ist, wird vielfach beklagt, dass die vorhandenen Schreibkompetenzen unzureichend sind. Blickt man auf die fachdidaktische Forschung so zeigt sich, dass Schreibkompetenz ein schwer zu definierendes Phänomen bleibt und innerhalb der schreibdidaktischen Forschung strittig ist, wie Schreibkompetenz – insbesondere nach Erwerb der grundlegenden Schreibfertigkeiten – am Besten entwickelt werden kann. Zudem gilt für das Fach Deutsch, insbesondere den Aufgabenbereich „Texte verfassen“, das eine empirische Fundierung der Fachdidaktik bisher kaum realisiert wurde.
Vor diesem Hintergrund wurde in der vorgelegten Arbeit ein Programm zu Förderung der schriftlichen Erzählfähigkeit von Fünftklässlern entwickelt und anschließend in der regulären Unterrichtspraxis eingesetzt und begleitend evaluiert. Methodisch orientiert sich die Arbeit dabei im Hinblick auf die Konzeption, Umsetzung und Evaluation des Förderprogramms an den von Einsiedler postulierten „Standards der (didaktischen) Entwicklungsforschung“.
Bei der im ersten Schritt erfolgten Konzeption des Förderprogramms ging es darum eine spezifische, didaktische Konzeption, die Kombination sprachstruktur- und (lern)prozessbezogenener Elemente, sprachwissenschaftlich basiert und pädagogisch-didaktisch begründet zu entwickeln. Bei der hierzu notwendigen Integration verschiedener theoretischer Zugänge unterschiedlicher Fachdisziplinen galt es vorhandene Ansätze im Hinblick auf interne Anschlussmöglichkeiten auszuloten und auf diesem Wege einen sich gegenseitig ergänzenden, umfassenden Bezugsrahmen zu schaffen. Dabei gelang - unter Einbeziehung von Modellen und Befunden aus der Schreibentwicklungsforschung - die innerhalb der Schreibforschung vielfach geforderte, jedoch bisher fehlende Integration von strukturellen Ansätzen aus der linguistischen Schreibforschung mit den innerhalb der Kognitionspsychologie favorisierten prozessuellen Ansätzen.
Auf dieser Grundlage wurde ein aufgabenbasiertes Programm mit insgesamt acht verschiedenen Fördermodulen entwickelt, aufgabenbasiert deshalb, weil dies nicht nur einen lehrergesteuerten aber schülerzentrierten Unterricht ermöglicht, sondern auch einen adaptiven Unterricht, somit den spezifischen Anforderungen des Unterrichts in heterogenen Lerngruppen gerecht wird, was angesichts der zunehmenden (sprachlich-kulturellen) Heterogenität in regulären Schulklassen sinnvoll scheint.
In einem zweiten Schritt wurde innerhalb einer Pilotstudie die Umsetzbarkeit des Förderprogramms im schulischen Kontext erprobt. Unter Kontrolle seiner praktischen Umsetzbarkeit (Machbarkeitshypothese) wurde im Anschluss daran die Wirksamkeit des Förderprogramms im Hinblick auf eine Steigerung in den produktbezogenen Schreibmaßen (Wortschatzvarianz, Satzkomplexität, lexikalische Dichte, Kohäsionsgrade, Textlänge) und die Stabilität der Fördereffekte untersucht. Dies geschah mittels eines quasiexperimentellen Untersuchungsplans, genauer eines Zweigruppen-Pretest-Posttest-Follow-up-Plans mit Kontrollvariablen.
Grundlage hierfür war eine möglichst heterogene Stichprobe von knapp 200 Schüler/innen. Denn angesichts der angesprochenen zunehmenden Heterogenität in regulären Schulklassen galt es neben der Wirksamkeit und Nachhaltigkeit des Förderprogramms auch dessen Eignung für den Unterricht in heterogenen Lerngruppen zu prüfen. Die Ergebnisse dieser Prüfung sprechen dafür, dass es gelungen ist ein entsprechendes Förderprogramm zu entwickeln.
Trotz dem Auftreten von forschungsmethodischen Schwierigkeiten, die innerhalb der vorgelegten Arbeit ausführlich im Hinblick auf Ursachen und Wirkungen diskutiert werden, können, unter Berücksichtigung des explorativen Charakters der Studie, die Ergebnisse insbesondere zur Wortschatzvarianz und zur Satzkomplexität ebenfalls als Indizien für die Effektivität des Förderprogramms gelten.