Refine
Has Fulltext
- yes (84) (remove)
Year of publication
- 2006 (84) (remove)
Document Type
- Doctoral Thesis (84) (remove)
Keywords
- Nichtlineare Dynamik (3)
- Polyelektrolyt (3)
- Ackerschmalwand (2)
- Adhäsion (2)
- Angewandte Sozialpsychologie (2)
- Aufmerksamkeit (2)
- Erwerbsalter (2)
- Insekten (2)
- Klimatologie (2)
- Kognition (2)
Institute
- Institut für Physik und Astronomie (17)
- Institut für Biochemie und Biologie (15)
- Institut für Chemie (11)
- Department Psychologie (8)
- Extern (5)
- Institut für Informatik und Computational Science (5)
- Department Erziehungswissenschaft (4)
- Institut für Ernährungswissenschaft (4)
- Institut für Mathematik (4)
- Department Linguistik (3)
The present thesis deals with the mental representation of numbers in space. Generally it is assumed that numbers are mentally represented on a mental number line along which they ordered in a continuous and analogical manner. Dehaene, Bossini and Giraux (1993) found that the mental number line is spatially oriented from left-to-right. Using a parity-judgment task they observed faster left-hand responses for smaller numbers and faster right-hand responses for larger numbers. This effect has been labelled as Spatial Numerical Association of Response Codes (SNARC) effect. The first study of the present thesis deals with the question whether the spatial orientation of the mental number line derives from the writing system participants are adapted to. According to a strong ontogenetic interpretation the SNARC effect should only obtain for effectors closely related to the comprehension and production of written language (hands and eyes). We asked participants to indicate the parity status of digits by pressing a pedal with their left or right foot. In contrast to the strong ontogenetic view we observed a pedal SNARC effect which did not differ from the manual SNARC effect. In the second study we evaluated whether the SNARC effect reflects an association of numbers and extracorporal space or an association of numbers and hands. To do so we varied the spatial arrangement of the response buttons (vertical vs. horizontal) and the instruction (handrelated vs. button-related). For vertically arranged buttons and a buttonrelated instruction we found a button-related SNARC effect. In contrast, for a hand-related instruction we obtained a hand-related SNARC effect. For horizontally arranged buttons and a handrelated instruction, however, we found a buttonrelated SNARC effect. The results of the first to studies were interpreted in terms of weak ontogenetic view. In the third study we aimed to examine the functional locus of the SNARC effect. We used the psychological refractory period paradigm. In the first experiment participants first indicated the pitch of a tone and then the parity status of a digit (locus-of-slack paradigma). In a second experiment the order of stimulus presentation and thus tasks changed (effect-propagation paradigm). The results led us conclude that the SNARC effect arises while the response is centrally selected. In our fourth study we test for an association of numbers and time. We asked participants to compare two serially presented digits. Participants were faster to compare ascending digit pairs (e.g., 2-3) than descending pairs (e.g., 3-2). The pattern of our results was interpreted in terms of forwardassociations (“1-2-3”) as formed by our ubiquitous cognitive routines to count of objects or events.
I perform and analyse the first ever calculations of rotating stellar iron core collapse in {3+1} general relativity that start out with presupernova models from stellar evolutionary calculations and include a microphysical finite-temperature nuclear equation of state, an approximate scheme for electron capture during collapse and neutrino pressure effects. Based on the results of these calculations, I obtain the to-date most realistic estimates for the gravitational wave signal from collapse, bounce and the early postbounce phase of core collapse supernovae. I supplement my {3+1} GR hydrodynamic simulations with 2D Newtonian neutrino radiation-hydrodynamic supernova calculations focussing on (1) the late postbounce gravitational wave emission owing to convective overturn, anisotropic neutrino emission and protoneutron star pulsations, and (2) on the gravitational wave signature of accretion-induced collapse of white dwarfs to neutron stars.
The properties of a series of well-defined new surfactant oligomers (dimers to tetramers)were examined. From a molecular point of view, these oligomeric surfactants consist of simple monomeric cationic surfactant fragments coupled via the hydrophilic ammonium chloride head groups by spacer groups (different in nature and length). Properties of these cationic surfactant oligomers in aqueous solution such as solubility, micellization and surface activity, micellar size and aggregation number were discussed with respect to the two new molecular variables introduced, i.e. degree of oligomerization and spacer group, in order to establish structure – property relationships. Thus, increasing the degree of oligomerization results in a pronounced decrease of the critical micellization concentration (CMC). Both reduced spacer length and increased spacer hydrophobicity lead to a decrease of the CMC, but to a lesser extent. For these particular compounds, the formed micelles are relatively small and their aggregation number decreases with increasing the degree of oligomerization, increasing spacer length and sterical hindrance. In addition, pseudo-phase diagrams were established for the dimeric surfactants in more complex systems, namely inverse microemulsions, demonstrating again the important influence of the spacer group on the surfactant behaviour. Furthermore, the influence of additives on the property profile of the dimeric compounds was examined, in order to see if the solution properties can be improved while using less material. Strong synergistic effects were observed by adding special organic salts (e.g. sodium salicylate, sodium vinyl benzoate, etc.) to the surfactant dimers in stoichiometric amounts. For such mixtures, the critical aggregation concentration is strongly shifted to lower concentration, the effect being more pronounced for dimers than for analogous monomers. A sharp decrease of the surface tension can also be attained. Many of the organic anions produce viscoelastic solutions when added to the relatively short-chain dimers in aqueous solution, as evidenced by rheological measurements. This behaviour reflects the formation of entangled wormlike micelles due to strong interactions of the anions with the cationic surfactants, decreasing the curvature of the micellar aggregates. It is found that the associative behaviour is enhanced by dimerization. For a given counterion, the spacer group may also induce a stronger viscosifying effect depending on its length and hydrophobicity. Oppositely charged surfactants were combined with the cationic dimers, too. First, some mixtures with the conventional anionic surfactant SDS revealed vesicular aggregates in solution. Also, in view of these catanionic mixtures, a novel anionic dimeric surfactant based on EDTA was synthesized and studied. The synthesis route is relatively simple and the compound exhibits particularly appealing properties such as low CMC and σCMC values, good solubilization capacity of hydrophobic probes and high tolerance to hard water. Noteworthy, mixtures with particular cationic dimers gave rise to viscous solutions, reflecting the micelle growth.
Die Arbeit untersucht die Annahme einer unterschiedlichen Gewichtung von distinktiven enzyklopädischen, funktionalen und sensorischen Merkmalen innerhalb der Repräsentationen von Objekten der belebten und unbelebten semantischen Domäne. Hierzu wurde ein Reaktionszeitexperiment zur Merkmalsverifikation durchgeführt. Vorab wurden deutsche Normen über das geschätzte Erwerbsalter für 244 Stimuli aus dem Korpus von Snodgrass & Vanderwart (1980) erhoben. Weiterhin wurde eine Datenbank von Merkmalsnormen für 80 konkrete Objektbegriffe erstellt. Insgesamt wurden zwei Reaktionszeitexperimente durchgeführt, die sich lediglich durch die Darbietungsdauer des Konzeptbegriffes unterschieden. Der Konzeptbegriff wurde entweder 1000 ms (lange Darbietung) oder 250 ms (kurze Darbietung) präsentiert, bevor das zu verifizierende semantische Merkmal erschien. Bei langer Präsentationszeit des Objektbegriffes zeigten sich für Objekte der unbelebten Domäne schnellere Reaktionszeiten beim Verifizieren von distinktiven funktionalen Merkmalen als beim Verifizieren von distinktiven enzyklopädischen Merkmalen. Dieser Effekt wurde bei kurzer Darbietungsdauer des Konzeptbegriffes repliziert. Bei kurzer Darbietung konnten für Objekte der unbelebten Domäne zusätzlich kürzere Reaktionszeiten beim Verifizieren distinktiver funktionaler Merkmale als beim Verifizieren distinktiver sensorischer Merkmale beobachtet werden. Für Objekte der belebten Domäne lagen weder nach kurzer noch nach langer Präsentation des Objektbegriffes Unterschiede in den Reaktionszeiten beim Verifizieren der semantischen Merkmale vor. Die Ergebnisse werden vor dem Hintergrund aktueller neurolinguistischer Modelle zur Organisation des semantischen Gedächtnisses diskutiert. Die Ergebnisse deuten darauf hin, dass innerhalb der Objektrepräsentationen belebter Objekte alle drei Merkmalstypen interkorrelieren. Für Objekte der unbelebten Domäne werden starke Interkorrelationen zwischen funktionalen und sensorischen Merkmalen angenommen. Zusätzlich wird davon ausgegangen, dass distinktive funktionale Merkmale innerhalb der Repräsentationen unbelebter Objekte besonders stark gewichtet sind.
Die kumulative Dissertation umfasst dreizehn Beiträge, die zwischen 1994 und 2006 aus je aktuellen Forschungszusammenhängen entstanden sind und in unterschiedlichen Zeitschriften und Sammelwerken publiziert wurden. Sie widmen sich Funktion und Leistung der Bibliothek für Bildungsgeschichtliche Forschung (BBF) als bildungshistorischer Forschungsbibliothek, die in einer Einleitung entlang einer professionstheoretischen Fragestellung systematisch eingeordnet werden. Beiträge und Einleitung gehen zum einen auf die Bestandsgeschichte der Vorgängereinrichtungen der BBF ein, die als Gebrauchsbibliotheken insbesondere eine institutionelle Grundlage zur Verberuflichung und Professionalisierung der Lehrer bildeten. Zum anderen widmen sie sich neueren Angeboten der 1992 in eine Forschungsbibliothek umgewandelten Einrichtung, die sich besonders an dem Bedarf des veränderten Adressatenkreises orientieren. Es handelt sich um Dienstleistungen, die einerseits dem Kontext einer digitalen Bibliothek zuzuordnen sind, andererseits das Konzept einer Forschungsbibliothek zu einer Forschungsstätte erweitern, mit der Aufgabe, zur Unterstützung des interdisziplinären und internationalen Diskurses der an Themen zur historischen Bildungsforschung arbeitenden Science Community beizutragen.
Förster Resonance Energy Transfer (FRET) plays an important role for biochemical applications such as DNA sequencing, intracellular protein-protein interactions, molecular binding studies, in vitro diagnostics and many others. For qualitative and quantitative analysis, FRET systems are usually assembled through molecular recognition of biomolecules conjugated with donor and acceptor luminophores. Lanthanide (Ln) complexes, as well as semiconductor quantum dot nanocrystals (QD), possess unique photophysical properties that make them especially suitable for applied FRET. In this work the possibility of using QD as very efficient FRET acceptors in combination with Ln complexes as donors in biochemical systems is demonstrated. The necessary theoretical and practical background of FRET, Ln complexes, QD and the applied biochemical models is outlined. In addition, scientific as well as commercial applications are presented. FRET can be used to measure structural changes or dynamics at distances ranging from approximately 1 to 10 nm. The very strong and well characterized binding process between streptavidin (Strep) and biotin (Biot) is used as a biomolecular model system. A FRET system is established by Strep conjugation with the Ln complexes and QD biotinylation. Three Ln complexes (one with Tb3+ and two with Eu3+ as central ion) are used as FRET donors. Besides the QD two further acceptors, the luminescent crosslinked protein allophycocyanin (APC) and a commercial fluorescence dye (DY633), are investigated for direct comparison. FRET is demonstrated for all donor-acceptor pairs by acceptor emission sensitization and a more than 1000-fold increase of the luminescence decay time in the case of QD reaching the hundred microsecond regime. Detailed photophysical characterization of donors and acceptors permits analysis of the bioconjugates and calculation of the FRET parameters. Extremely large Förster radii of more than 100 Å are achieved for QD as acceptors, considerably larger than for APC and DY633 (ca. 80 and 60 Å). Special attention is paid to interactions with different additives in aqueous solutions, namely borate buffer, bovine serum albumin (BSA), sodium azide and potassium fluoride (KF). A more than 10-fold limit of detection (LOD) decrease compared to the extensively characterized and frequently used donor-acceptor pair of Europium tris(bipyridine) (Eu-TBP) and APC is demonstrated for the FRET system, consisting of the Tb complex and QD. A sub-picomolar LOD for QD is achieved with this system in azide free borate buffer (pH 8.3) containing 2 % BSA and 0.5 M KF. In order to transfer the Strep-Biot model system to a real-life in vitro diagnostic application, two kinds of imunnoassays are investigated using human chorionic gonadotropin (HCG) as analyte. HCG itself, as well as two monoclonal anti-HCG mouse-IgG (immunoglobulin G) antibodies are labeled with the Tb complex and QD, respectively. Although no sufficient evidence for FRET can be found for a sandwich assay, FRET becomes obvious in a direct HCG-IgG assay showing the feasibility of using the Ln-QD donor-acceptor pair as highly sensitive analytical tool for in vitro diagnostics.
The separation of natural and anthropogenically caused climatic changes is an important task of contemporary climate research. For this purpose, a detailed knowledge of the natural variability of the climate during warm stages is a necessary prerequisite. Beside model simulations and historical documents, this knowledge is mostly derived from analyses of so-called climatic proxy data like tree rings or sediment as well as ice cores. In order to be able to appropriately interpret such sources of palaeoclimatic information, suitable approaches of statistical modelling as well as methods of time series analysis are necessary, which are applicable to short, noisy, and non-stationary uni- and multivariate data sets. Correlations between different climatic proxy data within one or more climatological archives contain significant information about the climatic change on longer time scales. Based on an appropriate statistical decomposition of such multivariate time series, one may estimate dimensions in terms of the number of significant, linear independent components of the considered data set. In the presented work, a corresponding approach is introduced, critically discussed, and extended with respect to the analysis of palaeoclimatic time series. Temporal variations of the resulting measures allow to derive information about climatic changes. For an example of trace element abundances and grain-size distributions obtained near the Cape Roberts (Eastern Antarctica), it is shown that the variability of the dimensions of the investigated data sets clearly correlates with the Oligocene/Miocene transition about 24 million years before present as well as regional deglaciation events. Grain-size distributions in sediments give information about the predominance of different transportation as well as deposition mechanisms. Finite mixture models may be used to approximate the corresponding distribution functions appropriately. In order to give a complete description of the statistical uncertainty of the parameter estimates in such models, the concept of asymptotic uncertainty distributions is introduced. The relationship with the mutual component overlap as well as with the information missing due to grouping and truncation of the measured data is discussed for a particular geological example. An analysis of a sequence of grain-size distributions obtained in Lake Baikal reveals that there are certain problems accompanying the application of finite mixture models, which cause an extended climatological interpretation of the results to fail. As an appropriate alternative, a linear principal component analysis is used to decompose the data set into suitable fractions whose temporal variability correlates well with the variations of the average solar insolation on millenial to multi-millenial time scales. The abundance of coarse-grained material is obviously related to the annual snow cover, whereas a significant fraction of fine-grained sediments is likely transported from the Taklamakan desert via dust storms in the spring season.
The terrestrial biosphere impacts considerably on the global carbon cycle. In particular, ecosystems contribute to set off anthropogenic induced fossil fuel emissions and hence decelerate the rise of the atmospheric CO₂ concentration. However, the future net sink strength of an ecosystem will heavily depend on the response of the individual processes to a changing climate. Understanding the makeup of these processes and their interaction with the environment is, therefore, of major importance to develop long-term climate mitigation strategies. Mathematical models are used to predict the fate of carbon in the soil-plant-atmosphere system under changing environmental conditions. However, the underlying processes giving rise to the net carbon balance of an ecosystem are complex and not entirely understood at the canopy level. Therefore, carbon exchange models are characterised by considerable uncertainty rendering the model-based prediction into the future prone to error. Observations of the carbon exchange at the canopy scale can help learning about the dominant processes and hence contribute to reduce the uncertainty associated with model-based predictions. For this reason, a global network of measurement sites has been established that provides long-term observations of the CO₂ exchange between a canopy and the atmosphere along with micrometeorological conditions. These time series, however, suffer from observation uncertainty that, if not characterised, limits their use in ecosystem studies. The general objective of this work is to develop a modelling methodology that synthesises physical process understanding with the information content in canopy scale data as an attempt to overcome the limitations in both carbon exchange models and observations. Similar hybrid modelling approaches have been successfully applied for signal extraction out of noisy time series in environmental engineering. Here, simple process descriptions are used to identify relationships between the carbon exchange and environmental drivers from noisy data. The functional form of these relationships are not prescribed a priori but rather determined directly from the data, ensuring the model complexity to be commensurate with the observations. Therefore, this data-led analysis results in the identification of the processes dominating carbon exchange at the ecosystem scale as reflected in the data. The description of these processes may then lead to robust carbon exchange models that contribute to a faithful prediction of the ecosystem carbon balance. This work presents a number of studies that make use of the developed data-led modelling approach for the analysis and interpretation of net canopy CO₂ flux observations. Given the limited knowledge about the underlying real system, the evaluation of the derived models with synthetic canopy exchange data is introduced as a standard procedure prior to any real data employment. The derived data-led models prove successful in several different applications. First, the data-based nature of the presented methods makes them particularly useful for replacing missing data in the observed time series. The resulting interpolated CO₂ flux observation series can then be analysed with dynamic modelling techniques, or integrated to coarser temporal resolution series for further use e.g., in model evaluation exercises. However, the noise component in these observations interferes with deterministic flux integration in particular when long time periods are considered. Therefore, a method to characterise the uncertainties in the flux observations that uses a semi-parametric stochastic model is introduced in a second study. As a result, an (uncertain) estimate of the annual net carbon exchange of the observed ecosystem can be inferred directly from a statistically consistent integration of the noisy data. For the forest measurement sites analysed, the relative uncertainty for the annual sum did not exceed 11 percent highlighting the value of the data. Based on the same models, a disaggregation of the net CO₂ flux into carbon assimilation and respiration is presented in a third study that allows for the estimation of annual ecosystem carbon uptake and release. These two components can then be further analysed for their separate response to environmental conditions. Finally, a fourth study demonstrates how the results from data-led analyses can be turned into a simple parametric model that is able to predict the carbon exchange of forest ecosystems. Given the global network of measurements available the derived model can now be tested for generality and transferability to other biomes. In summary, this work particularly highlights the potential of the presented data-led methodologies to identify and describe dominant carbon exchange processes at the canopy level contributing to a better understanding of ecosystem functioning.
Polyelectrolyte microcapsules containing stimuli-responsive polymers have potential applications in the fields of sensors or actuators, stimulable microcontainers and controlled drug delivery. Such capsules were prepared, with the focus on pH-sensitivity and carbohydrate-sensing. First, pH-responsive polyelectrolyte capsules were produced by means of electrostatic layer-by-layer assembly of oppositely charged weak polyelectrolytes onto colloidal templates that were subsequently removed. The capsules were composed of poly(allylamine hydrochloride) (PAH) and poly(methacrylic acid) (PMA) or poly(4-vinylpyridine) (P4VP) and PMA and varied considerably in their hydrophobicity and the influence of secondary interactions. These polymers were assembled onto CaCO3 and SiO2 particles with diameters of ~ 5 µm, and a new method for the removal of the silica template under mild conditions was proposed. The pH-dependent stability of PAH/PMA and P4VP/PMA capsules was studied by confocal laser scanning microscopy (CLSM). They were stable over a wide pH-range and exhibited a pronounced swelling at the edges of stability, which was attributed to uncompensated positive or negative charges within the multilayers. The swollen state could be stabilized when the electrostatic repulsion was counteracted by hydrogen-bonding, hydrophobic interactions or polymeric entanglement. This stabilization made it possible to reversibly swell and shrink the capsules by tuning the pH of the solution. The pH-dependent ionization degree of PMA was used to modulate the binding of calcium ions. In addition to the pH-sensitivity, the stability and the swelling degree of these capsules at a given pH could be modified, when the ionic strength of the medium was altered. The reversible swelling was accompanied by reversible permeability changes for low and high molecular weight substances. The permeability for glucose was evaluated by studying the time-dependence of the buckling of the capsule walls in glucose solutions and the reversible permeability modulation was used for the encapsulation of polymeric material. A theoretical model was proposed to explain the pH-dependent size variations that took into account an osmotic expanding force and an elastic restoring force to evaluate the pH-dependent size changes of weak polyelectrolyte capsules. Second, sugar-sensitive multilayers were assembled using the reversible covalent ester formation between the polysaccharide mannan and phenylboronic acid moieties that were grafted onto poly(acrylic acid) (PAA). The resulting multilayer films were sensitive to several carbohydrates, showing the highest sensitivity to fructose. The response to carbohydrates resulted from the competitive binding of small molecular weight sugars and mannan to the boronic acid groups within the film, and was observed as a fast dissolution of the multilayers, when they were brought into contact with the sugar-containing solution above a critical concentration. It was also possible to prepare carbohydrate-sensitive multilayer capsules, and their sugar-dependent stability was investigated by following the release of encapsulated rhodamine-labeled bovine serum albumin (TRITC-BSA).
Semantische Repräsentation, obligatorische Aktivierung und verbale Produktion arithmetischer Fakten
(2006)
Die vorliegende Arbeit widmet sich der Repräsentation und Verarbeitung arithmetischer Fakten. Dieser Bereich semantischen Wissens eignet sich unter anderem deshalb besonders gut als Forschungsgegenstand, weil nicht nur seine einzelne Bestandteile, sondern auch die Beziehungen dieser Bestandteile untereinander außergewöhnlich gut definierbar sind. Kognitive Modelle können also mit einem Grad an Präzision entwickelt werden, der in anderen Bereichen kaum je zu erreichen sein wird. Die meisten aktuellen Modelle stimmen darin überein, die Repräsentation arithmetischer Fakten als eine assoziative, netzwerkartig organisierte Struktur im deklarativen Gedächtnis zu beschreiben. Trotz dieser grundsätzlichen Übereinstimmung bleibt eine Reihe von Fragen offen. In den hier vorgestellten Untersuchungen werden solche offene Fragen in Hinsicht auf drei verschiedene Themenbereiche angegangen: 1) die neuroanatomischen Korrelate 2) Nachbarschaftskonsistenzeffekte bei der verbalen Produktion sowie 3) die automatische Aktivierung arithmetischer Fakten. In einer kombinierten fMRT- und Verhaltensstudie wurde beispielsweise der Frage nachgegangen, welche neurofunktionalen Entsprechungen es für den Erwerb arithmetischer Fakten bei Erwachsenen gibt. Den Ausgangspunkt für diese Untersuchung bildete das Triple-Code-Modell von Dehaene und Cohen, da es als einziges auch Aussagen über neuroanatomische Korrelate numerischer Leistungen macht. Das Triple-Code-Modell geht davon aus, dass zum Abruf arithmetischer Fakten eine „perisylvische“ Region der linken Hemisphäre unter Einbeziehung der Stammganglien sowie des Gyrus angularis nötig ist (Dehaene & Cohen, 1995; Dehaene & Cohen, 1997; Dehaene, Piazza, Pinel, & Cohen, 2003). In der aktuellen Studie sollten gesunde Erwachsene komplexe Multiplikationsaufgaben etwa eine Woche lang intensiv üben, so dass ihre Beantwortung immer mehr automatisiert erfolgt. Die Lösung dieser geübten Aufgaben sollte somit – im Gegensatz zu vergleichbaren ungeübten Aufgaben – immer stärker auf Faktenabruf als auf der Anwendung von Prozeduren und Strategien beruhen. Hingegen sollten ungeübte Aufgaben im Vergleich zu geübten höhere Anforderungen an exekutive Funktionen einschließlich des Arbeitsgedächtnisses stellen. Nach dem Training konnten die Teilnehmer – wie erwartet – geübte Aufgaben deutlich schneller und sicherer beantworten als ungeübte. Zusätzlich wurden sie auch im Magnetresonanztomografen untersucht. Dabei konnte zunächst bestätigt werden, dass das Lösen von Multiplikationsaufgaben allgemein von einem vorwiegend linkshemisphärischen Netzwerk frontaler und parietaler Areale unterstützt wird. Das wohl wichtigste Ergebnis ist jedoch eine Verschiebung der Hirnaktivierungen von eher frontalen Aktivierungsmustern zu einer eher parietalen Aktivierung und innerhalb des Parietallappens vom Sulcus intraparietalis zum Gyrus angularis bei den geübten im Vergleich zu den ungeübten Aufgaben. So wurde die zentrale Bedeutung von Arbeitsgedächtnis- und Planungsleistungen für komplexe ungeübte Rechenaufgaben erneut herausgestellt. Im Sinne des Triple-Code-Modells könnte die Verschiebung innerhalb des Parietallappens auf einen Wechsel von quantitätsbasierten Rechenleistungen (Sulcus intraparietalis) zu automatisiertem Faktenabruf (linker Gyrus angularis) hindeuten. Gibt es bei der verbalen Produktion arithmetischer Fakten Nachbarschaftskonsistenzeffekte ähnlich zu denen, wie sie auch in der Sprachverarbeitung beschrieben werden? Solche Effekte sind nach dem aktuellen „Dreiecksmodell“ von Verguts & Fias (2004) zur Repräsentation von Multiplikationsfakten erwartbar. Demzufolge sollten richtige Antworten leichter gegeben werden können, wenn sie Ziffern mit möglichst vielen semantisch nahen falschen Antworten gemeinsam haben. Möglicherweise sollten demnach aber auch falsche Antworten dann mit größerer Wahrscheinlichkeit produziert werden, wenn sie eine Ziffer mit der richtigen Antwort teilen. Nach dem Dreiecksmodell wäre darüber hinaus sogar der klassische Aufgabengrößeneffekt bei einfachen Multiplikationsaufgaben (Zbrodoff & Logan, 2004) auf die Konsistenzverhältnisse der richtigen Antwort mit semantisch benachbarten falschen Antworten zurückzuführen. In einer Reanalyse der Fehlerdaten von gesunden Probanden (Campbell, 1997) und einem Patienten (Domahs, Bartha, & Delazer, 2003) wurden tatsächlich Belege für das Vorhandensein von Zehnerkonsistenzeffekten beim Lösen einfacher Multiplikationsaufgaben gefunden. Die Versuchspersonen bzw. der Patient hatten solche falschen Antworten signifikant häufiger produziert, welche die gleiche Zehnerziffer wie das richtigen Ergebnisses aufwiesen, als ansonsten vergleichbare andere Fehler. Damit wird die Annahme unterstützt, dass die Zehner- und die Einerziffern zweistelliger Zahlen separate Repräsentationen aufweisen – bei der Multiplikation (Verguts & Fias, 2004) wie auch allgemein bei numerischer Verarbeitung (Nuerk, Weger, & Willmes, 2001; Nuerk & Willmes, 2005). Zusätzlich dazu wurde in einer Regressionsanalyse über die Fehlerzahlen auch erstmalig empirische Evidenz für die Hypothese vorgelegt, dass der klassische Aufgabengrößeneffekt beim Abruf von Multiplikationsfakten auf Zehnerkonsistenzeffekte zurückführbar ist: Obwohl die Aufgabengröße als erster Prädiktor in das Modell einging, wurde diese Variable wieder verworfen, sobald ein Maß für die Nachbarschaftskonsistenz der richtigen Antwort in das Modell aufgenommen wurde. Schließlich wurde in einer weiteren Studie die automatische Aktivierung von Multiplikationsfakten bei gesunden Probanden mit einer Zahlenidentifikationsaufgabe (Galfano, Rusconi, & Umilta, 2003; Lefevre, Bisanz, & Mrkonjic, 1988; Thibodeau, Lefevre, & Bisanz, 1996) untersucht. Dabei sollte erstmals die Frage beantwortet werden, wie sich die automatische Aktivierung der eigentlichen Multiplikationsergebnisse (Thibodeau et al., 1996) zur Aktivierung benachbarter falscher Antworten (Galfano et al., 2003) verhält. Ferner sollte durch die Präsentation mit verschiedenen SOAs der zeitliche Verlauf dieser Aktivierungen aufgeklärt werden. Die Ergebnisse dieser Studie können insgesamt als Evidenz für das Vorhandensein und die automatische, obligatorische Aktivierung eines Netzwerkes arithmetischer Fakten bei gesunden, gebildeten Erwachsenen gewertet werden, in dem die richtigen Produkte stärker mit den Faktoren assoziiert sind als benachbarte Produkte (Operandenfehler). Dabei führen Produkte kleiner Aufgaben zu einer stärkeren Interferenz als Produkte großer Aufgaben und Operandenfehler großer Aufgaben zu einer stärkeren Interferenz als Operandenfehler kleiner Aufgaben. Ein solches Aktivierungsmuster passt gut zu den Vorhersagen des Assoziationsverteilungsmodells von Siegler (Lemaire & Siegler, 1995; Siegler, 1988), bei dem kleine Aufgaben eine schmalgipflige Verteilung der Assoziationen um das richtige Ergebnis herum aufweisen, große Aufgaben jedoch eine breitgipflige Verteilung. Somit sollte die vorliegende Arbeit etwas mehr Licht in bislang weitgehend vernachlässigte Aspekte der Repräsentation und des Abrufs arithmetischer Fakten gebracht haben: Die neuronalen Korrelate ihres Erwerbs, die Konsequenzen ihrer Einbindung in das Stellenwertsystem mit der Basis 10 sowie die spezifischen Auswirkungen ihrer assoziativen semantischen Repräsentation auf ihre automatische Aktivierbarkeit. Literatur Campbell, J. I. (1997). On the relation between skilled performance of simple division and multiplication. Journal of Experimental Psychology: Learning, Memory, and Cognition, 23, 1140-1159. Dehaene, S. & Cohen, L. (1995). Towards an anatomical and functional model of number processing. Mathematical Cognition, 1, 83-120. Dehaene, S. & Cohen, L. (1997). Cerebral pathways for calculation: double dissociation between rote verbal and quantitative knowledge of arithmetic. Cortex, 33, 219-250. Dehaene, S., Piazza, M., Pinel, P., & Cohen, L. (2003). Three parietal circuits for number processing. Cognitive Neuropsychology, 20, 487-506. Domahs, F., Bartha, L., & Delazer, M. (2003). Rehabilitation of arithmetic abilities: Different intervention strategies for multiplication. Brain and Language, 87, 165-166. Galfano, G., Rusconi, E., & Umilta, C. (2003). Automatic activation of multiplication facts: evidence from the nodes adjacent to the product. Quarterly Journal of Experimental Psychology A, 56, 31-61. Lefevre, J. A., Bisanz, J., & Mrkonjic, L. (1988). Cognitive arithmetic: evidence for obligatory activation of arithmetic facts. Memory and Cognition, 16, 45-53. Lemaire, P. & Siegler, R. S. (1995). Four aspects of strategic change: contributions to children's learning of multiplication. Journal of Experimental Psychology: General, 124, 83-97. Nuerk, H. C., Weger, U., & Willmes, K. (2001). Decade breaks in the mental number line? Putting the tens and units back in different bins. Cognition, 82, B25-B33. Nuerk, H. C. & Willmes, K. (2005). On the magnitude representations of two-digit numbers. Psychology Science, 47, 52-72. Siegler, R. S. (1988). Strategy choice procedures and the development of multiplication skill. Journal of Experimental Psychology: General, 117, 258-275. Thibodeau, M. H., Lefevre, J. A., & Bisanz, J. (1996). The extension of the interference effect to multiplication. Canadian Journal of Experimental Psychology, 50, 393-396. Verguts, T. & Fias, W. (2004). Neighborhood Effects in Mental Arithmetic. Psychology Science. Zbrodoff, N. J. & Logan, G. D. (2004). What everyone finds: The problem-size effect. In J. I. D. Campbell (Hrsg.), Handbook of Mathematical Cognition (pp.331-345). New York, NY: Psychology Press.
When top sports performers fail or “choke” under pressure, everyone asks: why? Research has identified a number of conditions (e.g. an audience) that elicit choking and that moderate (e.g. trait-anxiety) pressure – performance relation. Furthermore, mediating processes have been investigated. For example, explicit monitoring theories link performance failure under psychological stress to an increase in attention paid to a skill and its step-by-step execution (Beilock & Carr, 2001). Many studies have provided support for these ideas. However, so far only overt performance measures have been investigated which do not allow more thorough analyses of processes or performance strategies. But also a theoretical framework has been missing, that could (a) explain the effects of explicit monitoring on skill execution and that (b) makes predictions as to what is being monitored during execution. Consequently in this study, the nodalpoint hypothesis of motor control (Hossner & Ehrlenspiel, 2006) was taken to predict movement changes on three levels of analysis at certain “nodalpoints” within the movement sequence. Performance in two different laboratory tasks was assessed with respect to overt performance (the observable result, for example accuracy in the target), covert performance (description of movement execution, for example the acceleration of body segements) and task exploitation (the utilization of task properties such as covariation). A fake competition (see Beilock & Carr, 2002) was used to invoke pressure. In study 1 a ball bouncing task in a virtual-reality set-up was chosen. Previous studies (de Rugy, Wei, Müller, & Sternad, 2003) have shown that learners are usually able to “passively” exploit the dynamical stability of the system. According to explicit monitoring theories, choking should be expected either if the task itself evokes an “active control” (Experiment 1) or if learners are provided with explicit instructions (Experiment 2). In both experiments, participants first went through a practice phase on day 1. On day 2, following the Baseline Test participants were divided into a High-Stress or No-Stress Group for the final Performance Test. The High-Stress Group entered a fake competition. Overt performance was measured by the Absolute Error (AE) of ball amplitudes from target height; covert performance was measured by Period Modulation between successive hits and task exploitation was measured by Acceleration (AC) at ball-racket impact and Covariation (COV) of impact parameters. To evoke active control in Exp. 1 (N=20), perturbations to the ball flight were introduced. In Exp. 2 (N=39) half of the participants received explicit skill-focused instructions during learning. For overt performance, results generally show an interaction between Stress Group and Test, with better performance (i. e. lower AE) for the High-Stress group in the final Performance Test. This effect is also independent of the Instructions that participants had received during learning (Exp. 2). Similar effects were found for COV but not for AC. In study 2 a visuomotor tracking task in which participants had to pursuit a target cross that was moving on an invisible curve. This curve consisted of 3 segments of 6 turning points sequentially ordered around the x-axis. Participants learned two short movement sequences which were then concatenated to form a single sequence. It was expected that under pressure, this sequence should “fall apart” at the point of concatenation. Overt Performance was assessed by the Root Mean Square Error between target and pursuit cross as well as the Absolute Error at the turning points, covert performance was measured by the Latency from target to pursuit turning and task exploitation was measured by the temporal covariation between successive intervals between turning points. Experiment 3 (intraindividual variation) as well as Experiment 4 (interindividual variation) show performance enhancement in the pressure situation on the overt level with matching results on covert and task exploitation level. Thus, contrary to previous studies, no choking under pressure was found in any of the experiments. This may be interpreted as a failure in the experimental manipulation. But certainly also important characteristics of the task are highlighted. Choking should occur in tasks where performers do not have the time to use action or thought control strategies, that are more relevant to their “self” and that are discrete in nature.
In der vorliegenden Arbeit wurden cDNAs, kodierend für bisher unbekannte stärkeabbauende Enzyme, aus Kartoffel isoliert und funktionell analysiert. Die Isolation der cDNAs erfolgte mit Hilfe eines Systems, welches sich der funktionellen Expression von cDNA-Bibliotheken in E. coli bediente. Die mit diesem System zur Expression gebrachten cDNA-Bibliotheken wurden im Rahmen dieser Arbeit hergestellt. Zum einen handelte es sich um eine blattspezifische Phagen-cDNA-Bibliothek (Proben wurden während des Tag/Nacht Übergangs genommen), zum anderen um eine knollenspezifische cDNA-Bibliothek aus kaltgelagerten Knollen. Nach der Überführung der Phagen-Bibliotheken in Plasmid-Bibliotheken wurden diese funktionell in dem E. coli Stamm KV832 exprimiert. Der Stamm KV832 wurde aufgrund seiner Fähigkeit, lineare Glucane zu akkumulieren, ausgewählt. Werden Glucan akkumulierende KV832 Kolonien mit Jod bedampft, so zeigen diese eine typische Blaufärbung. Nach der Expression der Plasmid-Bibliotheken in KV832 wurden solche Kolonien weiter untersucht, welche in ihrer Färbung von den blauen Kolonien abwichen. Mittels eines zweiten E. coli Stamms, PGM −, welcher ebenfalls in der Lage ist, lineare Glucane zu akkumulieren, wurden die Ergebnisse für KV832 bestätigt. Die funktionelle Expression der Bibliotheken führte zur Isolation einer Reihe von unbekannten cDNAs. Zwei dieser cDNAs wurden im Rahmen dieser Arbeit weiterführend untersucht. Zum einen handelte es sich um eine cDNA, die für eine bis dahin unbekannte β-Amylase aus Kartoffel kodierte und deren Homolog aus Arabidopsis (CT-BMY) im Laufe dieser Arbeit von Lao et al. (1999) veröffentlicht wurde, zum anderen um eine cDNA, die für ein unbekanntes Enzym kodierte (DSD10). Das Arabidopsis Homolog zu DSD10 wurde im Zuge der Arabidopsis Genominitiative Ende 2000 publiziert. Im Rahmen dieser Arbeit konnte gezeigt werden, dass die isolierte β-Amylase cDNA für eine funktionelle β-Amylase kodiert und dieses Enzym in der Lage ist, neben löslicher auch rohe Stärke anzugreifen. Lokalisationsexperimente zeigten, dass das Enzym in isolierte Erbsenchloroplasten importiert wurde und dass die 100 N-terminalen Aminosäuren für den Import in die Plastiden ausreichten. Die β-Amylase wurde als PCT-BMYI bezeichnet. Die »antisense«-Inhibierung von PCT-BMYI führte zu einem Hochstärke-Phänotyp der Blätter, sowie zu einem Anstieg der Trockenmasse. Der Hochstärke-Phänotyp ist auf eine Reduktion der Stärkemobilisierung und die daraus folgende Akkumulation der Stärke während der Vegetationsperiode zurückzuführen. Damit konnte erstmals die physiologische Bedeutung einer β-Amylase für den Abbau der transitorischen Stärke gezeigt werden. Kein Einfluss zeigte die »antisense« Inhibierung von PCT-BMYI auf den kälteinduzierten Abbau der Speicherstärke in Knollen. Es konnte auch kein Unterschied im Keimverhalten oder der Entwicklung der neuen Pflanze beobachtet werden. Ein Teil der Ergebnisse zu PCT-BMYI wurde bereits publiziert (Scheidig et al., 2002). Die isolierten cDNAs dsd10, sgeI (die Volllängen cDNA zu dsd10) und das Arabidopsis Homolog asgeI kodieren für Enzyme, welche α-Amylase-Aktivität besitzen, aber keine Homologie zu bekannten α-Amylasen aufweisen. Ein mögliches Glucoamylase Motiv erwies sich für die Aktivität des Proteins als essentiell. Lokalisationsexperimente deuteten auf den Import des SGEI Proteins in isolierte Erbsenchloroplasten hin. Die »antisense«-Inhibierung von sgeI führte in den entsprechenden Linien zu einem Hochstärke-Phänotyp in Blättern, einem Anstieg der Trockenmasse in Blättern, sowie zu größeren Stärkekörnern in einer der untersuchten Linien. Ein nicht erwarteter Effekt zeigte sich in Blättern der entsprechenden Linien, welche für längere Zeit dunkel gehalten wurden. Die Blätter der untransformierten Kontrolle waren abgestorben, wohingegen die Blätter der SGEI »antisense« Linien grün und vital erschienen. Die α- und β-Amylase-Aktivität war in Blättern der SGEI »antisense« Linien reduziert, weshalb eine genaue Zuordnung der Funktion von SGEI nicht möglich war. Die vorliegenden Ergebnisse zu den SGEI »antisense« Linien deuten aber darauf hin, dass der beobachtete Hochstärke-Phänotyp nicht alleine auf die Reduktion der β-Amylase-Aktivität zurückzuführen ist. Ein Einfluss von SGEI auf den kälteinduzierten Abbau der Speicherstärke konnte nicht beobachtet werden. Es konnte auch hier kein Unterschied im Keimverhalten oder der Entwicklung der neuen Pflanze beobachtet werden.
Variationen der stratosphärischen Residualzirkulation und ihr Einfluss auf die Ozonverteilung
(2006)
Die Residualzirkulation entspricht der mittleren Massenzirkulation und beschreibt die im zonalen Mittel stattfindenden meridionalen Transportprozesse. Die Variationen der Residualzirkulation bestimmen gemeinsam mit dem anthropogen verursachten Ozonabbau die jährlichen Schwankungen der Ozongesamtsäule im arktischen Frühling. In der vorliegenden Arbeit wird die Geschwindigkeit des arktischen Astes der Residualzirkulation aus atmosphärischen Daten gewonnen. Zu diesem Zweck wird das diabatische Absinken im Polarwirbel mit Hilfe von Trajektorienrechnungen bestimmt. Die vertikalen Bewegungen der Luftpakete können mit vertikalen Windfeldern oder entsprechend einem neuen Ansatz mit diabatischen Heizraten angetrieben werden. Die Eingabedaten stammen aus dem 45 Jahre langen Reanalyse-Datensatz des "European Centre for Medium Range Weather Forecast" (ECMWF). Außerdem kann für die Jahre ab 1984 die operationelle ECMWF-Analyse verwendet werden. Die Qualität und Robustheit der Heizraten- und Trajektorienrechnungen werden durch Sensitivitätsstudien und Vergleiche mit anderen Modellen untermauert. Anschließend werden umfangreiche Trajektorienensemble statistisch ausgewertet, um ein detailliertes, zeit- und höhenaufgelöstes Bild des diabatischen Absinkens zu ermitteln. In diesem Zusammenhang werden zwei Methoden entwickelt, um das Absinken gemittelt im Polarwirbel oder als Funktion der äquivalenten Breite zu bestimmen. Es wird gezeigt, dass es notwendig ist den Lagrangeschen auf Trajektorienrechnungen basierenden Ansatz zu verfolgen, da die einfachen Eulerschen Mittel Abweichungen zu den Lagrangeschen Vertikalgeschwindigkeiten aufweisen. Das wirbelgemittelte Absinken wird für einzelne Winter mit dem beobachteten Absinken langlebiger Spurengase und anderen Modellstudien verglichen. Der Vergleich zeigt, dass das Absinken basierend auf den vertikalen Windfeldern der ECMWF-Datensätze den Nettoluftmassentransport durch die Residualzirkulation sehr stark überschätzt. Der neue Ansatz basierend auf den Heizraten ergibt hingegen realistische Ergebnisse und wird aus diesem Grund für alle Rechnungen verwendet. Es wird erstmalig eine Klimatologie des diabatischen Absinkens über einen fast fünf Jahrzehnte umfassenden Zeitraum erstellt. Die Klimatologie beinhaltet das vertikal und zeitlich aufgelöste diabatische Absinken gemittelt über den gesamten Polarwirbel und Informationen über die räumliche Struktur des vertikalen Absinkens. Die natürliche Jahr-zu-Jahr Variabilität des diabatischen Absinkens ist sehr stark ausgeprägt. Es wird gezeigt, dass zwischen der ECMWF-Zeitreihe des diabatischen Absinkens und der Zeitreihe aus einem unabhängig analysierten Temperaturdatensatz hohe Korrelationen bestehen. Erstmals wird der Einfluss von Transportprozessen auf die Ozongesamtsäule im arktischen Frühling direkt quantifiziert. Es wird gezeigt, dass die Jahr-zu-Jahr Variabilität der Ozongesamtsäule im arktischen Frühling zu gleichen Anteilen durch die Variabilität der dynamischen Komponente und durch die Variabilität der chemischen Komponente beeinflusst wird. Die gefundenen Variabilitäten von diabatischem Absinken und Ozoneintrag in hohen Breiten werden mit der vertikalen Ausbreitung planetarer Wellen aus der Troposphäre in die Stratosphäre in Beziehung gesetzt.
Our work goes in two directions. At first we want to transfer definitions, concepts and results of the theory of hyperidentities and solid varieties from the total to the partial case. (1) We prove that the operators chi^A_RNF and chi^E_RNF are only monotone and additive and we show that the sets of all fixed points of these operators are characterized only by three instead of four equivalent conditions for the case of closure operators. (2) We prove that V is n − SF-solid iff clone^SF V is free with respect to itself, freely generated by the independent set {[fi(x_1, . . . , x_n)]Id^SF_n V | i \in I}. (3) We prove that if V is n-fluid and ~V |P(V ) =~V −iso |P(V ) then V is kunsolid for k >= n (where P(V ) is the set of all V -proper hypersubstitutions of type \tau ). (4) We prove that a strong M-hyperquasi-equational theory is characterized by four equivalent conditions. The second direction of our work is to follow ideas which are typical for the partial case. (1) We characterize all minimal partial clones which are strongly solidifyable. (2)We define the operator Chi^A_Ph where Ph is a monoid of regular partial hypersubstitutions.Using this concept, we define the concept of a Phyp_R(\tau )-solid strong regular variety of partial algebras and we prove that a PHyp_R(\tau )-solid strong regular variety satisfies four equivalent conditions.
The formation of colloids by the controlled reduction, nucleation, and growth of inorganic precursor salts in different media has been investigated for more than a century. Recently, the preparation of ultrafine particles has received much attention since they can offer highly promising and novel options for a wide range of technical applications (nanotechnology, electrooptical devices, pharmaceutics, etc). The interest derives from the well-known fact that properties of advanced materials are critically dependent on the microstructure of the sample. Control of size, size distribution and morphology of the individual grains or crystallites is of the utmost importance in order to obtain the material characteristics desired. Several methods can be employed for the synthesis of nanoparticles. On the one hand, the reduction can occur in diluted aqueous or alcoholic solutions. On the other hand, the reduction process can be realized in a template phase, e.g. in well-defined microemulsion droplets. However, the stability of the nanoparticles formed mainly depends on their surface charge and it can be influenced with some added protective components. Quite different types of polymers, including polyelectrolytes and amphiphilic block copolymers, can for instance be used as protecting agents. The reduction and stabilization of metal colloids in aqueous solution by adding self-synthesized hydrophobically modified polyelectrolytes were studied in much more details. The polymers used are hydrophobically modified derivatives of poly(sodium acrylate) and of maleamic acid copolymers as well as the commercially available branched poly(ethyleneimine). The first notable result is that the polyelectrolytes used can act alone as both reducing and stabilizing agent for the preparation of gold nanoparticles. The investigation was then focused on the influence of the hydrophobic substitution of the polymer backbone on the reduction and stabilization processes. First of all, the polymers were added at room temperature and the reduction process was investigated over a longer time period (up to 8 days). In comparison, the reduction process was realized faster at higher temperature, i.e. 100°C. In both cases metal nanoparticles of colloidal dimensions can be produced. However, the size and shape of the individual nanoparticles mainly depends on the polymer added and the temperature procedure used. In a second part, the influence of the prior mentioned polyelectrolytes was investigated on the phase behaviour as well as on the properties of the inverse micellar region (L2 phase) of quaternary systems consisting of a surfactant, toluene-pentanol (1:1) and water. The majority of the present work has been made with the anionic surfactant sodium dodecylsulfate (SDS) and the cationic surfactant cetyltrimethylammonium bromide (CTAB) since they can interact with the oppositely charged polyelectrolytes and the microemulsions formed using these surfactants present a large water-in-oil region. Subsequently, the polymer-modified microemulsions were used as new templates for the synthesis of inorganic particles, ranging from metals to complex crystallites, of very small size. The water droplets can indeed act as nanoreactors for the nucleation and growth of the particles, and the added polymer can influence the droplet size, the droplet-droplet interactions, as well as the stability of the surfactant film by the formation of polymer-surfactant complexes. One further advantage of the polymer-modified microemulsions is the possibility to stabilize the primary formed nanoparticles via a polymer adsorption (steric and/or electrostatic stabilization). Thus, the polyelectrolyte-modified nanoparticles formed can be redispersed without flocculation after solvent evaporation.
Die Zahl der Kolonkarzinome in den westlichen Industrieländern steigt in den letzten Jahren stetig an. Zu den Verbindungen, die mit der Zubereitung der Nahrung entstehen, mit ihr aufgenommen werden und die Kolonkanzerogenese möglicherweise begünstigen, gehört das heterozyklische aromatische PhIP, das bei der Erhitzung proteinreicher Nahrungsmittel entsteht. Neben zahlreichen Fütterungsversuchen an Nagern existieren auch Zellkulturmodelle zur Untersuchung der molekularen Mechanismen der PhIP-induzierten Kolonkanzerogenese. Die chemische Transformation von Zellen sollte durch wiederholte Exposition gegenüber dem hydroxylierten Metaboliten des Kanzerogens (N2-OH-PhIP) erzielt werden. Es wurden IEC-18-Zellen der Ratte und HCEC-Zellen des Menschen zur Untersuchung verwendet. Die Behandlung der IEC-18-Zellen führt nach 25 Behandlungszyklen mit Konzentrationen von 5 bis 20 µM nicht zur Transformation der Zellen. Die Anwesenheit von N2-OH-PhIP führt zu einer zehnfach erhöhten Induktion der GST-Aktivität, insbesondere der Untereinheiten GST-A1, -A3, -Pi und -T2, die für die effiziente Detoxifizierung des N-Acetoxy-Metaboliten vom N2-OH-PhIP verantwortlich sind. Bereits nach drei Behandlungen mit 1,5 µM N2-OH-PhIP konnte eine maligne Transformation der HCEC-Zellen erzielt werden. Die Zellen zeigten die charakteristischen Zeichen der Transformation: veränderte Wachstumseigenschaften wie klonales dreidimensionales Zellwachstum („pilling up“), Hemmung der Zell-Zell-Kontaktinhibierung, verkürzte Populationsverdopplungszeiten und tumorigene und metastasierende Eigenschaften. Außerdem exprimierten die N2-OH-PhIP-exponierten humanen Kolonzellen mit steigender Anzahl der Behandlungen größere Mengen des trunkierten APC-Proteins. Die bekannten PhIP-spezifischen Mutationen im APC-Gen resultieren in der Expression eines trunkierten Proteinproduktes und werden als frühe Ereignisse in der Kolonkanzerogenese betrachtet. Die zusammenfassende Betrachtung aller Ergebnisse zeigt, dass die IEC-18-Zelllinie zur chemischen Transformation durch N2-OH-PhIP ungeeignet ist. Dagegen wurde erstmalig eine vollständige chemische Transformation von Humandickdarmepithelzellen in vitro durch Exposition der humanen Kolonepithelzelllinie HCEC gegenüber dem Kolonkarzinogen N2-OH-PhIP erzielt.
Unter dem Eindruck einer zunehmenden Einengung finanzieller Spielräume entwickelt die öffentliche Hand Strategien zur Haushaltskonsolidierung, die über den Einsatz des Neuen Steuerungsmodells hinausgehen. Eine zentrale Bedeutung im Rahmen der Verwaltungsoptimierung nehmen aufgaben- und organisationskritische Ansätze ein. Letztgenannte umfassen Überlegungen, wie durch eine Ablösung hergebrachter behördlicher Strukturen nachhaltige Entlastungseffekte ausgelöst werden können. Das Organisationsrecht kennt hierfür auf allen Verwaltungsebenen grundsätzlich zahlreiche Ausgestaltungen von der Beleihung Privater Dritter über Beteiligungsgesellschaften, Anstalten oder Stiftungen bis hin zu Regiebetrieben. Die verbleibenden Möglichkeiten einer Einflussnahme durch Politik und Verwaltung gestalten sich. Im Interesse einer hinreichenden Steuerung durch politische und administrative Leitungsinstanzen erfahren Landesbetriebe nach § 26 der Landeshaushaltsordnungen in den letzten Jahren in vielen Landesverwaltungen eine Renaissance. Obgleich die betreffende Ermächtigung seit 1969 im Haushaltsrecht verankert ist und bereits Gegenstand der Reichshaushaltsordnung war, liegen kaum systematisierte Erkenntnisse über den Einsatz dieser Organisationsform vor. In den Rechts-, Wirtschafts- und Verwaltungswissenschaften finden sich praktisch keine über den Wortlaut des Gesetzes und hierzu kaum ergangene Verwaltungsvorschriften hinausgehenden Hilfestellungen. Die Arbeit widmet sich dem Modell „Landesbetrieb nach § 26 LHO“, indem sie damit verbundene Entwicklungspotenziale für ein betriebswirtschaftliches Handeln und Rahmenbedingungen seines Einsatzes beleuchtet. Sie stellt den Landesbetrieb dabei in ein Verhältnis zu Behörden, welche unter Anwendung von Elementen des Neuen Steuerungsmodells geführt werden und privatrechtlich ausgestalteten Unternehmen. Zu diesem Zweck erfolgt eine vertiefte empirische Untersuchung der Landesbetriebe im amtlichen Geoinformationswesen, welche eine breite Aufgabenpalette aufweisen. Die in diesem Rahmen vollzogene Primäranalyse wird im Interesse einer Verbreiterung der Aussagekraft der Ergebnisse ergänzt um ausgewählte Sekundäranalysen zur praktischen Ausgestaltung weiterer Landesbetriebe insbesondere in den Bereichen Bau- und Liegenschaftsmanagement, Mess- und Eichwesen und der Datenverarbeitung. Ergänzend zu den deskriptiven Darstellungen der empirischen Betrachtung werden normative Betrachtungen für die einzelnen betriebswirtschaftlichen Funktionalbereiche vorgenommen soweit hier spezifische Problemstellungen in der Praxis der Landesbetriebe bekannt geworden sind. Im Ergebnis kommt die Arbeit zu der Erkenntnis, dass Landesbetriebe ein Entwicklungspotenzial über das Neue Steuerungsmodell hinaus bergen, dieses aber weniger als erwartet im Bereich der Finanzwirtschaft und damit in der tatsächlichen Haushaltskonsolidierung liegt, als vielmehr in der strukturellen Optimierung der Verhältnisse zwischen, Betriebsleitung, Kunden sowie administrativer und politischer Spitze und der Gestaltungsräume der einzelnen Akteure.
The limited capacity of working memory forces people to update its contents continuously. Two aspects of the updating process were investigated in the present experimental series. The first series concerned the question if it is possible to update several representations in parallel. Similar results were obtained for the updating of object features as well as for the updating of whole objects, participants were able to update representations in parallel. The second experimental series addressed the question if working memory representations which were replaced in an updating disappear directly or interfere with the new representations. Evidence for the existence of old representations was found under working memory conditions and under conditions exceeding working memory capacity. These results contradict the hypothesis that working memory contents are protected from proactive interference of long-term memory contents.
Semiclassical asymptotics for the scattering amplitude in the presence of focal points at infinity
(2006)
We consider scattering in $\R^n$, $n\ge 2$, described by the Schr\"odinger operator $P(h)=-h^2\Delta+V$, where $V$ is a short-range potential. With the aid of Maslov theory, we give a geometrical formula for the semiclassical asymptotics as $h\to 0$ of the scattering amplitude $f(\omega_-,\omega_+;\lambda,h)$ $\omega_+\neq\omega_-$) which remains valid in the presence of focal points at infinity (caustics). Crucial for this analysis are precise estimates on the asymptotics of the classical phase trajectories and the relationship between caustics in euclidean phase space and caustics at infinity.
Soils contain a large amount of carbon (C) that is a critical regulator of the global C budget. Already small changes in the processes governing soil C cycling have the potential to release considerable amounts of CO2, a greenhouse gas (GHG), adding additional radiative forcing to the atmosphere and hence to changing climate. Increased temperatures will probably create a feedback, causing soils to release more GHGs. Furthermore changes in soil C balance impact soil fertility and soil quality, potentially degrading soils and reducing soils function as important resource. Consequently the assessment of soil C dynamics under present, recent past and future environmental conditions is not only of scientific interest and requires an integrated consideration of main factors and processes governing soil C dynamics. To perform this assessment an eco-hydrological modelling tool was used and extended by a process-based description of coupled soil carbon and nitrogen turnover. The extended model aims at delivering sound information on soil C storage changes beside changes in water quality, quantity and vegetation growth under global change impacts in meso- to macro-scale river basins, exemplary demonstrated for a Central European river basin (the Elbe). As a result this study: ▪ Provides information on joint effects of land-use (land cover and land management) and climate changes on croplands soil C balance in the Elbe river basin (Central Europe) presently and in the future. ▪ Evaluates which processes, and at what level of process detail, have to be considered to perform an integrated simulation of soil C dynamics at the meso- to macro-scale and demonstrates the model’s capability to simulate these processes compared to observations. ▪ Proposes a process description relating soil C pools and turnover properties to readily measurable quantities. This reduces the number of model parameters, enhances the comparability of model results to observations, and delivers same performance simulating long-term soil C dynamics as other models. ▪ Presents an extensive assessment of the parameter and input data uncertainty and their importance both temporally and spatially on modelling soil C dynamics. For the basin scale assessments it is estimated that croplands in the Elbe basin currently act as a net source of carbon (net annual C flux of 11 g C m-2 yr-1, 1.57 106 tons CO2 yr-1 entire croplands on average). Although this highly depends on the amount of harvest by-products remaining on the field. Future anticipated climate change and observed climate change in the basin already accelerates soil C loss and increases source strengths (additional 3.2 g C m-2 yr-1, 0.48 106 tons CO2 yr-1 entire croplands). But anticipated changes of agro-economic conditions, translating to altered crop share distributions, display stronger effects on soil C storage than climate change. Depending on future use of land expected to fall out of agricultural use in the future (~ 30 % of croplands area as “surplus” land), the basin either considerably looses soil C and the net annual C flux to the atmosphere increases (surplus used as black fallow) or the basin converts to a net sink of C (sequestering 0.44 106 tons CO2 yr-1 under extensified use as ley-arable) or reacts with decrease in source strength when using bioenergy crops. Bioenergy crops additionally offer a considerable potential for fossil fuel substitution (~37 PJ, 1015 J per year), whereas the basin wide use of harvest by-products for energy generation has to be seen critically although offering an annual energy potential of approximately 125 PJ. Harvest by-products play a central role in soil C reproduction and a percentage between 50 and 80 % should remain on the fields in order to maintain soil quality and fertility. The established modelling tool allows quantifying climate, land use and major land management impacts on soil C balance. New is that the SOM turnover description is embedded in an eco-hydrological river basin model, allowing an integrated consideration of water quantity, water quality, vegetation growth, agricultural productivity and soil carbon changes under different environmental conditions. The methodology and assessment presented here demonstrates the potential for integrated assessment of soil C dynamics alongside with other ecosystem services under global change impacts and provides information on the potentials of soils for climate change mitigation (soil C sequestration) and on their soil fertility status.