Refine
Has Fulltext
- yes (84) (remove)
Year of publication
- 2006 (84) (remove)
Document Type
- Doctoral Thesis (84) (remove)
Keywords
- Nichtlineare Dynamik (3)
- Polyelektrolyt (3)
- Ackerschmalwand (2)
- Adhäsion (2)
- Angewandte Sozialpsychologie (2)
- Aufmerksamkeit (2)
- Erwerbsalter (2)
- Insekten (2)
- Klimatologie (2)
- Kognition (2)
Institute
- Institut für Physik und Astronomie (17)
- Institut für Biochemie und Biologie (15)
- Institut für Chemie (11)
- Department Psychologie (8)
- Extern (5)
- Institut für Informatik und Computational Science (5)
- Department Erziehungswissenschaft (4)
- Institut für Ernährungswissenschaft (4)
- Institut für Mathematik (4)
- Department Linguistik (3)
- Institut für Geowissenschaften (3)
- Sozialwissenschaften (3)
- Wirtschaftswissenschaften (3)
- Department Sport- und Gesundheitswissenschaften (2)
- Institut für Umweltwissenschaften und Geographie (2)
Übernimmt eine Protestpartei Regierungsverantwortung, sieht sie ihre Prinzipien und Forderungen der realpolitischen Nagelprobe ausgesetzt. Es ist ein Dilemma von Anspruch und Wirklichkeit, ein Spagat zwischen Protestimage und Regierungspolitik , der diese Parteien oftmals zu zerreißen droht. Anhand der Fallstudien von vier mitregierenden Protestparteien in Deutschland sollen folgende Fragen beantwortet werden: Was macht eine Partei zur Protestpartei? Was waren die Ursachen für die Wahlerfolge der Grünen, der AL, der STATT-Partei und der Schill-Partei? Wie verliefen die Koalitionsverhandlungen? Welche Forderungen konnten die Protestparteien gegenüber ihren großen Koalitionspartnern durchsetzen? Wo mussten sie Abstriche machen? Welche Reformvorhaben wurden angedacht und welche wurden tatsächlich umgesetzt? Welche innerparteilichen Konflikte ergaben sich aus der neuen Rolle der Protestparteien? Letztendlich zeigt sich: Protestparteien scheitern nicht an ihrem schmalspurigen Programm, geringer Stammwählerschaft oder unerfahrenem Personal, sondern weil sie naturgemäß in die „Erwartungsfalle“ tappen.
Die Dissertation befasst sich mit den Reformprozessen, die sich vom Zeitpunkt des System-umbruchs 1989/90 bis zum EU-Beitritt 2004 in den Ministerialverwaltungen Estlands und Polens vollzogen haben. Die Veränderungen, die während dieser Zeit stattfanden, standen im Spannungsfeld zweier Prozesse: des von innenpolitischen Erfordernissen geprägten Transformationsprozesses und des Europäisierungsprozesses, in dem die EU als einflussreicher externer Akteur hinzutrat. Konzeptionell greift die Untersuchung auf die Diskussionen aus der institutionellen Transformationsforschung und die Debatten um die Europäisierung von Regierungs- und Verwaltungssystemen zurück. Die Arbeit konzentriert sich auf die Veränderungen auf der zentralstaatlichen Ebene und betrachtet diese Veränderungen in ihrer horizontalen und sektoralen Dimension. Die horizontale Dimension umfasst Rahmenbedingungen des Verwaltungssystems insgesamt, dies sind zentrale Strukturen des Regierungsapparates, die regierungsinternen Koordinationsmechanismen und die Etablierung des öffentlichen Dienstes. In der sektoralen Dimension wird die Verwaltung im Politikfeld Landwirtschaft betrachtet. In beiden Ländern gab es einen gemeinsamen Ausgangspunkt der Entwicklungen, das sozialistische Verwaltungssystem, und einen ähnlichen Zielpunkt der Verwaltungsreformen in den 1990er Jahren: eine wie auch immer definierte „moderne Verwaltung“. Auch die Rahmenbedingungen des EU-Integrationsprozesses in Mittelosteuropa lassen eher Konvergenzen erwarten. Doch spielen nationale politische Konstellationen eine entscheidende Rolle für die Entwicklungen, so dass man bilanzierend sagen kann: Estland und Polen haben mit Beginn der Transformation unterschiedliche nationale Entwicklungspfade eingeschlagen und ihre Verwaltungssysteme unterscheiden sich mittlerweile stärker voneinander als zur Zeit des Sozialismus.
The first goal of the present work focuses on the need for different rationing methods of the The Global Change and Financial Transition (GFT) work- ing group at the Potsdam Institute for Climate Impact Research (PIK): I provide a toolbox which contains a variety of rationing methods to be ap- plied to micro-economic disequilibrium models of the lagom model family. This toolbox consists of well known rationing methods, and of rationing methods provided specifically for lagom. To ensure an easy application the toolbox is constructed in modular fashion. The second goal of the present work is to present a micro-economic labour market where heterogenous labour suppliers experience consecu- tive job opportunities and need to decide whether to apply for employ- ment. The labour suppliers are heterogenous with respect to their qualifi- cations and their beliefs about the application behaviour of their competi- tors. They learn simultaneously – in Bayesian fashion – about their individ- ual perceived probability to obtain employment conditional on application (PPE) by observing each others’ application behaviour over a cycle of job opportunities.
Die Anwendung eines Mikrosimulationsmodells als Instrument der wirtschaftswissenschaftlichen Forschung erfreut sich großer Beliebtheit. Die Verwendung dieses Modelltyps hat vor allem zwei Gründe. Zum einen sind die in den letzten Jahren extrem gesunkenen Kosten der Informationsverarbeitung ursächlich für die mittlerweile häufige Verwendung. Zum anderen besitzt diese Analyseform Eigenschaften, die kein anderes Instrument aufweist. Insbesondere für die Abschätzung der Verteilungswirkungen von Steuer- und Transferreformen ist die Mikrosimulation eine nahezu ideale Methode. Durch die Einbindung eines Nachfragesystems kann sowohl das Anwendungsgebiet eines Mikrosimulationsmodells erweitert als auch dessen potentielle Leistungsfähigkeit gesteigert werden. Die Arbeit hat im Wesentlichen die Beantwortung der Fragestellungen aus den folgenden zwei Fragenkomplexen zum Ziel: - Wann ist die Einbindung eines Nachfragesystems in Mikrosimulationsmodelle sinnvoll und wie kann ein solches System in das eigentliche Mikrosimulationsmodell integriert werden? - Welche Nachfragesysteme können aus den in Deutschland in Querschnittsform vorhandenen Mikrodatensätzen geschätzt werden und welche theoretischen Eigenschaften besitzen diese Systeme bzw. deren in einem zweistufigen Budgetierungsprozess einsetzbare Kombinationen?
Biochemical and physiological studies of Arabidopsis thaliana Diacylglycerol Kinase 7 (AtDGK7)
(2006)
A family of diacylglycerol kinases (DGK) phosphorylates the substrate diacylglycerol (DAG) to generate phosphatidic acid (PA) . Both molecules, DAG and PA, are involved in signal transduction pathways. In the model plant Arabidopsis thaliana, seven candidate genes (named AtDGK1 to AtDGK7) code for putative DGK isoforms. Here I report the molecular cloning and characterization of AtDGK7. Biochemical, molecular and physiological experiments of AtDGK7 and their corresponding enzyme are analyzed. Information from Genevestigator says that AtDGK7 gene is expressed in seedlings and adult Arabidopsis plants, especially in flowers. The AtDGK7 gene encodes the smallest functional DGK predicted in higher plants; but also, has an alternative coding sequence containing an extended AtDGK7 open reading frame, confirmed by PCR and submitted to the GenBank database (under the accession number DQ350135). The new cDNA has an extension of 439 nucleotides coding for 118 additional amino acids The former AtDGK7 enzyme has a predicted molecular mass of ~41 kDa and its activity is affected by pH and detergents. The DGK inhibitor R59022 also affects AtDGK7 activity, although at higher concentrations (i.e. IC50 ~380 µM). The AtDGK7 enzyme also shows a Michaelis-Menten type saturation curve for 1,2-DOG. Calculated Km and Vmax were 36 µM 1,2-DOG and 0.18 pmol PA min-1 mg of protein-1, respectively, under the assay conditions. Former protein AtDGK7 are able to phosphorylate different DAG analogs that are typically found in plants. The new deduced AtDGK7 protein harbors the catalytic DGKc and accessory domains DGKa, instead the truncated one as the former AtDGK7 protein (Gomez-Merino et al., 2005).
An increasing number of applications requires user interfaces that facilitate the handling of large geodata sets. Using virtual 3D city models, complex geospatial information can be communicated visually in an intuitive way. Therefore, real-time visualization of virtual 3D city models represents a key functionality for interactive exploration, presentation, analysis, and manipulation of geospatial data. This thesis concentrates on the development and implementation of concepts and techniques for real-time city model visualization. It discusses rendering algorithms as well as complementary modeling concepts and interaction techniques. Particularly, the work introduces a new real-time rendering technique to handle city models of high complexity concerning texture size and number of textures. Such models are difficult to handle by current technology, primarily due to two problems: - Limited texture memory: The amount of simultaneously usable texture data is limited by the memory of the graphics hardware. - Limited number of textures: Using several thousand different textures simultaneously causes significant performance problems due to texture switch operations during rendering. The multiresolution texture atlases approach, introduced in this thesis, overcomes both problems. During rendering, it permanently maintains a small set of textures that are sufficient for the current view and the screen resolution available. The efficiency of multiresolution texture atlases is evaluated in performance tests. To summarize, the results demonstrate that the following goals have been achieved: - Real-time rendering becomes possible for 3D scenes whose amount of texture data exceeds the main memory capacity. - Overhead due to texture switches is kept permanently low, so that the number of different textures has no significant effect on the rendering frame rate. Furthermore, this thesis introduces two new approaches for real-time city model visualization that use textures as core visualization elements: - An approach for visualization of thematic information. - An approach for illustrative visualization of 3D city models. Both techniques demonstrate that multiresolution texture atlases provide a basic functionality for the development of new applications and systems in the domain of city model visualization.
Since 1971, the Freudenthal Institute has developed an approach to mathematics education named Realistic Mathematics Education (RME). The philosophy of RME is based on Hans Freudenthal’s concept of ‘mathematics as a human activity’. Prof. Hans Freudenthal (1905-1990), a mathematician and educator, believes that ‘ready-made mathematics’ should not be taught in school. By contrast, he urges that students should be offered ‘realistic situations’ so that they can rediscover from informal to formal mathematics. Although mathematics education in Vietnam has some achievements, it still encounters several challenges. Recently, the reform of teaching methods has become an urgent task in Vietnam. It appears that Vietnamese mathematics education lacks necessary theoretical frameworks. At first sight, the philosophy of RME is suitable for the orientation of the teaching method reform in Vietnam. However, the potential of RME for mathematics education as well as the ability of applying RME to teaching mathematics is still questionable in Vietnam. The primary aim of this dissertation is to research into abilities of applying RME to teaching and learning mathematics in Vietnam and to answer the question “how could RME enrich Vietnamese mathematics education?”. This research will emphasize teaching geometry in Vietnamese middle school. More specifically, the dissertation will implement the following research tasks: • Analyzing the characteristics of Vietnamese mathematics education in the ‘reformed’ period (from the early 1980s to the early 2000s) and at present; • Implementing a survey of 152 middle school teachers’ ideas from several Vietnamese provinces and cities about Vietnamese mathematics education; • Analyzing RME, including Freudenthal’s viewpoints for RME and the characteristics of RME; • Discussing how to design RME-based lessons and how to apply these lessons to teaching and learning in Vietnam; • Experimenting RME-based lessons in a Vietnamese middle school; • Analyzing the feedback from the students’ worksheets and the teachers’ reports, including the potentials of RME-based lessons for Vietnamese middle school and the difficulties the teachers and their students encountered with RME-based lessons; • Discussing proposals for applying RME-based lessons to teaching and learning mathematics in Vietnam, including making suggestions for teachers who will apply these lessons to their teaching and designing courses for in-service teachers and teachers-in training. This research reveals that although teachers and students may encounter some obstacles while teaching and learning with RME-based lesson, RME could become a potential approach for mathematics education and could be effectively applied to teaching and learning mathematics in Vietnamese school.
Es ist bekannt, dass Änderungen im Kohlenstoff- bzw. Stickstoffstaus der Pflanzen zu einer parallelen statt reziproken Änderung der kohlenstoff- und stickstoffhaltigen Primärmetabolite führen. Unter diesem Gesichtspunkt wurden in der vorliegenden Arbeit der Aminosäurestoffwechsel und der Sekundärstoffwechsel unter reduzierten Stickstoffbedingungen untersucht. Zur Beeinflussung des Stickstoffstoffwechsels wurden nitratmangelernährte Tabakwildtyppflanzen und Genotypen mit unterschiedlich stark reduzierter Nitratreduktase-Aktivität verwendet. Dieses experimentelle System erlaubt zusätzlich durch den Vergleich Nitrat defizienter Wildtyppflanzen mit Nitrat akkumulierenden NIA-Transformanten Prozesse zu identifizieren, die durch Nitrat gesteuert werden. Die Analysen der Primär- und Sekundärmetabolite wurde in allen Genotypen diurnal durchgeführt, um auch tageszeitlich abhängige Prozesse zu identifizieren. Die Analyse der absoluten Gehalte aller individuellen Aminosäuren enthüllte bei den meisten erstaunlich stabile diurnale Muster mit einem Anstieg während des Tages und einem Abfall in der Nacht in Wildtyppflanzen gewachsen mit ausreichend Nitrat. Dieses Ergebnis legt die Schlussfolgerung nahe, dass die Biosynthese der Aminosäuren koordiniert abläuft. In Pflanzen mit reduziertem Stickstoffstatus haben diese diurnalen Muster jedoch keinen Bestand. Die Kombination des erzeugten stickstoffbasierten Aminosäuredatensatz in Kombination mit einem bereits erzeugten Aminosäuredatensatz unter kohlenstofflimitierten Bedingungen von Matt et al. (2002) führte durch Hauptkomponentenanalyse (PCA) und Korrelationsanalyse zu dem Ergebnis, dass die Hypothese nach einer koordinierten Aminosäurebiosynthese nicht allgemeine Gültigkeit hat. Die PCA identifizierte Glutamin, Glutamat, Aspartat, Glycin, Pheny-lalanin und Threonin als Faktoren, die den Datensätzen ihre charakteristische Eigenschaft und deren Varianz verleihen. Die Korrelationsanalyse zeigte, dass die sehr guten Korrelationen der individuellen Aminosäuren untereinander in reduzierten Stickstoff- und Kohlenstoffbedingungen sich verschlechtern. Das Verhältnis einer einzelnen Aminosäure relativ zu den anderen führte zur Identifizierung einiger Aminosäuren, die individuelle Antworten auf Stickstoff- und/oder Kohlenstoffstatus zeigen, und/oder speziell auf Nitrat, Licht und/oder den E-nergiestatus der Thylakoidmembran. Glutamat beispielsweise verhält sich in den meisten Situationen stabil, Phenylalanin dagegen zeigt in jeder physiologischen Situation eine individuelle Antwort. Die Ergebnisse dieser Arbeit führen zu einer Erweiterung der Hypothese einer koordinierten Synthese der Aminosäuren dahingehend, dass diese nicht generell für alle Aminosäuren angenommen werden kann. Es gibt einige Aminosäuren deren, Anteile sich situationsbedingt anpassen. Die Reduktion des Stickstoffstatus in nitratmangelernährten Tabakwildtyppflanzen führte zu der, nach der „Carbon-Nutrient-Balance“ Hypothese erwarteten Verlagerung der kohlenstoffreichen Phenylpropanoide und des stickstoffreichen Nikotins. Die Erhöhung der Phenylpropanoidgehalte war nicht in der Nitrat akkumulierenden NIA-Transformante zu beobachten und somit konnte Nitrat als regulatorisches Element identifiziert werden. Ein Einfluss der Vorläufermetabolite konnte ausgeschlossen werden, da sowohl nitratmangelernährter Wildtyp als auch die Nitrat akkumulierende NIA-Transformante ähnliche Gehalte dieser aufwiesen. Genexpressionsanalysen über Mikroarray-Hybridisierung und quantitative RT-PCR zeigten, dass Nitrat durch noch nicht geklärte Mechanismen Einfluss auf die Expression einiger Gene nimmt, die dem Phenylpropanoidstoffwechsels zugeordnet sind. Aus der Arbeit hervorgegangene Veröffentlichungen: Christina Fritz, Natalia Palacios-Rojas, Regina Feil und Mark Stitt (2006) Regulation of Secondary Metabolism by the Carbon-Nitrogen Status in Tobacco: Nitrate Inhibits Large Sectors of Phenylpropanoid Metabolism. Plant Journal 46, 533 - 548 Christina Fritz, Petra Matt, Cathrin Müller, Regina Feil und Mark Stitt (2006) Impact of the Carbon-Nitrogen Status on the Amino Acid Profile in Tobacco Source Leaves. Plant, Cell and Environment 29 (11), 2009 - 2111
Die vorliegende Arbeit ist im Schnittbereich zwischen Kunstgeschichte, Kunstwissenschaft und praktischer Anwendung im schulischen Umfeld angesiedelt. Thematischer Leitfaden ist die Verwendung von Papier als Werkstoff in der Bildenden Kunst. Im Wesentlichen gliedert sich die Arbeit in zwei thematische Blöcke, die aufeinander Bezug nehmen: 1. Kunsthistorische Bestandsaufnahme der Nutzung von Papier als Werkstoff in der Bildenden Kunst der Moderne 2. Entwicklung und Erprobung von Gestaltungsaufgaben mit Papier als Werkstoff im schulischen Bereich zu 1 - Kunsthistorische Bestandsaufnahme Im ersten Teil erfolgt die Inventarisierung der verschiedenen Anwendungsmöglichkeiten und Konzepte der Verwendung von Papier in der Kunst der Moderne. Diese Analyse ermöglicht einen Blick auf die Bildende Kunst des 20./21. Jahrhunderts im Zusammenhang mit dem Werkstoff Papier. Dabei werden die innovativen konzeptionellen und gestalterischen Ansätze der Künstler deutlich, die das Papier als Werkstoff mit seinen materiellen Eigenschaften und Eigengesetzlichkeiten nutzen und so neu interpretieren. Die Folge ist eine sukzessive Erweiterung der Gestaltungskonzeptionen und der Palette der handwerklichen Verarbeitungstechniken. zu 2 - Papier als Werkstoff im schulischen Bereich Der zweite Teil der Arbeit befasst sich mit den gestalterischen Möglichkeiten für den Kunstunterricht, die sich aus der Bandbreite der in Teil 1 beschriebenen konzeptionellen und künstlerisch - technischen Ansätze ergeben. Entstanden ist ein umfangreiches Konvolut von Schülerarbeiten, teilweise mit innovativen konzeptionell - gestalterischen Ansätzen. Die Arbeiten gliedern sich in drei große Werkblöcke: 1. Collage 2. Papier und Raum 3. Papier als Farbe Abschließend werden unterschiedliche didaktische und methodische Vorgehensweisen vorgestellt, die sich aus den inhaltlichen, materialimmanenten und organisatorischen Ansätzen herleiten lassen.
Sucrose synthase (Susy) is a key enzyme of sucrose metabolism, catalysing the reversible conversion of sucrose and UDP to UDP-glucose and fructose. Therefore, its activity, localization and function have been studied in various plant species. It has been shown that Susy can play a role in supplying energy in companion cells for phloem loading (Fu and Park, 1995), provides substrates for starch synthesis (Zrenner et al., 1995), and supplies UDP-glucose for cell wall synthesis (Haigler et al., 2001). Analysis of the Arabidopsis genome identifies six Susy isoforms. The expression of these isoforms was investigated using promoter-reporter gene constructs (GUS) and real time RT-PCR. Although these isoforms are closely related at the protein level they have radically different spatial and temporal patterns of expression in the plant with no two isoforms showing the same distribution. More than one isoform is expressed in all organs examined. Some of them have high but specific expression in particular organs or developmental stages whilst others are constantly expressed throughout the whole plant and across various stages of development. The in planta function of the six Susy isoforms were explored through analysis of T-DNA insertion mutants and RNAi lines. Plants without the expression of individual isoforms show no differences in growth and development, and are not significantly different from wild type plants in soluble sugars, starch and cellulose contents under all growth conditions investigated. Analysis of T-DNA insertion mutant lacking Sus3 isoform that was exclusively expressed in stomata cells only had a minor influence on guard cell osmoregulation and/or bioenergetics. Although none of the sucrose synthases appear to be essential for normal growth under our standard growth conditions, they may be necessary for growth under stress conditions. Different isoforms of sucrose synthase respond differently to various abiotic stresses. It has been shown that oxygen deprivation up regulates Sus1 and Sus4 and increases total Susy activity. However, the analysis of the plants with reduced expression of both Sus1 and Sus4 revealed no obvious effects on plant performance under oxygen deprivation. Low temperature up regulates Sus1 expression but the loss of this isoform has no effect on the freezing tolerance of non acclimated and cold acclimated plants. These data provide a comprehensive overview of the expression of this gene family which supports some of the previously reported roles for Susy and indicates the involvement of specific isoforms in metabolism and/or signalling.
The present thesis deals with the mental representation of numbers in space. Generally it is assumed that numbers are mentally represented on a mental number line along which they ordered in a continuous and analogical manner. Dehaene, Bossini and Giraux (1993) found that the mental number line is spatially oriented from left-to-right. Using a parity-judgment task they observed faster left-hand responses for smaller numbers and faster right-hand responses for larger numbers. This effect has been labelled as Spatial Numerical Association of Response Codes (SNARC) effect. The first study of the present thesis deals with the question whether the spatial orientation of the mental number line derives from the writing system participants are adapted to. According to a strong ontogenetic interpretation the SNARC effect should only obtain for effectors closely related to the comprehension and production of written language (hands and eyes). We asked participants to indicate the parity status of digits by pressing a pedal with their left or right foot. In contrast to the strong ontogenetic view we observed a pedal SNARC effect which did not differ from the manual SNARC effect. In the second study we evaluated whether the SNARC effect reflects an association of numbers and extracorporal space or an association of numbers and hands. To do so we varied the spatial arrangement of the response buttons (vertical vs. horizontal) and the instruction (handrelated vs. button-related). For vertically arranged buttons and a buttonrelated instruction we found a button-related SNARC effect. In contrast, for a hand-related instruction we obtained a hand-related SNARC effect. For horizontally arranged buttons and a handrelated instruction, however, we found a buttonrelated SNARC effect. The results of the first to studies were interpreted in terms of weak ontogenetic view. In the third study we aimed to examine the functional locus of the SNARC effect. We used the psychological refractory period paradigm. In the first experiment participants first indicated the pitch of a tone and then the parity status of a digit (locus-of-slack paradigma). In a second experiment the order of stimulus presentation and thus tasks changed (effect-propagation paradigm). The results led us conclude that the SNARC effect arises while the response is centrally selected. In our fourth study we test for an association of numbers and time. We asked participants to compare two serially presented digits. Participants were faster to compare ascending digit pairs (e.g., 2-3) than descending pairs (e.g., 3-2). The pattern of our results was interpreted in terms of forwardassociations (“1-2-3”) as formed by our ubiquitous cognitive routines to count of objects or events.
I perform and analyse the first ever calculations of rotating stellar iron core collapse in {3+1} general relativity that start out with presupernova models from stellar evolutionary calculations and include a microphysical finite-temperature nuclear equation of state, an approximate scheme for electron capture during collapse and neutrino pressure effects. Based on the results of these calculations, I obtain the to-date most realistic estimates for the gravitational wave signal from collapse, bounce and the early postbounce phase of core collapse supernovae. I supplement my {3+1} GR hydrodynamic simulations with 2D Newtonian neutrino radiation-hydrodynamic supernova calculations focussing on (1) the late postbounce gravitational wave emission owing to convective overturn, anisotropic neutrino emission and protoneutron star pulsations, and (2) on the gravitational wave signature of accretion-induced collapse of white dwarfs to neutron stars.
The properties of a series of well-defined new surfactant oligomers (dimers to tetramers)were examined. From a molecular point of view, these oligomeric surfactants consist of simple monomeric cationic surfactant fragments coupled via the hydrophilic ammonium chloride head groups by spacer groups (different in nature and length). Properties of these cationic surfactant oligomers in aqueous solution such as solubility, micellization and surface activity, micellar size and aggregation number were discussed with respect to the two new molecular variables introduced, i.e. degree of oligomerization and spacer group, in order to establish structure – property relationships. Thus, increasing the degree of oligomerization results in a pronounced decrease of the critical micellization concentration (CMC). Both reduced spacer length and increased spacer hydrophobicity lead to a decrease of the CMC, but to a lesser extent. For these particular compounds, the formed micelles are relatively small and their aggregation number decreases with increasing the degree of oligomerization, increasing spacer length and sterical hindrance. In addition, pseudo-phase diagrams were established for the dimeric surfactants in more complex systems, namely inverse microemulsions, demonstrating again the important influence of the spacer group on the surfactant behaviour. Furthermore, the influence of additives on the property profile of the dimeric compounds was examined, in order to see if the solution properties can be improved while using less material. Strong synergistic effects were observed by adding special organic salts (e.g. sodium salicylate, sodium vinyl benzoate, etc.) to the surfactant dimers in stoichiometric amounts. For such mixtures, the critical aggregation concentration is strongly shifted to lower concentration, the effect being more pronounced for dimers than for analogous monomers. A sharp decrease of the surface tension can also be attained. Many of the organic anions produce viscoelastic solutions when added to the relatively short-chain dimers in aqueous solution, as evidenced by rheological measurements. This behaviour reflects the formation of entangled wormlike micelles due to strong interactions of the anions with the cationic surfactants, decreasing the curvature of the micellar aggregates. It is found that the associative behaviour is enhanced by dimerization. For a given counterion, the spacer group may also induce a stronger viscosifying effect depending on its length and hydrophobicity. Oppositely charged surfactants were combined with the cationic dimers, too. First, some mixtures with the conventional anionic surfactant SDS revealed vesicular aggregates in solution. Also, in view of these catanionic mixtures, a novel anionic dimeric surfactant based on EDTA was synthesized and studied. The synthesis route is relatively simple and the compound exhibits particularly appealing properties such as low CMC and σCMC values, good solubilization capacity of hydrophobic probes and high tolerance to hard water. Noteworthy, mixtures with particular cationic dimers gave rise to viscous solutions, reflecting the micelle growth.
Die Arbeit untersucht die Annahme einer unterschiedlichen Gewichtung von distinktiven enzyklopädischen, funktionalen und sensorischen Merkmalen innerhalb der Repräsentationen von Objekten der belebten und unbelebten semantischen Domäne. Hierzu wurde ein Reaktionszeitexperiment zur Merkmalsverifikation durchgeführt. Vorab wurden deutsche Normen über das geschätzte Erwerbsalter für 244 Stimuli aus dem Korpus von Snodgrass & Vanderwart (1980) erhoben. Weiterhin wurde eine Datenbank von Merkmalsnormen für 80 konkrete Objektbegriffe erstellt. Insgesamt wurden zwei Reaktionszeitexperimente durchgeführt, die sich lediglich durch die Darbietungsdauer des Konzeptbegriffes unterschieden. Der Konzeptbegriff wurde entweder 1000 ms (lange Darbietung) oder 250 ms (kurze Darbietung) präsentiert, bevor das zu verifizierende semantische Merkmal erschien. Bei langer Präsentationszeit des Objektbegriffes zeigten sich für Objekte der unbelebten Domäne schnellere Reaktionszeiten beim Verifizieren von distinktiven funktionalen Merkmalen als beim Verifizieren von distinktiven enzyklopädischen Merkmalen. Dieser Effekt wurde bei kurzer Darbietungsdauer des Konzeptbegriffes repliziert. Bei kurzer Darbietung konnten für Objekte der unbelebten Domäne zusätzlich kürzere Reaktionszeiten beim Verifizieren distinktiver funktionaler Merkmale als beim Verifizieren distinktiver sensorischer Merkmale beobachtet werden. Für Objekte der belebten Domäne lagen weder nach kurzer noch nach langer Präsentation des Objektbegriffes Unterschiede in den Reaktionszeiten beim Verifizieren der semantischen Merkmale vor. Die Ergebnisse werden vor dem Hintergrund aktueller neurolinguistischer Modelle zur Organisation des semantischen Gedächtnisses diskutiert. Die Ergebnisse deuten darauf hin, dass innerhalb der Objektrepräsentationen belebter Objekte alle drei Merkmalstypen interkorrelieren. Für Objekte der unbelebten Domäne werden starke Interkorrelationen zwischen funktionalen und sensorischen Merkmalen angenommen. Zusätzlich wird davon ausgegangen, dass distinktive funktionale Merkmale innerhalb der Repräsentationen unbelebter Objekte besonders stark gewichtet sind.
Die kumulative Dissertation umfasst dreizehn Beiträge, die zwischen 1994 und 2006 aus je aktuellen Forschungszusammenhängen entstanden sind und in unterschiedlichen Zeitschriften und Sammelwerken publiziert wurden. Sie widmen sich Funktion und Leistung der Bibliothek für Bildungsgeschichtliche Forschung (BBF) als bildungshistorischer Forschungsbibliothek, die in einer Einleitung entlang einer professionstheoretischen Fragestellung systematisch eingeordnet werden. Beiträge und Einleitung gehen zum einen auf die Bestandsgeschichte der Vorgängereinrichtungen der BBF ein, die als Gebrauchsbibliotheken insbesondere eine institutionelle Grundlage zur Verberuflichung und Professionalisierung der Lehrer bildeten. Zum anderen widmen sie sich neueren Angeboten der 1992 in eine Forschungsbibliothek umgewandelten Einrichtung, die sich besonders an dem Bedarf des veränderten Adressatenkreises orientieren. Es handelt sich um Dienstleistungen, die einerseits dem Kontext einer digitalen Bibliothek zuzuordnen sind, andererseits das Konzept einer Forschungsbibliothek zu einer Forschungsstätte erweitern, mit der Aufgabe, zur Unterstützung des interdisziplinären und internationalen Diskurses der an Themen zur historischen Bildungsforschung arbeitenden Science Community beizutragen.
Förster Resonance Energy Transfer (FRET) plays an important role for biochemical applications such as DNA sequencing, intracellular protein-protein interactions, molecular binding studies, in vitro diagnostics and many others. For qualitative and quantitative analysis, FRET systems are usually assembled through molecular recognition of biomolecules conjugated with donor and acceptor luminophores. Lanthanide (Ln) complexes, as well as semiconductor quantum dot nanocrystals (QD), possess unique photophysical properties that make them especially suitable for applied FRET. In this work the possibility of using QD as very efficient FRET acceptors in combination with Ln complexes as donors in biochemical systems is demonstrated. The necessary theoretical and practical background of FRET, Ln complexes, QD and the applied biochemical models is outlined. In addition, scientific as well as commercial applications are presented. FRET can be used to measure structural changes or dynamics at distances ranging from approximately 1 to 10 nm. The very strong and well characterized binding process between streptavidin (Strep) and biotin (Biot) is used as a biomolecular model system. A FRET system is established by Strep conjugation with the Ln complexes and QD biotinylation. Three Ln complexes (one with Tb3+ and two with Eu3+ as central ion) are used as FRET donors. Besides the QD two further acceptors, the luminescent crosslinked protein allophycocyanin (APC) and a commercial fluorescence dye (DY633), are investigated for direct comparison. FRET is demonstrated for all donor-acceptor pairs by acceptor emission sensitization and a more than 1000-fold increase of the luminescence decay time in the case of QD reaching the hundred microsecond regime. Detailed photophysical characterization of donors and acceptors permits analysis of the bioconjugates and calculation of the FRET parameters. Extremely large Förster radii of more than 100 Å are achieved for QD as acceptors, considerably larger than for APC and DY633 (ca. 80 and 60 Å). Special attention is paid to interactions with different additives in aqueous solutions, namely borate buffer, bovine serum albumin (BSA), sodium azide and potassium fluoride (KF). A more than 10-fold limit of detection (LOD) decrease compared to the extensively characterized and frequently used donor-acceptor pair of Europium tris(bipyridine) (Eu-TBP) and APC is demonstrated for the FRET system, consisting of the Tb complex and QD. A sub-picomolar LOD for QD is achieved with this system in azide free borate buffer (pH 8.3) containing 2 % BSA and 0.5 M KF. In order to transfer the Strep-Biot model system to a real-life in vitro diagnostic application, two kinds of imunnoassays are investigated using human chorionic gonadotropin (HCG) as analyte. HCG itself, as well as two monoclonal anti-HCG mouse-IgG (immunoglobulin G) antibodies are labeled with the Tb complex and QD, respectively. Although no sufficient evidence for FRET can be found for a sandwich assay, FRET becomes obvious in a direct HCG-IgG assay showing the feasibility of using the Ln-QD donor-acceptor pair as highly sensitive analytical tool for in vitro diagnostics.
The separation of natural and anthropogenically caused climatic changes is an important task of contemporary climate research. For this purpose, a detailed knowledge of the natural variability of the climate during warm stages is a necessary prerequisite. Beside model simulations and historical documents, this knowledge is mostly derived from analyses of so-called climatic proxy data like tree rings or sediment as well as ice cores. In order to be able to appropriately interpret such sources of palaeoclimatic information, suitable approaches of statistical modelling as well as methods of time series analysis are necessary, which are applicable to short, noisy, and non-stationary uni- and multivariate data sets. Correlations between different climatic proxy data within one or more climatological archives contain significant information about the climatic change on longer time scales. Based on an appropriate statistical decomposition of such multivariate time series, one may estimate dimensions in terms of the number of significant, linear independent components of the considered data set. In the presented work, a corresponding approach is introduced, critically discussed, and extended with respect to the analysis of palaeoclimatic time series. Temporal variations of the resulting measures allow to derive information about climatic changes. For an example of trace element abundances and grain-size distributions obtained near the Cape Roberts (Eastern Antarctica), it is shown that the variability of the dimensions of the investigated data sets clearly correlates with the Oligocene/Miocene transition about 24 million years before present as well as regional deglaciation events. Grain-size distributions in sediments give information about the predominance of different transportation as well as deposition mechanisms. Finite mixture models may be used to approximate the corresponding distribution functions appropriately. In order to give a complete description of the statistical uncertainty of the parameter estimates in such models, the concept of asymptotic uncertainty distributions is introduced. The relationship with the mutual component overlap as well as with the information missing due to grouping and truncation of the measured data is discussed for a particular geological example. An analysis of a sequence of grain-size distributions obtained in Lake Baikal reveals that there are certain problems accompanying the application of finite mixture models, which cause an extended climatological interpretation of the results to fail. As an appropriate alternative, a linear principal component analysis is used to decompose the data set into suitable fractions whose temporal variability correlates well with the variations of the average solar insolation on millenial to multi-millenial time scales. The abundance of coarse-grained material is obviously related to the annual snow cover, whereas a significant fraction of fine-grained sediments is likely transported from the Taklamakan desert via dust storms in the spring season.
The terrestrial biosphere impacts considerably on the global carbon cycle. In particular, ecosystems contribute to set off anthropogenic induced fossil fuel emissions and hence decelerate the rise of the atmospheric CO₂ concentration. However, the future net sink strength of an ecosystem will heavily depend on the response of the individual processes to a changing climate. Understanding the makeup of these processes and their interaction with the environment is, therefore, of major importance to develop long-term climate mitigation strategies. Mathematical models are used to predict the fate of carbon in the soil-plant-atmosphere system under changing environmental conditions. However, the underlying processes giving rise to the net carbon balance of an ecosystem are complex and not entirely understood at the canopy level. Therefore, carbon exchange models are characterised by considerable uncertainty rendering the model-based prediction into the future prone to error. Observations of the carbon exchange at the canopy scale can help learning about the dominant processes and hence contribute to reduce the uncertainty associated with model-based predictions. For this reason, a global network of measurement sites has been established that provides long-term observations of the CO₂ exchange between a canopy and the atmosphere along with micrometeorological conditions. These time series, however, suffer from observation uncertainty that, if not characterised, limits their use in ecosystem studies. The general objective of this work is to develop a modelling methodology that synthesises physical process understanding with the information content in canopy scale data as an attempt to overcome the limitations in both carbon exchange models and observations. Similar hybrid modelling approaches have been successfully applied for signal extraction out of noisy time series in environmental engineering. Here, simple process descriptions are used to identify relationships between the carbon exchange and environmental drivers from noisy data. The functional form of these relationships are not prescribed a priori but rather determined directly from the data, ensuring the model complexity to be commensurate with the observations. Therefore, this data-led analysis results in the identification of the processes dominating carbon exchange at the ecosystem scale as reflected in the data. The description of these processes may then lead to robust carbon exchange models that contribute to a faithful prediction of the ecosystem carbon balance. This work presents a number of studies that make use of the developed data-led modelling approach for the analysis and interpretation of net canopy CO₂ flux observations. Given the limited knowledge about the underlying real system, the evaluation of the derived models with synthetic canopy exchange data is introduced as a standard procedure prior to any real data employment. The derived data-led models prove successful in several different applications. First, the data-based nature of the presented methods makes them particularly useful for replacing missing data in the observed time series. The resulting interpolated CO₂ flux observation series can then be analysed with dynamic modelling techniques, or integrated to coarser temporal resolution series for further use e.g., in model evaluation exercises. However, the noise component in these observations interferes with deterministic flux integration in particular when long time periods are considered. Therefore, a method to characterise the uncertainties in the flux observations that uses a semi-parametric stochastic model is introduced in a second study. As a result, an (uncertain) estimate of the annual net carbon exchange of the observed ecosystem can be inferred directly from a statistically consistent integration of the noisy data. For the forest measurement sites analysed, the relative uncertainty for the annual sum did not exceed 11 percent highlighting the value of the data. Based on the same models, a disaggregation of the net CO₂ flux into carbon assimilation and respiration is presented in a third study that allows for the estimation of annual ecosystem carbon uptake and release. These two components can then be further analysed for their separate response to environmental conditions. Finally, a fourth study demonstrates how the results from data-led analyses can be turned into a simple parametric model that is able to predict the carbon exchange of forest ecosystems. Given the global network of measurements available the derived model can now be tested for generality and transferability to other biomes. In summary, this work particularly highlights the potential of the presented data-led methodologies to identify and describe dominant carbon exchange processes at the canopy level contributing to a better understanding of ecosystem functioning.
Polyelectrolyte microcapsules containing stimuli-responsive polymers have potential applications in the fields of sensors or actuators, stimulable microcontainers and controlled drug delivery. Such capsules were prepared, with the focus on pH-sensitivity and carbohydrate-sensing. First, pH-responsive polyelectrolyte capsules were produced by means of electrostatic layer-by-layer assembly of oppositely charged weak polyelectrolytes onto colloidal templates that were subsequently removed. The capsules were composed of poly(allylamine hydrochloride) (PAH) and poly(methacrylic acid) (PMA) or poly(4-vinylpyridine) (P4VP) and PMA and varied considerably in their hydrophobicity and the influence of secondary interactions. These polymers were assembled onto CaCO3 and SiO2 particles with diameters of ~ 5 µm, and a new method for the removal of the silica template under mild conditions was proposed. The pH-dependent stability of PAH/PMA and P4VP/PMA capsules was studied by confocal laser scanning microscopy (CLSM). They were stable over a wide pH-range and exhibited a pronounced swelling at the edges of stability, which was attributed to uncompensated positive or negative charges within the multilayers. The swollen state could be stabilized when the electrostatic repulsion was counteracted by hydrogen-bonding, hydrophobic interactions or polymeric entanglement. This stabilization made it possible to reversibly swell and shrink the capsules by tuning the pH of the solution. The pH-dependent ionization degree of PMA was used to modulate the binding of calcium ions. In addition to the pH-sensitivity, the stability and the swelling degree of these capsules at a given pH could be modified, when the ionic strength of the medium was altered. The reversible swelling was accompanied by reversible permeability changes for low and high molecular weight substances. The permeability for glucose was evaluated by studying the time-dependence of the buckling of the capsule walls in glucose solutions and the reversible permeability modulation was used for the encapsulation of polymeric material. A theoretical model was proposed to explain the pH-dependent size variations that took into account an osmotic expanding force and an elastic restoring force to evaluate the pH-dependent size changes of weak polyelectrolyte capsules. Second, sugar-sensitive multilayers were assembled using the reversible covalent ester formation between the polysaccharide mannan and phenylboronic acid moieties that were grafted onto poly(acrylic acid) (PAA). The resulting multilayer films were sensitive to several carbohydrates, showing the highest sensitivity to fructose. The response to carbohydrates resulted from the competitive binding of small molecular weight sugars and mannan to the boronic acid groups within the film, and was observed as a fast dissolution of the multilayers, when they were brought into contact with the sugar-containing solution above a critical concentration. It was also possible to prepare carbohydrate-sensitive multilayer capsules, and their sugar-dependent stability was investigated by following the release of encapsulated rhodamine-labeled bovine serum albumin (TRITC-BSA).
Semantische Repräsentation, obligatorische Aktivierung und verbale Produktion arithmetischer Fakten
(2006)
Die vorliegende Arbeit widmet sich der Repräsentation und Verarbeitung arithmetischer Fakten. Dieser Bereich semantischen Wissens eignet sich unter anderem deshalb besonders gut als Forschungsgegenstand, weil nicht nur seine einzelne Bestandteile, sondern auch die Beziehungen dieser Bestandteile untereinander außergewöhnlich gut definierbar sind. Kognitive Modelle können also mit einem Grad an Präzision entwickelt werden, der in anderen Bereichen kaum je zu erreichen sein wird. Die meisten aktuellen Modelle stimmen darin überein, die Repräsentation arithmetischer Fakten als eine assoziative, netzwerkartig organisierte Struktur im deklarativen Gedächtnis zu beschreiben. Trotz dieser grundsätzlichen Übereinstimmung bleibt eine Reihe von Fragen offen. In den hier vorgestellten Untersuchungen werden solche offene Fragen in Hinsicht auf drei verschiedene Themenbereiche angegangen: 1) die neuroanatomischen Korrelate 2) Nachbarschaftskonsistenzeffekte bei der verbalen Produktion sowie 3) die automatische Aktivierung arithmetischer Fakten. In einer kombinierten fMRT- und Verhaltensstudie wurde beispielsweise der Frage nachgegangen, welche neurofunktionalen Entsprechungen es für den Erwerb arithmetischer Fakten bei Erwachsenen gibt. Den Ausgangspunkt für diese Untersuchung bildete das Triple-Code-Modell von Dehaene und Cohen, da es als einziges auch Aussagen über neuroanatomische Korrelate numerischer Leistungen macht. Das Triple-Code-Modell geht davon aus, dass zum Abruf arithmetischer Fakten eine „perisylvische“ Region der linken Hemisphäre unter Einbeziehung der Stammganglien sowie des Gyrus angularis nötig ist (Dehaene & Cohen, 1995; Dehaene & Cohen, 1997; Dehaene, Piazza, Pinel, & Cohen, 2003). In der aktuellen Studie sollten gesunde Erwachsene komplexe Multiplikationsaufgaben etwa eine Woche lang intensiv üben, so dass ihre Beantwortung immer mehr automatisiert erfolgt. Die Lösung dieser geübten Aufgaben sollte somit – im Gegensatz zu vergleichbaren ungeübten Aufgaben – immer stärker auf Faktenabruf als auf der Anwendung von Prozeduren und Strategien beruhen. Hingegen sollten ungeübte Aufgaben im Vergleich zu geübten höhere Anforderungen an exekutive Funktionen einschließlich des Arbeitsgedächtnisses stellen. Nach dem Training konnten die Teilnehmer – wie erwartet – geübte Aufgaben deutlich schneller und sicherer beantworten als ungeübte. Zusätzlich wurden sie auch im Magnetresonanztomografen untersucht. Dabei konnte zunächst bestätigt werden, dass das Lösen von Multiplikationsaufgaben allgemein von einem vorwiegend linkshemisphärischen Netzwerk frontaler und parietaler Areale unterstützt wird. Das wohl wichtigste Ergebnis ist jedoch eine Verschiebung der Hirnaktivierungen von eher frontalen Aktivierungsmustern zu einer eher parietalen Aktivierung und innerhalb des Parietallappens vom Sulcus intraparietalis zum Gyrus angularis bei den geübten im Vergleich zu den ungeübten Aufgaben. So wurde die zentrale Bedeutung von Arbeitsgedächtnis- und Planungsleistungen für komplexe ungeübte Rechenaufgaben erneut herausgestellt. Im Sinne des Triple-Code-Modells könnte die Verschiebung innerhalb des Parietallappens auf einen Wechsel von quantitätsbasierten Rechenleistungen (Sulcus intraparietalis) zu automatisiertem Faktenabruf (linker Gyrus angularis) hindeuten. Gibt es bei der verbalen Produktion arithmetischer Fakten Nachbarschaftskonsistenzeffekte ähnlich zu denen, wie sie auch in der Sprachverarbeitung beschrieben werden? Solche Effekte sind nach dem aktuellen „Dreiecksmodell“ von Verguts & Fias (2004) zur Repräsentation von Multiplikationsfakten erwartbar. Demzufolge sollten richtige Antworten leichter gegeben werden können, wenn sie Ziffern mit möglichst vielen semantisch nahen falschen Antworten gemeinsam haben. Möglicherweise sollten demnach aber auch falsche Antworten dann mit größerer Wahrscheinlichkeit produziert werden, wenn sie eine Ziffer mit der richtigen Antwort teilen. Nach dem Dreiecksmodell wäre darüber hinaus sogar der klassische Aufgabengrößeneffekt bei einfachen Multiplikationsaufgaben (Zbrodoff & Logan, 2004) auf die Konsistenzverhältnisse der richtigen Antwort mit semantisch benachbarten falschen Antworten zurückzuführen. In einer Reanalyse der Fehlerdaten von gesunden Probanden (Campbell, 1997) und einem Patienten (Domahs, Bartha, & Delazer, 2003) wurden tatsächlich Belege für das Vorhandensein von Zehnerkonsistenzeffekten beim Lösen einfacher Multiplikationsaufgaben gefunden. Die Versuchspersonen bzw. der Patient hatten solche falschen Antworten signifikant häufiger produziert, welche die gleiche Zehnerziffer wie das richtigen Ergebnisses aufwiesen, als ansonsten vergleichbare andere Fehler. Damit wird die Annahme unterstützt, dass die Zehner- und die Einerziffern zweistelliger Zahlen separate Repräsentationen aufweisen – bei der Multiplikation (Verguts & Fias, 2004) wie auch allgemein bei numerischer Verarbeitung (Nuerk, Weger, & Willmes, 2001; Nuerk & Willmes, 2005). Zusätzlich dazu wurde in einer Regressionsanalyse über die Fehlerzahlen auch erstmalig empirische Evidenz für die Hypothese vorgelegt, dass der klassische Aufgabengrößeneffekt beim Abruf von Multiplikationsfakten auf Zehnerkonsistenzeffekte zurückführbar ist: Obwohl die Aufgabengröße als erster Prädiktor in das Modell einging, wurde diese Variable wieder verworfen, sobald ein Maß für die Nachbarschaftskonsistenz der richtigen Antwort in das Modell aufgenommen wurde. Schließlich wurde in einer weiteren Studie die automatische Aktivierung von Multiplikationsfakten bei gesunden Probanden mit einer Zahlenidentifikationsaufgabe (Galfano, Rusconi, & Umilta, 2003; Lefevre, Bisanz, & Mrkonjic, 1988; Thibodeau, Lefevre, & Bisanz, 1996) untersucht. Dabei sollte erstmals die Frage beantwortet werden, wie sich die automatische Aktivierung der eigentlichen Multiplikationsergebnisse (Thibodeau et al., 1996) zur Aktivierung benachbarter falscher Antworten (Galfano et al., 2003) verhält. Ferner sollte durch die Präsentation mit verschiedenen SOAs der zeitliche Verlauf dieser Aktivierungen aufgeklärt werden. Die Ergebnisse dieser Studie können insgesamt als Evidenz für das Vorhandensein und die automatische, obligatorische Aktivierung eines Netzwerkes arithmetischer Fakten bei gesunden, gebildeten Erwachsenen gewertet werden, in dem die richtigen Produkte stärker mit den Faktoren assoziiert sind als benachbarte Produkte (Operandenfehler). Dabei führen Produkte kleiner Aufgaben zu einer stärkeren Interferenz als Produkte großer Aufgaben und Operandenfehler großer Aufgaben zu einer stärkeren Interferenz als Operandenfehler kleiner Aufgaben. Ein solches Aktivierungsmuster passt gut zu den Vorhersagen des Assoziationsverteilungsmodells von Siegler (Lemaire & Siegler, 1995; Siegler, 1988), bei dem kleine Aufgaben eine schmalgipflige Verteilung der Assoziationen um das richtige Ergebnis herum aufweisen, große Aufgaben jedoch eine breitgipflige Verteilung. Somit sollte die vorliegende Arbeit etwas mehr Licht in bislang weitgehend vernachlässigte Aspekte der Repräsentation und des Abrufs arithmetischer Fakten gebracht haben: Die neuronalen Korrelate ihres Erwerbs, die Konsequenzen ihrer Einbindung in das Stellenwertsystem mit der Basis 10 sowie die spezifischen Auswirkungen ihrer assoziativen semantischen Repräsentation auf ihre automatische Aktivierbarkeit. Literatur Campbell, J. I. (1997). On the relation between skilled performance of simple division and multiplication. Journal of Experimental Psychology: Learning, Memory, and Cognition, 23, 1140-1159. Dehaene, S. & Cohen, L. (1995). Towards an anatomical and functional model of number processing. Mathematical Cognition, 1, 83-120. Dehaene, S. & Cohen, L. (1997). Cerebral pathways for calculation: double dissociation between rote verbal and quantitative knowledge of arithmetic. Cortex, 33, 219-250. Dehaene, S., Piazza, M., Pinel, P., & Cohen, L. (2003). Three parietal circuits for number processing. Cognitive Neuropsychology, 20, 487-506. Domahs, F., Bartha, L., & Delazer, M. (2003). Rehabilitation of arithmetic abilities: Different intervention strategies for multiplication. Brain and Language, 87, 165-166. Galfano, G., Rusconi, E., & Umilta, C. (2003). Automatic activation of multiplication facts: evidence from the nodes adjacent to the product. Quarterly Journal of Experimental Psychology A, 56, 31-61. Lefevre, J. A., Bisanz, J., & Mrkonjic, L. (1988). Cognitive arithmetic: evidence for obligatory activation of arithmetic facts. Memory and Cognition, 16, 45-53. Lemaire, P. & Siegler, R. S. (1995). Four aspects of strategic change: contributions to children's learning of multiplication. Journal of Experimental Psychology: General, 124, 83-97. Nuerk, H. C., Weger, U., & Willmes, K. (2001). Decade breaks in the mental number line? Putting the tens and units back in different bins. Cognition, 82, B25-B33. Nuerk, H. C. & Willmes, K. (2005). On the magnitude representations of two-digit numbers. Psychology Science, 47, 52-72. Siegler, R. S. (1988). Strategy choice procedures and the development of multiplication skill. Journal of Experimental Psychology: General, 117, 258-275. Thibodeau, M. H., Lefevre, J. A., & Bisanz, J. (1996). The extension of the interference effect to multiplication. Canadian Journal of Experimental Psychology, 50, 393-396. Verguts, T. & Fias, W. (2004). Neighborhood Effects in Mental Arithmetic. Psychology Science. Zbrodoff, N. J. & Logan, G. D. (2004). What everyone finds: The problem-size effect. In J. I. D. Campbell (Hrsg.), Handbook of Mathematical Cognition (pp.331-345). New York, NY: Psychology Press.