Filtern
Volltext vorhanden
- ja (38) (entfernen)
Erscheinungsjahr
- 2006 (38) (entfernen)
Dokumenttyp
- Dissertation (38) (entfernen)
Sprache
- Deutsch (38) (entfernen)
Schlagworte
- Angewandte Sozialpsychologie (2)
- Erwerbsalter (2)
- Insekten (2)
- Kognition (2)
- Speichel (2)
- Speicheldrüse (2)
- cognition (2)
- ATRP (1)
- Acetylcholin (1)
- Adhäsion (1)
Institut
Übernimmt eine Protestpartei Regierungsverantwortung, sieht sie ihre Prinzipien und Forderungen der realpolitischen Nagelprobe ausgesetzt. Es ist ein Dilemma von Anspruch und Wirklichkeit, ein Spagat zwischen Protestimage und Regierungspolitik , der diese Parteien oftmals zu zerreißen droht. Anhand der Fallstudien von vier mitregierenden Protestparteien in Deutschland sollen folgende Fragen beantwortet werden: Was macht eine Partei zur Protestpartei? Was waren die Ursachen für die Wahlerfolge der Grünen, der AL, der STATT-Partei und der Schill-Partei? Wie verliefen die Koalitionsverhandlungen? Welche Forderungen konnten die Protestparteien gegenüber ihren großen Koalitionspartnern durchsetzen? Wo mussten sie Abstriche machen? Welche Reformvorhaben wurden angedacht und welche wurden tatsächlich umgesetzt? Welche innerparteilichen Konflikte ergaben sich aus der neuen Rolle der Protestparteien? Letztendlich zeigt sich: Protestparteien scheitern nicht an ihrem schmalspurigen Programm, geringer Stammwählerschaft oder unerfahrenem Personal, sondern weil sie naturgemäß in die „Erwartungsfalle“ tappen.
Die Dissertation befasst sich mit den Reformprozessen, die sich vom Zeitpunkt des System-umbruchs 1989/90 bis zum EU-Beitritt 2004 in den Ministerialverwaltungen Estlands und Polens vollzogen haben. Die Veränderungen, die während dieser Zeit stattfanden, standen im Spannungsfeld zweier Prozesse: des von innenpolitischen Erfordernissen geprägten Transformationsprozesses und des Europäisierungsprozesses, in dem die EU als einflussreicher externer Akteur hinzutrat. Konzeptionell greift die Untersuchung auf die Diskussionen aus der institutionellen Transformationsforschung und die Debatten um die Europäisierung von Regierungs- und Verwaltungssystemen zurück. Die Arbeit konzentriert sich auf die Veränderungen auf der zentralstaatlichen Ebene und betrachtet diese Veränderungen in ihrer horizontalen und sektoralen Dimension. Die horizontale Dimension umfasst Rahmenbedingungen des Verwaltungssystems insgesamt, dies sind zentrale Strukturen des Regierungsapparates, die regierungsinternen Koordinationsmechanismen und die Etablierung des öffentlichen Dienstes. In der sektoralen Dimension wird die Verwaltung im Politikfeld Landwirtschaft betrachtet. In beiden Ländern gab es einen gemeinsamen Ausgangspunkt der Entwicklungen, das sozialistische Verwaltungssystem, und einen ähnlichen Zielpunkt der Verwaltungsreformen in den 1990er Jahren: eine wie auch immer definierte „moderne Verwaltung“. Auch die Rahmenbedingungen des EU-Integrationsprozesses in Mittelosteuropa lassen eher Konvergenzen erwarten. Doch spielen nationale politische Konstellationen eine entscheidende Rolle für die Entwicklungen, so dass man bilanzierend sagen kann: Estland und Polen haben mit Beginn der Transformation unterschiedliche nationale Entwicklungspfade eingeschlagen und ihre Verwaltungssysteme unterscheiden sich mittlerweile stärker voneinander als zur Zeit des Sozialismus.
Die Anwendung eines Mikrosimulationsmodells als Instrument der wirtschaftswissenschaftlichen Forschung erfreut sich großer Beliebtheit. Die Verwendung dieses Modelltyps hat vor allem zwei Gründe. Zum einen sind die in den letzten Jahren extrem gesunkenen Kosten der Informationsverarbeitung ursächlich für die mittlerweile häufige Verwendung. Zum anderen besitzt diese Analyseform Eigenschaften, die kein anderes Instrument aufweist. Insbesondere für die Abschätzung der Verteilungswirkungen von Steuer- und Transferreformen ist die Mikrosimulation eine nahezu ideale Methode. Durch die Einbindung eines Nachfragesystems kann sowohl das Anwendungsgebiet eines Mikrosimulationsmodells erweitert als auch dessen potentielle Leistungsfähigkeit gesteigert werden. Die Arbeit hat im Wesentlichen die Beantwortung der Fragestellungen aus den folgenden zwei Fragenkomplexen zum Ziel: - Wann ist die Einbindung eines Nachfragesystems in Mikrosimulationsmodelle sinnvoll und wie kann ein solches System in das eigentliche Mikrosimulationsmodell integriert werden? - Welche Nachfragesysteme können aus den in Deutschland in Querschnittsform vorhandenen Mikrodatensätzen geschätzt werden und welche theoretischen Eigenschaften besitzen diese Systeme bzw. deren in einem zweistufigen Budgetierungsprozess einsetzbare Kombinationen?
Es ist bekannt, dass Änderungen im Kohlenstoff- bzw. Stickstoffstaus der Pflanzen zu einer parallelen statt reziproken Änderung der kohlenstoff- und stickstoffhaltigen Primärmetabolite führen. Unter diesem Gesichtspunkt wurden in der vorliegenden Arbeit der Aminosäurestoffwechsel und der Sekundärstoffwechsel unter reduzierten Stickstoffbedingungen untersucht. Zur Beeinflussung des Stickstoffstoffwechsels wurden nitratmangelernährte Tabakwildtyppflanzen und Genotypen mit unterschiedlich stark reduzierter Nitratreduktase-Aktivität verwendet. Dieses experimentelle System erlaubt zusätzlich durch den Vergleich Nitrat defizienter Wildtyppflanzen mit Nitrat akkumulierenden NIA-Transformanten Prozesse zu identifizieren, die durch Nitrat gesteuert werden. Die Analysen der Primär- und Sekundärmetabolite wurde in allen Genotypen diurnal durchgeführt, um auch tageszeitlich abhängige Prozesse zu identifizieren. Die Analyse der absoluten Gehalte aller individuellen Aminosäuren enthüllte bei den meisten erstaunlich stabile diurnale Muster mit einem Anstieg während des Tages und einem Abfall in der Nacht in Wildtyppflanzen gewachsen mit ausreichend Nitrat. Dieses Ergebnis legt die Schlussfolgerung nahe, dass die Biosynthese der Aminosäuren koordiniert abläuft. In Pflanzen mit reduziertem Stickstoffstatus haben diese diurnalen Muster jedoch keinen Bestand. Die Kombination des erzeugten stickstoffbasierten Aminosäuredatensatz in Kombination mit einem bereits erzeugten Aminosäuredatensatz unter kohlenstofflimitierten Bedingungen von Matt et al. (2002) führte durch Hauptkomponentenanalyse (PCA) und Korrelationsanalyse zu dem Ergebnis, dass die Hypothese nach einer koordinierten Aminosäurebiosynthese nicht allgemeine Gültigkeit hat. Die PCA identifizierte Glutamin, Glutamat, Aspartat, Glycin, Pheny-lalanin und Threonin als Faktoren, die den Datensätzen ihre charakteristische Eigenschaft und deren Varianz verleihen. Die Korrelationsanalyse zeigte, dass die sehr guten Korrelationen der individuellen Aminosäuren untereinander in reduzierten Stickstoff- und Kohlenstoffbedingungen sich verschlechtern. Das Verhältnis einer einzelnen Aminosäure relativ zu den anderen führte zur Identifizierung einiger Aminosäuren, die individuelle Antworten auf Stickstoff- und/oder Kohlenstoffstatus zeigen, und/oder speziell auf Nitrat, Licht und/oder den E-nergiestatus der Thylakoidmembran. Glutamat beispielsweise verhält sich in den meisten Situationen stabil, Phenylalanin dagegen zeigt in jeder physiologischen Situation eine individuelle Antwort. Die Ergebnisse dieser Arbeit führen zu einer Erweiterung der Hypothese einer koordinierten Synthese der Aminosäuren dahingehend, dass diese nicht generell für alle Aminosäuren angenommen werden kann. Es gibt einige Aminosäuren deren, Anteile sich situationsbedingt anpassen. Die Reduktion des Stickstoffstatus in nitratmangelernährten Tabakwildtyppflanzen führte zu der, nach der „Carbon-Nutrient-Balance“ Hypothese erwarteten Verlagerung der kohlenstoffreichen Phenylpropanoide und des stickstoffreichen Nikotins. Die Erhöhung der Phenylpropanoidgehalte war nicht in der Nitrat akkumulierenden NIA-Transformante zu beobachten und somit konnte Nitrat als regulatorisches Element identifiziert werden. Ein Einfluss der Vorläufermetabolite konnte ausgeschlossen werden, da sowohl nitratmangelernährter Wildtyp als auch die Nitrat akkumulierende NIA-Transformante ähnliche Gehalte dieser aufwiesen. Genexpressionsanalysen über Mikroarray-Hybridisierung und quantitative RT-PCR zeigten, dass Nitrat durch noch nicht geklärte Mechanismen Einfluss auf die Expression einiger Gene nimmt, die dem Phenylpropanoidstoffwechsels zugeordnet sind. Aus der Arbeit hervorgegangene Veröffentlichungen: Christina Fritz, Natalia Palacios-Rojas, Regina Feil und Mark Stitt (2006) Regulation of Secondary Metabolism by the Carbon-Nitrogen Status in Tobacco: Nitrate Inhibits Large Sectors of Phenylpropanoid Metabolism. Plant Journal 46, 533 - 548 Christina Fritz, Petra Matt, Cathrin Müller, Regina Feil und Mark Stitt (2006) Impact of the Carbon-Nitrogen Status on the Amino Acid Profile in Tobacco Source Leaves. Plant, Cell and Environment 29 (11), 2009 - 2111
Die vorliegende Arbeit ist im Schnittbereich zwischen Kunstgeschichte, Kunstwissenschaft und praktischer Anwendung im schulischen Umfeld angesiedelt. Thematischer Leitfaden ist die Verwendung von Papier als Werkstoff in der Bildenden Kunst. Im Wesentlichen gliedert sich die Arbeit in zwei thematische Blöcke, die aufeinander Bezug nehmen: 1. Kunsthistorische Bestandsaufnahme der Nutzung von Papier als Werkstoff in der Bildenden Kunst der Moderne 2. Entwicklung und Erprobung von Gestaltungsaufgaben mit Papier als Werkstoff im schulischen Bereich zu 1 - Kunsthistorische Bestandsaufnahme Im ersten Teil erfolgt die Inventarisierung der verschiedenen Anwendungsmöglichkeiten und Konzepte der Verwendung von Papier in der Kunst der Moderne. Diese Analyse ermöglicht einen Blick auf die Bildende Kunst des 20./21. Jahrhunderts im Zusammenhang mit dem Werkstoff Papier. Dabei werden die innovativen konzeptionellen und gestalterischen Ansätze der Künstler deutlich, die das Papier als Werkstoff mit seinen materiellen Eigenschaften und Eigengesetzlichkeiten nutzen und so neu interpretieren. Die Folge ist eine sukzessive Erweiterung der Gestaltungskonzeptionen und der Palette der handwerklichen Verarbeitungstechniken. zu 2 - Papier als Werkstoff im schulischen Bereich Der zweite Teil der Arbeit befasst sich mit den gestalterischen Möglichkeiten für den Kunstunterricht, die sich aus der Bandbreite der in Teil 1 beschriebenen konzeptionellen und künstlerisch - technischen Ansätze ergeben. Entstanden ist ein umfangreiches Konvolut von Schülerarbeiten, teilweise mit innovativen konzeptionell - gestalterischen Ansätzen. Die Arbeiten gliedern sich in drei große Werkblöcke: 1. Collage 2. Papier und Raum 3. Papier als Farbe Abschließend werden unterschiedliche didaktische und methodische Vorgehensweisen vorgestellt, die sich aus den inhaltlichen, materialimmanenten und organisatorischen Ansätzen herleiten lassen.
Die Arbeit untersucht die Annahme einer unterschiedlichen Gewichtung von distinktiven enzyklopädischen, funktionalen und sensorischen Merkmalen innerhalb der Repräsentationen von Objekten der belebten und unbelebten semantischen Domäne. Hierzu wurde ein Reaktionszeitexperiment zur Merkmalsverifikation durchgeführt. Vorab wurden deutsche Normen über das geschätzte Erwerbsalter für 244 Stimuli aus dem Korpus von Snodgrass & Vanderwart (1980) erhoben. Weiterhin wurde eine Datenbank von Merkmalsnormen für 80 konkrete Objektbegriffe erstellt. Insgesamt wurden zwei Reaktionszeitexperimente durchgeführt, die sich lediglich durch die Darbietungsdauer des Konzeptbegriffes unterschieden. Der Konzeptbegriff wurde entweder 1000 ms (lange Darbietung) oder 250 ms (kurze Darbietung) präsentiert, bevor das zu verifizierende semantische Merkmal erschien. Bei langer Präsentationszeit des Objektbegriffes zeigten sich für Objekte der unbelebten Domäne schnellere Reaktionszeiten beim Verifizieren von distinktiven funktionalen Merkmalen als beim Verifizieren von distinktiven enzyklopädischen Merkmalen. Dieser Effekt wurde bei kurzer Darbietungsdauer des Konzeptbegriffes repliziert. Bei kurzer Darbietung konnten für Objekte der unbelebten Domäne zusätzlich kürzere Reaktionszeiten beim Verifizieren distinktiver funktionaler Merkmale als beim Verifizieren distinktiver sensorischer Merkmale beobachtet werden. Für Objekte der belebten Domäne lagen weder nach kurzer noch nach langer Präsentation des Objektbegriffes Unterschiede in den Reaktionszeiten beim Verifizieren der semantischen Merkmale vor. Die Ergebnisse werden vor dem Hintergrund aktueller neurolinguistischer Modelle zur Organisation des semantischen Gedächtnisses diskutiert. Die Ergebnisse deuten darauf hin, dass innerhalb der Objektrepräsentationen belebter Objekte alle drei Merkmalstypen interkorrelieren. Für Objekte der unbelebten Domäne werden starke Interkorrelationen zwischen funktionalen und sensorischen Merkmalen angenommen. Zusätzlich wird davon ausgegangen, dass distinktive funktionale Merkmale innerhalb der Repräsentationen unbelebter Objekte besonders stark gewichtet sind.
Die kumulative Dissertation umfasst dreizehn Beiträge, die zwischen 1994 und 2006 aus je aktuellen Forschungszusammenhängen entstanden sind und in unterschiedlichen Zeitschriften und Sammelwerken publiziert wurden. Sie widmen sich Funktion und Leistung der Bibliothek für Bildungsgeschichtliche Forschung (BBF) als bildungshistorischer Forschungsbibliothek, die in einer Einleitung entlang einer professionstheoretischen Fragestellung systematisch eingeordnet werden. Beiträge und Einleitung gehen zum einen auf die Bestandsgeschichte der Vorgängereinrichtungen der BBF ein, die als Gebrauchsbibliotheken insbesondere eine institutionelle Grundlage zur Verberuflichung und Professionalisierung der Lehrer bildeten. Zum anderen widmen sie sich neueren Angeboten der 1992 in eine Forschungsbibliothek umgewandelten Einrichtung, die sich besonders an dem Bedarf des veränderten Adressatenkreises orientieren. Es handelt sich um Dienstleistungen, die einerseits dem Kontext einer digitalen Bibliothek zuzuordnen sind, andererseits das Konzept einer Forschungsbibliothek zu einer Forschungsstätte erweitern, mit der Aufgabe, zur Unterstützung des interdisziplinären und internationalen Diskurses der an Themen zur historischen Bildungsforschung arbeitenden Science Community beizutragen.
Semantische Repräsentation, obligatorische Aktivierung und verbale Produktion arithmetischer Fakten
(2006)
Die vorliegende Arbeit widmet sich der Repräsentation und Verarbeitung arithmetischer Fakten. Dieser Bereich semantischen Wissens eignet sich unter anderem deshalb besonders gut als Forschungsgegenstand, weil nicht nur seine einzelne Bestandteile, sondern auch die Beziehungen dieser Bestandteile untereinander außergewöhnlich gut definierbar sind. Kognitive Modelle können also mit einem Grad an Präzision entwickelt werden, der in anderen Bereichen kaum je zu erreichen sein wird. Die meisten aktuellen Modelle stimmen darin überein, die Repräsentation arithmetischer Fakten als eine assoziative, netzwerkartig organisierte Struktur im deklarativen Gedächtnis zu beschreiben. Trotz dieser grundsätzlichen Übereinstimmung bleibt eine Reihe von Fragen offen. In den hier vorgestellten Untersuchungen werden solche offene Fragen in Hinsicht auf drei verschiedene Themenbereiche angegangen: 1) die neuroanatomischen Korrelate 2) Nachbarschaftskonsistenzeffekte bei der verbalen Produktion sowie 3) die automatische Aktivierung arithmetischer Fakten. In einer kombinierten fMRT- und Verhaltensstudie wurde beispielsweise der Frage nachgegangen, welche neurofunktionalen Entsprechungen es für den Erwerb arithmetischer Fakten bei Erwachsenen gibt. Den Ausgangspunkt für diese Untersuchung bildete das Triple-Code-Modell von Dehaene und Cohen, da es als einziges auch Aussagen über neuroanatomische Korrelate numerischer Leistungen macht. Das Triple-Code-Modell geht davon aus, dass zum Abruf arithmetischer Fakten eine „perisylvische“ Region der linken Hemisphäre unter Einbeziehung der Stammganglien sowie des Gyrus angularis nötig ist (Dehaene & Cohen, 1995; Dehaene & Cohen, 1997; Dehaene, Piazza, Pinel, & Cohen, 2003). In der aktuellen Studie sollten gesunde Erwachsene komplexe Multiplikationsaufgaben etwa eine Woche lang intensiv üben, so dass ihre Beantwortung immer mehr automatisiert erfolgt. Die Lösung dieser geübten Aufgaben sollte somit – im Gegensatz zu vergleichbaren ungeübten Aufgaben – immer stärker auf Faktenabruf als auf der Anwendung von Prozeduren und Strategien beruhen. Hingegen sollten ungeübte Aufgaben im Vergleich zu geübten höhere Anforderungen an exekutive Funktionen einschließlich des Arbeitsgedächtnisses stellen. Nach dem Training konnten die Teilnehmer – wie erwartet – geübte Aufgaben deutlich schneller und sicherer beantworten als ungeübte. Zusätzlich wurden sie auch im Magnetresonanztomografen untersucht. Dabei konnte zunächst bestätigt werden, dass das Lösen von Multiplikationsaufgaben allgemein von einem vorwiegend linkshemisphärischen Netzwerk frontaler und parietaler Areale unterstützt wird. Das wohl wichtigste Ergebnis ist jedoch eine Verschiebung der Hirnaktivierungen von eher frontalen Aktivierungsmustern zu einer eher parietalen Aktivierung und innerhalb des Parietallappens vom Sulcus intraparietalis zum Gyrus angularis bei den geübten im Vergleich zu den ungeübten Aufgaben. So wurde die zentrale Bedeutung von Arbeitsgedächtnis- und Planungsleistungen für komplexe ungeübte Rechenaufgaben erneut herausgestellt. Im Sinne des Triple-Code-Modells könnte die Verschiebung innerhalb des Parietallappens auf einen Wechsel von quantitätsbasierten Rechenleistungen (Sulcus intraparietalis) zu automatisiertem Faktenabruf (linker Gyrus angularis) hindeuten. Gibt es bei der verbalen Produktion arithmetischer Fakten Nachbarschaftskonsistenzeffekte ähnlich zu denen, wie sie auch in der Sprachverarbeitung beschrieben werden? Solche Effekte sind nach dem aktuellen „Dreiecksmodell“ von Verguts & Fias (2004) zur Repräsentation von Multiplikationsfakten erwartbar. Demzufolge sollten richtige Antworten leichter gegeben werden können, wenn sie Ziffern mit möglichst vielen semantisch nahen falschen Antworten gemeinsam haben. Möglicherweise sollten demnach aber auch falsche Antworten dann mit größerer Wahrscheinlichkeit produziert werden, wenn sie eine Ziffer mit der richtigen Antwort teilen. Nach dem Dreiecksmodell wäre darüber hinaus sogar der klassische Aufgabengrößeneffekt bei einfachen Multiplikationsaufgaben (Zbrodoff & Logan, 2004) auf die Konsistenzverhältnisse der richtigen Antwort mit semantisch benachbarten falschen Antworten zurückzuführen. In einer Reanalyse der Fehlerdaten von gesunden Probanden (Campbell, 1997) und einem Patienten (Domahs, Bartha, & Delazer, 2003) wurden tatsächlich Belege für das Vorhandensein von Zehnerkonsistenzeffekten beim Lösen einfacher Multiplikationsaufgaben gefunden. Die Versuchspersonen bzw. der Patient hatten solche falschen Antworten signifikant häufiger produziert, welche die gleiche Zehnerziffer wie das richtigen Ergebnisses aufwiesen, als ansonsten vergleichbare andere Fehler. Damit wird die Annahme unterstützt, dass die Zehner- und die Einerziffern zweistelliger Zahlen separate Repräsentationen aufweisen – bei der Multiplikation (Verguts & Fias, 2004) wie auch allgemein bei numerischer Verarbeitung (Nuerk, Weger, & Willmes, 2001; Nuerk & Willmes, 2005). Zusätzlich dazu wurde in einer Regressionsanalyse über die Fehlerzahlen auch erstmalig empirische Evidenz für die Hypothese vorgelegt, dass der klassische Aufgabengrößeneffekt beim Abruf von Multiplikationsfakten auf Zehnerkonsistenzeffekte zurückführbar ist: Obwohl die Aufgabengröße als erster Prädiktor in das Modell einging, wurde diese Variable wieder verworfen, sobald ein Maß für die Nachbarschaftskonsistenz der richtigen Antwort in das Modell aufgenommen wurde. Schließlich wurde in einer weiteren Studie die automatische Aktivierung von Multiplikationsfakten bei gesunden Probanden mit einer Zahlenidentifikationsaufgabe (Galfano, Rusconi, & Umilta, 2003; Lefevre, Bisanz, & Mrkonjic, 1988; Thibodeau, Lefevre, & Bisanz, 1996) untersucht. Dabei sollte erstmals die Frage beantwortet werden, wie sich die automatische Aktivierung der eigentlichen Multiplikationsergebnisse (Thibodeau et al., 1996) zur Aktivierung benachbarter falscher Antworten (Galfano et al., 2003) verhält. Ferner sollte durch die Präsentation mit verschiedenen SOAs der zeitliche Verlauf dieser Aktivierungen aufgeklärt werden. Die Ergebnisse dieser Studie können insgesamt als Evidenz für das Vorhandensein und die automatische, obligatorische Aktivierung eines Netzwerkes arithmetischer Fakten bei gesunden, gebildeten Erwachsenen gewertet werden, in dem die richtigen Produkte stärker mit den Faktoren assoziiert sind als benachbarte Produkte (Operandenfehler). Dabei führen Produkte kleiner Aufgaben zu einer stärkeren Interferenz als Produkte großer Aufgaben und Operandenfehler großer Aufgaben zu einer stärkeren Interferenz als Operandenfehler kleiner Aufgaben. Ein solches Aktivierungsmuster passt gut zu den Vorhersagen des Assoziationsverteilungsmodells von Siegler (Lemaire & Siegler, 1995; Siegler, 1988), bei dem kleine Aufgaben eine schmalgipflige Verteilung der Assoziationen um das richtige Ergebnis herum aufweisen, große Aufgaben jedoch eine breitgipflige Verteilung. Somit sollte die vorliegende Arbeit etwas mehr Licht in bislang weitgehend vernachlässigte Aspekte der Repräsentation und des Abrufs arithmetischer Fakten gebracht haben: Die neuronalen Korrelate ihres Erwerbs, die Konsequenzen ihrer Einbindung in das Stellenwertsystem mit der Basis 10 sowie die spezifischen Auswirkungen ihrer assoziativen semantischen Repräsentation auf ihre automatische Aktivierbarkeit. Literatur Campbell, J. I. (1997). On the relation between skilled performance of simple division and multiplication. Journal of Experimental Psychology: Learning, Memory, and Cognition, 23, 1140-1159. Dehaene, S. & Cohen, L. (1995). Towards an anatomical and functional model of number processing. Mathematical Cognition, 1, 83-120. Dehaene, S. & Cohen, L. (1997). Cerebral pathways for calculation: double dissociation between rote verbal and quantitative knowledge of arithmetic. Cortex, 33, 219-250. Dehaene, S., Piazza, M., Pinel, P., & Cohen, L. (2003). Three parietal circuits for number processing. Cognitive Neuropsychology, 20, 487-506. Domahs, F., Bartha, L., & Delazer, M. (2003). Rehabilitation of arithmetic abilities: Different intervention strategies for multiplication. Brain and Language, 87, 165-166. Galfano, G., Rusconi, E., & Umilta, C. (2003). Automatic activation of multiplication facts: evidence from the nodes adjacent to the product. Quarterly Journal of Experimental Psychology A, 56, 31-61. Lefevre, J. A., Bisanz, J., & Mrkonjic, L. (1988). Cognitive arithmetic: evidence for obligatory activation of arithmetic facts. Memory and Cognition, 16, 45-53. Lemaire, P. & Siegler, R. S. (1995). Four aspects of strategic change: contributions to children's learning of multiplication. Journal of Experimental Psychology: General, 124, 83-97. Nuerk, H. C., Weger, U., & Willmes, K. (2001). Decade breaks in the mental number line? Putting the tens and units back in different bins. Cognition, 82, B25-B33. Nuerk, H. C. & Willmes, K. (2005). On the magnitude representations of two-digit numbers. Psychology Science, 47, 52-72. Siegler, R. S. (1988). Strategy choice procedures and the development of multiplication skill. Journal of Experimental Psychology: General, 117, 258-275. Thibodeau, M. H., Lefevre, J. A., & Bisanz, J. (1996). The extension of the interference effect to multiplication. Canadian Journal of Experimental Psychology, 50, 393-396. Verguts, T. & Fias, W. (2004). Neighborhood Effects in Mental Arithmetic. Psychology Science. Zbrodoff, N. J. & Logan, G. D. (2004). What everyone finds: The problem-size effect. In J. I. D. Campbell (Hrsg.), Handbook of Mathematical Cognition (pp.331-345). New York, NY: Psychology Press.
In der vorliegenden Arbeit wurden cDNAs, kodierend für bisher unbekannte stärkeabbauende Enzyme, aus Kartoffel isoliert und funktionell analysiert. Die Isolation der cDNAs erfolgte mit Hilfe eines Systems, welches sich der funktionellen Expression von cDNA-Bibliotheken in E. coli bediente. Die mit diesem System zur Expression gebrachten cDNA-Bibliotheken wurden im Rahmen dieser Arbeit hergestellt. Zum einen handelte es sich um eine blattspezifische Phagen-cDNA-Bibliothek (Proben wurden während des Tag/Nacht Übergangs genommen), zum anderen um eine knollenspezifische cDNA-Bibliothek aus kaltgelagerten Knollen. Nach der Überführung der Phagen-Bibliotheken in Plasmid-Bibliotheken wurden diese funktionell in dem E. coli Stamm KV832 exprimiert. Der Stamm KV832 wurde aufgrund seiner Fähigkeit, lineare Glucane zu akkumulieren, ausgewählt. Werden Glucan akkumulierende KV832 Kolonien mit Jod bedampft, so zeigen diese eine typische Blaufärbung. Nach der Expression der Plasmid-Bibliotheken in KV832 wurden solche Kolonien weiter untersucht, welche in ihrer Färbung von den blauen Kolonien abwichen. Mittels eines zweiten E. coli Stamms, PGM −, welcher ebenfalls in der Lage ist, lineare Glucane zu akkumulieren, wurden die Ergebnisse für KV832 bestätigt. Die funktionelle Expression der Bibliotheken führte zur Isolation einer Reihe von unbekannten cDNAs. Zwei dieser cDNAs wurden im Rahmen dieser Arbeit weiterführend untersucht. Zum einen handelte es sich um eine cDNA, die für eine bis dahin unbekannte β-Amylase aus Kartoffel kodierte und deren Homolog aus Arabidopsis (CT-BMY) im Laufe dieser Arbeit von Lao et al. (1999) veröffentlicht wurde, zum anderen um eine cDNA, die für ein unbekanntes Enzym kodierte (DSD10). Das Arabidopsis Homolog zu DSD10 wurde im Zuge der Arabidopsis Genominitiative Ende 2000 publiziert. Im Rahmen dieser Arbeit konnte gezeigt werden, dass die isolierte β-Amylase cDNA für eine funktionelle β-Amylase kodiert und dieses Enzym in der Lage ist, neben löslicher auch rohe Stärke anzugreifen. Lokalisationsexperimente zeigten, dass das Enzym in isolierte Erbsenchloroplasten importiert wurde und dass die 100 N-terminalen Aminosäuren für den Import in die Plastiden ausreichten. Die β-Amylase wurde als PCT-BMYI bezeichnet. Die »antisense«-Inhibierung von PCT-BMYI führte zu einem Hochstärke-Phänotyp der Blätter, sowie zu einem Anstieg der Trockenmasse. Der Hochstärke-Phänotyp ist auf eine Reduktion der Stärkemobilisierung und die daraus folgende Akkumulation der Stärke während der Vegetationsperiode zurückzuführen. Damit konnte erstmals die physiologische Bedeutung einer β-Amylase für den Abbau der transitorischen Stärke gezeigt werden. Kein Einfluss zeigte die »antisense« Inhibierung von PCT-BMYI auf den kälteinduzierten Abbau der Speicherstärke in Knollen. Es konnte auch kein Unterschied im Keimverhalten oder der Entwicklung der neuen Pflanze beobachtet werden. Ein Teil der Ergebnisse zu PCT-BMYI wurde bereits publiziert (Scheidig et al., 2002). Die isolierten cDNAs dsd10, sgeI (die Volllängen cDNA zu dsd10) und das Arabidopsis Homolog asgeI kodieren für Enzyme, welche α-Amylase-Aktivität besitzen, aber keine Homologie zu bekannten α-Amylasen aufweisen. Ein mögliches Glucoamylase Motiv erwies sich für die Aktivität des Proteins als essentiell. Lokalisationsexperimente deuteten auf den Import des SGEI Proteins in isolierte Erbsenchloroplasten hin. Die »antisense«-Inhibierung von sgeI führte in den entsprechenden Linien zu einem Hochstärke-Phänotyp in Blättern, einem Anstieg der Trockenmasse in Blättern, sowie zu größeren Stärkekörnern in einer der untersuchten Linien. Ein nicht erwarteter Effekt zeigte sich in Blättern der entsprechenden Linien, welche für längere Zeit dunkel gehalten wurden. Die Blätter der untransformierten Kontrolle waren abgestorben, wohingegen die Blätter der SGEI »antisense« Linien grün und vital erschienen. Die α- und β-Amylase-Aktivität war in Blättern der SGEI »antisense« Linien reduziert, weshalb eine genaue Zuordnung der Funktion von SGEI nicht möglich war. Die vorliegenden Ergebnisse zu den SGEI »antisense« Linien deuten aber darauf hin, dass der beobachtete Hochstärke-Phänotyp nicht alleine auf die Reduktion der β-Amylase-Aktivität zurückzuführen ist. Ein Einfluss von SGEI auf den kälteinduzierten Abbau der Speicherstärke konnte nicht beobachtet werden. Es konnte auch hier kein Unterschied im Keimverhalten oder der Entwicklung der neuen Pflanze beobachtet werden.
Variationen der stratosphärischen Residualzirkulation und ihr Einfluss auf die Ozonverteilung
(2006)
Die Residualzirkulation entspricht der mittleren Massenzirkulation und beschreibt die im zonalen Mittel stattfindenden meridionalen Transportprozesse. Die Variationen der Residualzirkulation bestimmen gemeinsam mit dem anthropogen verursachten Ozonabbau die jährlichen Schwankungen der Ozongesamtsäule im arktischen Frühling. In der vorliegenden Arbeit wird die Geschwindigkeit des arktischen Astes der Residualzirkulation aus atmosphärischen Daten gewonnen. Zu diesem Zweck wird das diabatische Absinken im Polarwirbel mit Hilfe von Trajektorienrechnungen bestimmt. Die vertikalen Bewegungen der Luftpakete können mit vertikalen Windfeldern oder entsprechend einem neuen Ansatz mit diabatischen Heizraten angetrieben werden. Die Eingabedaten stammen aus dem 45 Jahre langen Reanalyse-Datensatz des "European Centre for Medium Range Weather Forecast" (ECMWF). Außerdem kann für die Jahre ab 1984 die operationelle ECMWF-Analyse verwendet werden. Die Qualität und Robustheit der Heizraten- und Trajektorienrechnungen werden durch Sensitivitätsstudien und Vergleiche mit anderen Modellen untermauert. Anschließend werden umfangreiche Trajektorienensemble statistisch ausgewertet, um ein detailliertes, zeit- und höhenaufgelöstes Bild des diabatischen Absinkens zu ermitteln. In diesem Zusammenhang werden zwei Methoden entwickelt, um das Absinken gemittelt im Polarwirbel oder als Funktion der äquivalenten Breite zu bestimmen. Es wird gezeigt, dass es notwendig ist den Lagrangeschen auf Trajektorienrechnungen basierenden Ansatz zu verfolgen, da die einfachen Eulerschen Mittel Abweichungen zu den Lagrangeschen Vertikalgeschwindigkeiten aufweisen. Das wirbelgemittelte Absinken wird für einzelne Winter mit dem beobachteten Absinken langlebiger Spurengase und anderen Modellstudien verglichen. Der Vergleich zeigt, dass das Absinken basierend auf den vertikalen Windfeldern der ECMWF-Datensätze den Nettoluftmassentransport durch die Residualzirkulation sehr stark überschätzt. Der neue Ansatz basierend auf den Heizraten ergibt hingegen realistische Ergebnisse und wird aus diesem Grund für alle Rechnungen verwendet. Es wird erstmalig eine Klimatologie des diabatischen Absinkens über einen fast fünf Jahrzehnte umfassenden Zeitraum erstellt. Die Klimatologie beinhaltet das vertikal und zeitlich aufgelöste diabatische Absinken gemittelt über den gesamten Polarwirbel und Informationen über die räumliche Struktur des vertikalen Absinkens. Die natürliche Jahr-zu-Jahr Variabilität des diabatischen Absinkens ist sehr stark ausgeprägt. Es wird gezeigt, dass zwischen der ECMWF-Zeitreihe des diabatischen Absinkens und der Zeitreihe aus einem unabhängig analysierten Temperaturdatensatz hohe Korrelationen bestehen. Erstmals wird der Einfluss von Transportprozessen auf die Ozongesamtsäule im arktischen Frühling direkt quantifiziert. Es wird gezeigt, dass die Jahr-zu-Jahr Variabilität der Ozongesamtsäule im arktischen Frühling zu gleichen Anteilen durch die Variabilität der dynamischen Komponente und durch die Variabilität der chemischen Komponente beeinflusst wird. Die gefundenen Variabilitäten von diabatischem Absinken und Ozoneintrag in hohen Breiten werden mit der vertikalen Ausbreitung planetarer Wellen aus der Troposphäre in die Stratosphäre in Beziehung gesetzt.