Refine
Has Fulltext
- yes (78) (remove)
Year of publication
Document Type
- Doctoral Thesis (78) (remove)
Language
- English (47)
- German (30)
- Multiple languages (1)
Is part of the Bibliography
- no (78) (remove)
Keywords
- Adipositas (3)
- Klimawandel (3)
- climate change (3)
- Kinder (2)
- Kontext (2)
- Mars (2)
- Nanoparticles (2)
- Nanopartikel (2)
- Spektroskopie (2)
- Transkriptionsfaktoren (2)
- children (2)
- education (2)
- inflammatory bowel disease (2)
- metabolism (2)
- obesity (2)
- sensor (2)
- spectroscopy (2)
- transcription factors (2)
- ATP (1)
- Absorptionseigenschaften (1)
- Adana Basin (1)
- Adana Becken (1)
- Africa (1)
- Afrika (1)
- Agency theory (1)
- Agency-Theorie (1)
- Aggression (1)
- Aktive Arbeitsmarktpolitik (1)
- Aktuatoren (1)
- Allgemeine Relativitätstheorie (1)
- Alliance Capability (1)
- Allianzfähigkeit (1)
- Allianzkompetenz (1)
- Amyloid peptide (1)
- Anaphora (1)
- Anfragepaare (1)
- Anomalien (1)
- Anorexia nervosa (1)
- Anoxie (1)
- Anpassung (1)
- Apollo (1)
- Apyrase (1)
- Arbeitssuchverhalten (1)
- ArcObjects (1)
- Aspect-Oriented Programming (1)
- Aspektorientierte Programmierung (1)
- Ausführungsgeschichte (1)
- Automatisierung (1)
- Azobenzolhaltige Polymerfilme (1)
- Bayesian networks (1)
- Bayessche Netze (1)
- Bewältigungsstrategien (1)
- Bildung (1)
- Binding Theory (1)
- Biosignaturen (1)
- Blickbewegungen (1)
- Blickbewegungen beim Lesen (1)
- Breitband (1)
- Brownification (1)
- Bürgerdienste (1)
- Bürgerschaftliches Engagement (1)
- CAP (1)
- CSCW (1)
- Caco-2 (1)
- Capabilities based View (1)
- Capsule (1)
- Carbide (1)
- Carbides (1)
- Carbon Cycling (1)
- Carbon cycling (1)
- Carbonate (1)
- Carbonates (1)
- Cavity Ring-Down (1)
- Cellulose (1)
- Centering Theory (1)
- Charnockit (1)
- Chile (1)
- Chlamydomonas (1)
- Chloroplast (1)
- Chromatin-Immunopräzipitation (1)
- Claudin-4 (1)
- Cloud Computing (1)
- Cloud computing (1)
- Cobalt (1)
- Colitis ulcerosa (1)
- Common Sense Model of Illness Representation (1)
- Composites (1)
- Computationale Modellierung (1)
- Coping (1)
- Core-Collapse Supernovae (1)
- Crohn's disease (1)
- DDR (1)
- Data Privacy (1)
- Datenbank (1)
- Datenschutz (1)
- Deichbruch (1)
- Depression (1)
- Desensibilisierung (1)
- Design Thinking (1)
- Diagenese (1)
- Diagenesis (1)
- Digitale Whiteboards (1)
- Dionysos (1)
- Disambiguierung (1)
- Diskursgegebenheit (1)
- Dysarthrie (1)
- E. coli (1)
- Effizienzanalyse (1)
- Ehrenamt (1)
- Eliassen Palm Flux (1)
- Eliassen-Palm-Fluss (1)
- Eltern (1)
- Energiehaushalt (1)
- Ernährung (1)
- Erosion (1)
- Erziehung (1)
- Erziehungsheim (1)
- Fasern (1)
- Fehlende Daten (1)
- Fehlerbeseitigung (1)
- Feldflussfraktionierung (1)
- Field Flow Fractionation (1)
- Flavonoid (1)
- Flavonoid-Metabolismus (1)
- Flood (1)
- Fluoreszenz (1)
- Fläming (1)
- Formyl-Peptid Rezeptor 2 (1)
- Freiwilligenmanagement (1)
- Freizeit (1)
- Führungspraxis (1)
- GDR (1)
- GIS (1)
- Galaxien (1)
- Gas Sorption (1)
- Gassensorik (1)
- Gedankenschweifen (1)
- Gedankenverlorenes Lesen (1)
- Gefährdungskarten (1)
- General Relativity (1)
- Geoinformation (1)
- Geomorphologie (1)
- German Greens (1)
- German history (1)
- German history of sovereignty (12th and 13th century) (1)
- German reunification (1)
- Geschäftsprozessmanagement (1)
- Gießfolien (1)
- Gitterdynamik (1)
- Globaler Wandel (1)
- Gold Cluster (1)
- Gravitational Waves (1)
- Gravitationswellen (1)
- Grundwasser (1)
- Grüne (1)
- HCI (1)
- Habitus (1)
- Halo (1)
- Hebung des Plateaus (1)
- Hochgeschwindigkeitswolken (1)
- Hochwasser (1)
- Holzprodukte (1)
- IRRAS (1)
- In-situ Rasterkraftmikroskopie (1)
- Information (1)
- Informationstechnik (1)
- Informationsvorhaltung (1)
- Internet applications (1)
- Internetanwendungen (1)
- Inverse Probability Weighting (1)
- Ionic Liquid (1)
- Ivy (1)
- Java Security Framework (1)
- Jugend (1)
- Jugendliche (1)
- Kartoffel (1)
- Kern-Kollaps-Supernovae (1)
- Klassifikator (1)
- Klassifizierung (1)
- Kleintriebe (1)
- Koalition (1)
- Kohlenstoffspeicherung (1)
- Kommunale Verwaltung (1)
- Kommunikation (1)
- Kompetenzmanagement (1)
- Komposite (1)
- Konfliktgeschichte (1)
- Konjugierten polyelektrolyt (1)
- Konsumorietirte Steuerreform (1)
- Koreferenz (1)
- Krankheitsbewältigung (1)
- Land (1)
- Landepositionen (1)
- Landnutzung (1)
- Landwirtschaft (1)
- Langmuir monolayers (1)
- Latin American literature (1)
- Lebensqualität (1)
- Leistungsfähigkeit (1)
- Levels-of-inattention Hypothese (1)
- Lipide (1)
- Mars Express (1)
- Mathematics Tasks (1)
- Mathematik (1)
- Mathematikaufgaben (1)
- Mediengewalt (1)
- Meereis (1)
- Mehrschichtsysteme (1)
- Mensch-Computer-Interaktion (1)
- Merkmale (1)
- Metal-organic framework (1)
- Metall/Graphen/Polymer Grenzfläch (1)
- Methanogene Archaeen (1)
- Microalgae (1)
- Microemulsion (1)
- Mikroalgen (1)
- Mikroemulsion (1)
- Mikrokapsel (1)
- Mikropolitik (1)
- Mineralverwitterungsreaktionen (1)
- Miocene (1)
- Miozän (1)
- Modell der Bayesianischen Sakkadenplanung (1)
- Modellierung (1)
- Modelllernen (1)
- Mongolei (1)
- Mongolia (1)
- Monoschicht (1)
- Morbus Crohn (1)
- Multilayers (1)
- Myofibroblasten (1)
- Mythos (1)
- Nachmittagsbetreuung (1)
- Nahinfrarot (NIR) (1)
- Nanostruktur (1)
- Narziss (1)
- New Public Management (1)
- Nukleosidase (1)
- Nährstoffe (1)
- Oberflächengitter (1)
- Obesity (1)
- Objektive Hermeneutik (1)
- On.Line Monitoring (1)
- Opto-mechanische Spannungen (1)
- Organgröße (1)
- Organisationstheorie (1)
- Owner-Retained Access Control (ORAC) (1)
- PISA (1)
- PSP (1)
- PSP-P (1)
- PSP-RS (1)
- Parasiten (1)
- Parasites (1)
- Partizipation (1)
- Pathogenantwort (1)
- Patientenschulung (1)
- Peptide (1)
- Performance (1)
- Perowskit (1)
- Pflanzenwachstum (1)
- Phospholipid (1)
- Photon density waves (1)
- Photonendichtewellen (1)
- Photosynthese (1)
- Physik (1)
- Pinus sylvestris (1)
- Plastome-evolution (1)
- Plastomevolution (1)
- Polder (1)
- Policy Languages (1)
- Policy Sprachen (1)
- Polyadenylierung (1)
- Polyelectrolyte (1)
- Polyelektrolyt (1)
- Prevalence (1)
- Primärproduktion (1)
- Probabilistische Modelle (1)
- Probiotika (1)
- Process Mining (1)
- Progredienzangst (1)
- Project management (1)
- Projektmanagement (1)
- Pronomen (1)
- Pronouns (1)
- Propensity Score Matching (1)
- Proteine (1)
- Proteom (1)
- Protest Parties (1)
- Protestparteien (1)
- Prävalenz (1)
- Psycholinguistik (1)
- QTL (1)
- Qualitätsmanagement (1)
- Quantum Dots (1)
- Quercetin (1)
- Quercus (1)
- RDF (1)
- Raman Spektroskopie (1)
- Raman spectroscopy (1)
- Resource based View (1)
- Responsive Polymere (1)
- Richardson Syndrom (1)
- Richardson Syndrome (1)
- Risiko- und Vulnerabilitätsfaktoren (1)
- Risk and Vulnerability Factors (1)
- SJL (1)
- SME (1)
- SPARQL (1)
- STATT Partei (1)
- STATT Party (1)
- SWIM (1)
- Saprolit (1)
- Sardinia (1)
- Sardinien (1)
- Scalability (1)
- Schill (1)
- Schule (1)
- Sedimentenabfolge (1)
- Sedimentologie (1)
- Sedimentology (1)
- Selbstmanagement (1)
- Semantische Analyse (1)
- Semiklassik (1)
- Sensor (1)
- Sexual Aggression (1)
- Sexuelle Aggression (1)
- Shrub encroachment (1)
- Siberian permafrost (1)
- Skalierbarkeit (1)
- Softwareentwicklung (1)
- Softwareentwicklungsprozesse (1)
- Softwaretest (1)
- Sorption (1)
- Sri Lanka (1)
- Steuer (1)
- Steuerreform (1)
- Steuersystem (1)
- Stoffwechsel (1)
- Strategic Alliances (1)
- Strategic Management (1)
- Strategische Allianzen (1)
- Strategisches Management (1)
- Stress (1)
- Streuamplitude (1)
- Streutheorie (1)
- Stärke (1)
- Subsidenzgeschichte (1)
- Sumatra Störung (1)
- Sumatra fault (1)
- Süd-Türkei (1)
- Tarutung (1)
- Tbc1d1 (1)
- Test-getriebene Fehlernavigation (1)
- Tests (1)
- Tight Junction (1)
- Transaktivierungs-Experimente (1)
- Transforming Growth Factor beta (1)
- Transitionmetals (1)
- Transkriptomanalyse (1)
- Turkey (1)
- Türkei (1)
- Unsicherheitsanalyse (1)
- VMP1 (1)
- Vernetzte Daten (1)
- Verteiltes Arbeiten (1)
- Verwitterungsfeedback (1)
- Videoanalyse (1)
- Videometadaten (1)
- Videospiele (1)
- Vorhersage (1)
- Waldwachstumsmodell 4C (1)
- Wasserqualität (1)
- Wellenausbreitung (1)
- Wende (1)
- Wissen (1)
- Wortgrenzen (1)
- Zelltyp-spezifisch (1)
- Zellulose (1)
- Zellulärmaterialien (1)
- Zinc (1)
- Zivilgesellschaft (1)
- active labor market policies (1)
- actuating materials (1)
- adapation (1)
- adolescents (1)
- afternoon care (1)
- aggression (1)
- agriculture (1)
- analysis of efficiency (1)
- anaphora (1)
- anomalies (1)
- anorexia nervosa (1)
- anoxia (1)
- anxiety (1)
- apyrase (1)
- arbuscular mycorrhizal symbiosis (1)
- arbuskuläre Mykorrhiza-Symbiose (1)
- architectured materials (1)
- assistive Technologien (1)
- assistive technologies (1)
- attenuation tomography (1)
- automation (1)
- autophagy (1)
- azobenzene polymer films (1)
- back-in-time (1)
- biodiversity (1)
- biosignatures (1)
- broadband (1)
- brownification (1)
- business process management (1)
- carbon flow (1)
- carbon sequestration (1)
- casted-films (1)
- cavity ring-down (1)
- cell type-specific (1)
- cellular materials (1)
- changeability (1)
- charnockite (1)
- chemical weathering (1)
- chemische Verwitterung (1)
- chlamydomonas (1)
- chromatin immunoprecipitation (1)
- chronisch entzündliche Darmerkrankungen (1)
- chronisch-entzündliche Darmerkrankungen (1)
- citizen services (1)
- civic culture (1)
- classification (1)
- classifier (1)
- claudin-4 (1)
- coalition (1)
- cobalt (1)
- cognitive functions (1)
- common sense model of illness representation (1)
- communication (1)
- computational modeling (1)
- concepts of illness (1)
- conflict (1)
- conjugated polyelectrolyte (1)
- context (1)
- context awareness (1)
- coping (1)
- coreference (1)
- countryside (1)
- critical zone (1)
- crop modeling (1)
- cscw (1)
- cytokinesis (1)
- database (1)
- debugging (1)
- depression (1)
- desensitization (1)
- design thinking (1)
- deutsche Geschichte (1)
- deutsche Herrschaftsbildung (12./13. Jh.) (1)
- diet (1)
- diffuse Belastung (1)
- diffuse pollution (1)
- digital whiteboard (1)
- dike breach (1)
- directed projects (1)
- discourse-givenness (1)
- disease management (1)
- dysarthria (1)
- dysarthric features (1)
- empirical labor market studies (1)
- empirical studies (1)
- empirische Arbeitsmarktforschung (1)
- empirische Studien (1)
- energy budget (1)
- erosion (1)
- extracellular matrix (1)
- extrazelluläre Matrix (1)
- eye movements (1)
- eye movements during reading (1)
- fear of progression (1)
- fibres (1)
- films (1)
- fiscal policy (1)
- flavonoid (1)
- flavonoid biosynthesis (1)
- fluorescence (1)
- forest growth model 4C (1)
- forestry (1)
- formyl peptide receptor 2 (1)
- galaxies (1)
- gas sensing (1)
- gas sorption (1)
- gelenkte Projekte (1)
- geoinformation (1)
- geological processes (1)
- geologische Prozesse (1)
- geomorphology (1)
- global change (1)
- ground water (1)
- halo (1)
- hazard maps (1)
- high-velocity-clouds (1)
- hydrogel (1)
- illness representations (1)
- in-situ atomic force microscopy (1)
- indigenous chronic (1)
- information (1)
- information technology (1)
- integrated personal income tax (1)
- inverse probability weighting (1)
- ionic liquid (1)
- job search behavior (1)
- kinetic modeling (1)
- kinetische Modellierung (1)
- knowledge (1)
- kognitive Funktionen (1)
- kritische Zone (1)
- land use (1)
- landing positions (1)
- lattice dynamics (1)
- leadership (1)
- leisure time (1)
- levels-of-inattention hypothesis (1)
- linked data (1)
- local government (1)
- loss-of-function mutation (1)
- loss-of-function-Mutation (1)
- mathematics (1)
- media violence (1)
- metabolic costs (1)
- metabolic networks (1)
- metabolische Kosten (1)
- metabolische Netzwerke (1)
- metal-organic framework (1)
- metal/polymer interfaces (1)
- methanogenic archaea (1)
- miRNA (1)
- miRNAs (1)
- micro politics (1)
- mind wandering (1)
- mindless reading (1)
- mineral weathering reactions (1)
- missing data (1)
- model of Bayesian saccade planning (1)
- model-driven engineering (1)
- modelgetriebene Entwicklung (1)
- modeling (1)
- modelling (1)
- myofibroblast (1)
- myth (1)
- nanostructure (1)
- near-infrared (NIR) (1)
- new public management (1)
- nonprofit (1)
- nucleosidase (1)
- nutrients (1)
- online assistance (1)
- opal (1)
- optische Anregung (1)
- opto-mechanical stresses (1)
- organ size (1)
- organizational theory (1)
- overgrazing (1)
- parents (1)
- participation (1)
- pathogen response (1)
- patient education (1)
- perovskite (1)
- photoexcitation (1)
- photosynthesis (1)
- physics (1)
- physiologische Verfahren (1)
- plateau uplift (1)
- polder (1)
- political utopia (1)
- polyadenylation (1)
- potato (1)
- prediction (1)
- prefetching (1)
- primary production (1)
- probabilistic models (1)
- probiotics (1)
- process mining (1)
- propensity score matching (1)
- protein (1)
- proteins (1)
- proteomics (1)
- psycholinguistics (1)
- psychophysiological measures (1)
- qualitative pathway interpretation (1)
- quality of life (1)
- qualitymanagement (1)
- quercetin (1)
- query matching (1)
- reconfigurable matter (1)
- remote collaboration (1)
- reptiles (1)
- responsive (1)
- responsive polymer (1)
- saprolite (1)
- scattering amplitude (1)
- scattering theory (1)
- school (1)
- sea ice (1)
- sedimentary record (1)
- seismische Geschwindigkeiten (1)
- self-management (1)
- semantic analysis (1)
- semiclassics (1)
- sibirischen Permafrost (1)
- sign language (1)
- software development (1)
- software development processes (1)
- southern Turkey (1)
- stable isotope tracing (1)
- starch (1)
- status quo and reform model (1)
- stochastic Petri nets (1)
- stochastische Petri Netze (1)
- stoichiometric modeling (1)
- stress (1)
- stöchiometrische Modellierung (1)
- subjektive Krankheitskonzepte (1)
- subsidence history (1)
- sucrose (1)
- surface relief grating (1)
- swelling (1)
- tax system (1)
- test-driven fault navigation (1)
- testing (1)
- tf-idf (1)
- the turnaround (1)
- thermoplastic (1)
- thermoplastisch (1)
- tight junction (1)
- transactivation assay (1)
- transcriptome analysis (1)
- transformational (1)
- transforming growth factor beta (1)
- ubiquity of new knowledge (1)
- ulcerative colitis (1)
- ultrafast X-ray diffraction (1)
- ultraschnelle Röntgendiffraktion (1)
- uncertainty analysis (1)
- unipolar affective disorders (1)
- unipolare affektive Störungen (1)
- user interfaces (1)
- velocity structure (1)
- video analysis (1)
- video games (1)
- video metadata (1)
- violence of latin letter (1)
- volunteer management (1)
- volunteering (1)
- water balance (1)
- water quality (1)
- wave propagation (1)
- weathering feedback (1)
- wood products (1)
- word boundaries (1)
- word sense disambiguation (1)
- word skipping (1)
- worries and concerns (1)
- youth (1)
- zinc (1)
- Änderbarkeit (1)
- Ängste und Sorgen (1)
- Übergangsmetalle (1)
- Überspringen von Wörtern (1)
- Čechov (1)
Institute
- Institut für Biochemie und Biologie (12)
- Institut für Chemie (8)
- Institut für Physik und Astronomie (8)
- Department Psychologie (7)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (7)
- Institut für Umweltwissenschaften und Geographie (6)
- Institut für Geowissenschaften (5)
- Wirtschaftswissenschaften (5)
- Extern (4)
- Sozialwissenschaften (4)
Aus dem Vorwort: Der entstehende deutsche Staat hatte 928/29 mit der Unterwerfung der damals östlich von Elbe und Saale siedelnden Slawen begonnen. Den meisten Stämmen war es jedoch durch den Aufstand von 983 gelungen, nochmals ihre Freiheit zu erkämpfen. Im 12. Jahrhundert begann ein erneuter Vorstoß. Während dieser zweiten Etappe der feudalen deutschen Ostexpansion wurden bis um 1300 die nördlichen und mittleren Teile des jetzt zur DDR gehörenden Gebietes endgültig dem deutschen Reich angegliedert. Damals entstand die Mehrzahl unserer Städte und Dörfer. Im 10. Jahrhundert hatten die Könige Heinrich I. und Otto I. das Vordringen nach Osten geleitet. Während des 12. und 13. Jahrhunderts lag die Initiative in den Händen der ostsächsischen Fürsten. Sie gingen daran, ihren Einfluß auf die slawischen Gebiete auszudehnen, wie der Herzog von Sachsen, Heinrich der Löwe aus dem Geschlecht der Welfen, und Erzbischof Wichmann von Magdeburg, oder gründeten östlich der Elbe neue Territorialherrschaften, wie der Markgraf der Nordmark, Albrecht der Bär aus dem Hause der Askanier, der erste Markgraf von Brandenburg. Im Süden begannen die Wettiner die Marken Lausitz und Meißen zu festigen und zu erweitern. Wie sich die eben grob skizzierten Vorgänge jedoch im einzelnen abgespielt haben, liegt immer noch weitgehend im dunkeln. Vor allem muß damit gerechnet werden, daß sich die Herrschaftsverhältnissein verschiedenen Gebieten mehrfach geändert hatten, bevor etwa in der zweiten Hälfte des 13. Jahrhunderts die Strukturen entstanden waren, die im wesentlichen bis in die neuere Zeit bestimmend blieben. So ist heute vielfach noch unklar oder umrtritten, welche deutsche Feudalgewalt einen bestimmten Raum als erste besetzte und wo der Einflußbereich der nächsten Herrschaft begann. Das gilt in besonderem Maße für die Grenzzonen der sich ausdehnenden Fürstentümer. Aber auch Fragen, die seit langem als geklärt galten, werden plötzlich wieder aufgeworfen, wie die vor der 750-Jahr-Feier Berlins erneut aufgenommene Diekussion über die Anfänge unsarer Hauptstadt beweist.
Als ich anfing, ein Thema für meine Promotion zu erarbeiten, fand ich Massentests ziemlich beeindruckend. TIMSS: über 500000 Schüler getestet. PISA: 180000 Schüler getestet. Ich wollte diese Datenbasis nutzen, um Erkenntnisse für die Gestaltung von Unterricht zu gewinnen. Leider kam ich damit nicht weit. Je tiefer ich mich mit den Tests und den dahinterstehenden Theorien befasste, desto deutlicher schälte sich heraus, dass mit diesen Tests keine neue Erkenntnis generiert werden kann. Fast alle Schlussfolgerungen, die aus den Tests gezogen werden, konnten gar nicht aus den Tests selbst gewonnen werden. Ich konzentrierte mich zunehmend auf die Testaufgaben, weil die Geltung der Aussage eines Tests an der Aufgabe erzeugt wird: In der Aufgabe gerinnt das, was die Tester als „mathematische Leistungsfähigkeit“ konstruieren. Der Schüler wiederum hat nur die Aufgabe vor sich. Es gibt nur „gelöst“ (ein Punkt) und „ungelöst“ (kein Punkt). Damit der Schüler den Punkt bekommt, muss er an der richtigen Stelle ankreuzen, oder er muss etwas hinschrei-ben, wofür der Auswerter einen Punkt gibt. In der Dissertation wird untersucht, was die Aufgaben testen, was also alles in das Konstrukt von „mathematischer Leistungsfähigkeit“ einfließt, und ob es das ist, was der Test testen soll. Es stellte sich durchaus erstaunliches heraus: - Oftmals gibt es so viele Möglichkeiten, zur gewünschten Lösung (die nicht in jedem Fall die richtige Lösung ist) zu gelangen, dass man nicht benennen kann, welche Fähigkeit die Aufgabe eigentlich misst. Das Konstrukt „mathematische Leistungsfähigkeit“ wird damit zu einem zufälligen. - Es werden Komponenten von Testfähigkeit mitgemessen: Viele Aufgaben enthalten Irritationen, welche von testerfahrenen Schülern leichter überwunden werden können als von testunerfahrenen. Es gibt Aufgaben, die gelöst werden können, ohne dass man über die Fähigkeit verfügt, die getestet werden soll. Umgekehrt gibt es Aufgaben, die man eventuell nicht lösen kann, obwohl man über diese Fähigkeit verfügt. Als Kernkompetenz von Testfähigkeit stellt sich heraus, weder das gestellte mathematische Problem noch die angeblichen realen Proble-me ernst zu nehmen, sondern sich statt dessen auf das zu konzentrieren, was die Tester angekreuzt oder hinge-schrieben sehen wollen. Prinzipiell erweist es sich als günstig, mittelmäßig zu arbeiten, auf intellektuelle Tiefe in der Auseinandersetzung mit den Aufgaben also zu verzichten. - Man kann bei Multiple-Choice-Tests raten. Die PISA-Gruppe behauptet zwar, dieses Problem technisch über-winden zu können, dies erweist sich aber als Fehleinschätzung. - Sowohl bei TIMSS als auch bei PISA stellt sich heraus, dass die vorgeblich verwendeten didaktischen und psychologischen Theorien lediglich theoretische Mäntel für eine theoriearme Testerstellung sind. Am Beispiel der Theorie der mentalen Situationsmodelle (zur Bearbeitung von realitätsnahen Aufgaben) wird dies ausführlich exemplarisch ausgearbeitet. Das Problem reproduziert sich in anderen Theoriefeldern. Die Tests werden nicht durch Operationalisierungen von Messkonstrukten erstellt, sondern durch systematisches Zusammenstückeln von Aufgaben. - Bei PISA sollte „Mathematical Literacy“ getestet werden. Verkürzt sollte das die Fähigkeit sein, „die Rolle, die Mathematik in der Welt spielt, zu erkennen und zu verstehen, begründete mathematische Urteile abzugeben und sich auf eine Weise mit der Mathematik zu befassen, die den Anforderungen des gegenwärtigen und künftigen Lebens einer Person als eines konstruktiven, engagierten und reflektierten Bürgers entspricht“ (PISA-Eigendarstellung). Von all dem kann angesichts der Aufgaben keine Rede sein. - Bei der Untersuchung des PISA-Tests drängte sich ein mathematikdidaktischer Habitus auf, der eine separate Untersuchung erzwang. Ich habe ihn unter dem Stichwort der „Abkehr von der Sache“ zusammengefasst. Er ist geprägt von Zerstörungen des Mathematischen bei gleichzeitiger Überbetonung des Fachsprachlichen und durch Verwerfungen des Mathematischen und des Realen bei realitätsnahen Aufgaben. Letzteres gründet in der Nicht-beachtung der Authentizität sowohl des Realen als auch des Mathematischen. Die Arbeit versammelt neben den Untersuchungen zu TIMSS und PISA ein ausführliches Kapitel über das Prob-lem des Testens und eine Darstellung der Methodologie und Praxis der Objektiven Hermeneutik.
The interactions between peptides and lipids are of fundamental importance in the functioning of numerous membrane-mediated biochemical processes including antimicrobial peptide action, hormone-receptor interactions, drug bioavailability across the blood-brain barrier and viral fusion processes. Alteration of peptide structure could be a cause of many diseases. Biological membranes are complex systems, therefore simplified models may be introduced in order to understand processes occurring in nature. The lipid monolayers at the air/water interface are suitable model systems to mimic biological membranes since many parameters can be easily controlled. In the present work the lipid monolayers were used as a model membrane and their interactions with two different peptides B18 and Amyloid beta (1-40) peptide were investigated. B18 is a synthetic peptide that binds to lipid membranes that leads to the membrane fusion. It was demonstrated that it adopts different structures in the aqueous solutions and in the membrane interior. It is unstructured in solutions and forms alpha-helix at the air/water interface or in the membrane bound state. The peptide has affinity to the negatively charged lipids and even can fold into beta-sheet structure in the vicinity of charged membranes at high peptide to lipid ratio. It was elucidated that in the absence of electrostatic interactions B18 does not influence on the lipid structure, whereas it provides partial liquidization of the negatively charged lipids. The understanding of mechanism of the peptide action in model system may help to develop the new type of antimicrobial peptides as well as it can shed light on the general mechanisms of peptide/membrane binding. The other studied peptide - Amyloid beta (1-40) peptide, which is the major component of amyloid plaques found in the brain of patients with Alzheimer's disease. Normally the peptide is soluble and is not toxic. During aging or as a result of the disease it aggregates and shows a pronounced neurotoxicity. The peptide aggregation involves the conformational transition from a random coil or alpha-helix to beta-sheets. Recently it was demonstrated that the membrane can play a crucial role for the peptide aggregation and even more the peptide can cause the change in the cell membranes that leads to a neuron death. In the present studies the structure of the membrane bound Amyloid beta peptide was elucidated. It was found that the peptide adopts the beta-sheet structure at the air/water interface or being adsorbed on lipid monolayers, while it can form alpha-helical structure in the presence of the negatively charged vesicles. The difference between the monolayer system and the bulk system with vesicles is the peptide to lipid ratio. The peptide adopts the helical structure at low peptide to lipid ratio and folds into beta-sheet at high ratio. Apparently, Abeta peptide accumulation in the brain is concentration driven. Increasing concentration leads to a change in the lipid to peptide ratio that induces the beta-sheet formation. The negatively charged lipids can act as seeds in the plaque formation, the peptide accumulates on the membrane and when the peptide to lipid ratio increases it the peptide forms toxic beta-sheet containing aggregates.
The layer-by-layer assembly (LBL) of polyelectrolytes has been extensively studied for the preparation of ultrathin films due to the versatility of the build-up process. The control of the permeability of these layers is particularly important as there are potential drug delivery applications. Multilayered polyelectrolyte microcapsules are also of great interest due to their possible use as microcontainers. This work will present two methods that can be used as employable drug delivery systems, both of which can encapsulate an active molecule and tune the release properties of the active species. Poly-(N-isopropyl acrylamide), (PNIPAM) is known to be a thermo-sensitive polymer that has a Lower Critical Solution Temperature (LCST) around 32oC; above this temperature PNIPAM is insoluble in water and collapses. It is also known that with the addition of salt, the LCST decreases. This work shows Differential Scanning Calorimetry (DSC) and Confocal Laser Scanning Microscopy (CLSM) evidence that the LCST of the PNIPAM can be tuned with salt type and concentration. Microcapsules were used to encapsulate this thermo-sensitive polymer, resulting in a reversible and tunable stimuli- responsive system. The encapsulation of the PNIPAM inside of the capsule was proven with Raman spectroscopy, DSC (bulk LCST measurements), AFM (thickness change), SEM (morphology change) and CLSM (in situ LCST measurement inside of the capsules). The exploitation of the capsules as a microcontainer is advantageous not only because of the protection the capsules give to the active molecules, but also because it facilitates easier transport. The second system investigated demonstrates the ability to reduce the permeability of polyelectrolyte multilayer films by the addition of charged wax particles. The incorporation of this hydrophobic coating leads to a reduced water sensitivity particularly after heating, which melts the wax, forming a barrier layer. This conclusion was proven with Neutron Reflectivity by showing the decreased presence of D2O in planar polyelectrolyte films after annealing creating a barrier layer. The permeability of capsules could also be decreased by the addition of a wax layer. This was proved by the increase in recovery time measured by Florescence Recovery After Photobleaching, (FRAP) measurements. In general two advanced methods, potentially suitable for drug delivery systems, have been proposed. In both cases, if biocompatible elements are used to fabricate the capsule wall, these systems provide a stable method of encapsulating active molecules. Stable encapsulation coupled with the ability to tune the wall thickness gives the ability to control the release profile of the molecule of interest.
Semiclassical asymptotics for the scattering amplitude in the presence of focal points at infinity
(2006)
We consider scattering in $\R^n$, $n\ge 2$, described by the Schr\"odinger operator $P(h)=-h^2\Delta+V$, where $V$ is a short-range potential. With the aid of Maslov theory, we give a geometrical formula for the semiclassical asymptotics as $h\to 0$ of the scattering amplitude $f(\omega_-,\omega_+;\lambda,h)$ $\omega_+\neq\omega_-$) which remains valid in the presence of focal points at infinity (caustics). Crucial for this analysis are precise estimates on the asymptotics of the classical phase trajectories and the relationship between caustics in euclidean phase space and caustics at infinity.
I perform and analyse the first ever calculations of rotating stellar iron core collapse in {3+1} general relativity that start out with presupernova models from stellar evolutionary calculations and include a microphysical finite-temperature nuclear equation of state, an approximate scheme for electron capture during collapse and neutrino pressure effects. Based on the results of these calculations, I obtain the to-date most realistic estimates for the gravitational wave signal from collapse, bounce and the early postbounce phase of core collapse supernovae. I supplement my {3+1} GR hydrodynamic simulations with 2D Newtonian neutrino radiation-hydrodynamic supernova calculations focussing on (1) the late postbounce gravitational wave emission owing to convective overturn, anisotropic neutrino emission and protoneutron star pulsations, and (2) on the gravitational wave signature of accretion-induced collapse of white dwarfs to neutron stars.
Übernimmt eine Protestpartei Regierungsverantwortung, sieht sie ihre Prinzipien und Forderungen der realpolitischen Nagelprobe ausgesetzt. Es ist ein Dilemma von Anspruch und Wirklichkeit, ein Spagat zwischen Protestimage und Regierungspolitik , der diese Parteien oftmals zu zerreißen droht. Anhand der Fallstudien von vier mitregierenden Protestparteien in Deutschland sollen folgende Fragen beantwortet werden: Was macht eine Partei zur Protestpartei? Was waren die Ursachen für die Wahlerfolge der Grünen, der AL, der STATT-Partei und der Schill-Partei? Wie verliefen die Koalitionsverhandlungen? Welche Forderungen konnten die Protestparteien gegenüber ihren großen Koalitionspartnern durchsetzen? Wo mussten sie Abstriche machen? Welche Reformvorhaben wurden angedacht und welche wurden tatsächlich umgesetzt? Welche innerparteilichen Konflikte ergaben sich aus der neuen Rolle der Protestparteien? Letztendlich zeigt sich: Protestparteien scheitern nicht an ihrem schmalspurigen Programm, geringer Stammwählerschaft oder unerfahrenem Personal, sondern weil sie naturgemäß in die „Erwartungsfalle“ tappen.
Phototropic microalgae have a large potential for producing valuable substances for the feed, food, cosmetics, pigment, bioremediation, and pharmacy industries as well as for biotechnological processes. Today it is estimated that the microalgal aquaculture worldwide production is 5000 tons of dry matter per year (not taking into account processed products) making it an approximately $1.25 billion U.S. per year industry. In this work, several spectroscopic techniques were utilized for the investigation of microalgae cells. Specifically, photondensity wave spectroscopy was applied as a technique for the on-line observation of the culture. For effective evaluation of the photosynthetic growth processes, fast and non-invasive sensor systems that analyze the relevant biological and technical process parameters are preferred. Traditionally, the biomass in a photobioreactor is quantified with the help of turbidimetry measurements, which require extensive calibration. Another problem frequently encountered when using spectral analysis for investigating solutions is that samples of interest are often undiluted and highly scattering and do not adhere to Beer-Lambert's law. Due to the fluorescence properties of chlorophyll, fluorescence spectroscopy techniques including fluorescence lifetime imaging and single photon counting could be applied to provide images of the cells as well as determine the effects of excitation intensity on the fluorescence lifetime, which is an indicator of the condition of the cell. A photon density wave is a sinusoidally intensity-modulated optical wave stemming from a point-source of light, which propagates through diffuse medium and exhibits amplitude and phase variations. Light propagation though strongly scattering media can be described by the P1 approximation to the Boltzmann transport equation. Photon density wave spectroscopy enables the ability to differentiate between scattered and absorbed light, which is desired so that an independent determination of the reduced scattering and absorption coefficients can be made. The absorption coefficient is related to the pigment content in the cells, and the reduced scattering coefficient can be used to characterize physical and morphological properties of the medium and was here applied for the determination of the average cell size.
Ein hoher Verzehr von Obst und Gemüse scheint das Risiko der Inzidenz verschiedener Erkrankungen zu reduzieren. Es wird vermutet, dass eine Gruppe sekundärer Pflanzeninhaltsstoffe, die Flavonoide, hierfür verantwortlich sind. Mögliche Effekte auf die intestinale Barrierefunktion dieser Substanzklasse sind jedoch weitgehend ungeklärt. Parazelluläre Eigenschaften epithelialer Zellen werden hauptsächlich durch die Zell-Zell-Kontakte der Tight Junction (TJ) insbesondere durch die Proteine Occludin und die Claudine definiert. Ziel dieser Arbeit war es, die Effekte des am häufigsten vorkommenden Flavonoids Quercetin auf die Barrierefunktion der Kolonkarzinom-Zelllinie Caco-2 zu untersuchen. Hierbei zeigte sich, dass Quercetin konzentrationsabhängig (50-200 µM) den transepithelialen Widerstand erhöhte. Die Wirkung von 200 µM Quercetin war bereits nach 4 h Inkubation erkennbar und erreichte nach 48 h maximale Werte. Der Wirkverlust, welcher nach 72 h Inkubation eintrat, konnte durch eine tägliche Gabe des Flavonoids verhindert werden. Weiterhin zeigte sich, dass der Quercetin-induzierte Widerstandsanstieg durch mukosale oder serosale Zugabe gleichermaßen auslösbar war. Western Blot-Analysen der TJ-Proteine Occludin, Claudin-1, -3, -4 und -7 ergaben, dass der durch Quercetin-induzierte Widerstandsanstieg insbesondere mit einer Zunahme der Expression des abdichtenden TJ-Proteins Claudin-4 einherging. Quercetin erhöhte ebenfalls die mRNA-Expression von Claudin-4 (quantitative RT-PCR) und bewirkte eine Aktivierung des Claudin-4-Promotors (Luciferase-Reportergen-Analysen). Mittels Immunfluoreszenz-Färbungen und Laserscanning-Mikroskopie konnte ein vermehrter Einbau von Claudin-4 in die TJ nachgewiesen werden. Funktionelle Untersuchungen mittels radioaktiven Fluxmessungen zeigten, dass das Flavonoid die parazelluläre Permeabilität für Natrium und Chlorid reduzierte, aber die Durchlässigkeit von Mannitol als parazellulärer Marker unverändert blieb. Wir konnten hiermit erstmals nachweisen, dass Quercetin die Expression des abdichtenden TJ-Proteins Claudin-4 in den TJ-Komplex verstärkte, wodurch die Ionen-Durchlässigkeit für Natrium und Chlorid vermindert wurde. Das führte zu einer Abdichtung der intestinalen Barriere. Dieser direkte Effekte von Quercetin könnte eine neue Möglichkeit für die Behandlung oder Prävention von Diarrhöe-bedingten intestinalen Barrieredefekten darstellen.
Ziel dieser Arbeit war es, die Stickstoff- und Phosphorprozesse im nordostdeutschen Tiefland detailliert zu untersuchen und Handlungsoptionen hinsichtlich der Landnutzung zur nachhaltigen Steuerung der Stickstoff- und Phosphoreinträge in die Fließgewässer aufzuzeigen. Als Grundvoraussetzung für die Modellierung des Nährstoffhaushaltes mussten zunächst die hydrologischen Prozesse und die Abflüsse für die Einzugsgebiete validiert werden. Dafür wurde in dieser Arbeit das ökohydrologische Modell SWIM verwendet. Die Abflussmodellierung umfasste den Zeitraum 1991 - 2000. Die Ergebnisse dazu zeigen, dass SWIM in der Lage war, die hydrologischen Prozesse in den Untersuchungsgebieten adäquat wiederzugeben. Auf der Grundlage der Modellierung des Wasserhaushaltes wurden mit SWIM die Stoffumsatzprozesse für den Zeitraum 1996 - 2000 simuliert. Um dabei besonders das Prozessgeschehen im Tiefland zu berücksichtigen, war die Erweiterung von SWIM um einen Ammonium-Pool mit dessen Umsatzprozessen erforderlich. Außerdem wurde der Prozess der Nährstoffversickerung so ergänzt, dass neben Nitrat auch Ammonium und Phosphat durch das gesamte Bodenprofil verlagert und über die Abflusskomponenten zum Gebietsauslass transportiert werden können. Mit diesen Modellerweiterungen konnten die Stickstoff und Phosphorprozesse in den Untersuchungsgebieten gut abgebildet werden. Mit dem so validierten Modell wurden weitere Anwendungen ermöglicht. Nährstoffsimulationen für den Zeitraum 1981 bis 2000 dienten der Untersuchung des abnehmenden Trends in den Nährstoffkonzentrationen der Nuthe. Die Untersuchungsergebnisse lassen deutlich erkennen, dass sich die Konzentrationen nach 1990 hauptsächlich auf Grund der Reduzierung der Einträge aus punktförmigen Quellen und Rieselfeldern verringert haben. Weitere Modellrechnungen zur Herkunft der Nährstoffe haben ergeben, dass Nitrat überwiegend aus diffusen Quellen, Ammonium und Phosphat dagegen aus punktförmigen Quellen stammen. Als besonders sensitiv auf die Modellergebnisse haben sich die Parameter zu Landnutzung und -management und die Durchwurzelungstiefe der Pflanzen herausgestellt. Abschließend wurden verschiedene Landnutzungsszenarien angewendet. Die Ergebnisse zu den Szenariorechnungen zeigen, dass fast alle vorgegebenen Landnutzungsszenarien zu einer Verringerung der Stickstoff- bzw. Phosphoremissionen führten. Die Anwendung von Szenarien, die alle relevanten Zielvorgaben und Empfehlungen zum Ressourcenschutz berücksichtigen, zeigen die größten Veränderungen.
In semi-arid savannah ecosystems, the vegetation structure and composition, i.e. the architecture of trees, shrubs, grass tussocks and herbaceous plants, offer a great variety of habitats and niches to sustain animal diversity. In the last decades intensive human land use practises like livestock farming have altered the vegetation in savannah ecosystems worldwide. Extensive grazing leads to a reduction of the perennial and herbaceous vegetation cover, which results in an increased availability of bare soil. Both, the missing competition with perennial grasses and the increase of bare soils favour shrub on open ground and lead to area-wide shrub encroachment. As a consequence of the altered vegetation structure and composition, the structural diversity declines. It has been shown that with decreasing structural diversity animal diversity decline across a variety of taxa. Knowledge on the effects of overgrazing on reptiles, which are an important part of the ecosystem, are missing. Furthermore, the impact of habitat degradation on factors of a species population dynamic and life history, e.g., birth rate, survival rate, predation risk, space requirements or behavioural adaptations are poorly known. Therefore, I investigated the impact of overgrazing on the reptile community in the southern Kalahari. Secondly I analysed population dynamics and the behaviour of the Spotted Sand Lizard, Pedioplanis l. lineoocellata. All four chapters clearly demonstrate that habitat degradation caused by overgrazing had a severe negative impact upon (i) the reptile community as a whole and (ii) on population parameters of Pedioplanis l. lineoocellata. Chapter one showed a significant decline of regional reptile diversity and abundance in degraded habitats. In chapter two I demonstrated that P. lineoocellata moves more frequently, spends more time moving and covers larger distances in degraded than in non-degraded habitats. In addition, home range size of the lizard species increases in degraded habitats as shown by chapter three. Finally, chapter four showed the negative impacts of overgrazing on several population parameters of P. lineoocellata. Absolute population size of adult and juvenile lizards, survival rate and birth rate are significantly lower in degraded habitats. Furthermore, the predation risk was greatly increased in degraded habitats. A combination of a variety of aspects can explain the negative impact of habitat degradation on reptiles. First, reduced prey availability negatively affects survival rate, the birth rate and overall abundance. Second, the loss of perennial plant cover leads to a loss of niches and to a reduction of opportunities to thermoregulate. Furthermore, a loss of cover and is associated with increased predation risk. A major finding of my thesis is that the lizard P. lineoocellata can alter its foraging strategy. Species that are able to adapt and change behaviour, such as P. lineoocellata can effectively buffer against changes in their environment. Furthermore, perennial grass cover can be seen as a crucial ecological component of the vegetation in the semi-arid savannah system of the southern Kalahari. If perennial grass cover is reduced to a certain degree reptile diversity will decline and most other aspects of reptile life history will be negatively influenced. Savannah systems are characterised by a mixture of trees, shrubs and perennial grasses. These three vegetation components determine the composition and structure of the vegetation and accordingly influence the faunal diversity. Trees are viewed as keystone structures and focal points of animal activity for a variety of species. Trees supply animals with shelter, shade and food and act as safe sites, nesting sites, observation posts and foraging sites. Recent research demonstrates a positive influence of shrub patches on animal diversity. Moreover, it would seem that intermediate shrub cover can also sustain viable populations in savannah landscapes as has been demonstrated for small carnivores and rodent species. The influence of perennial grasses on faunal diversity did not receive the same attention as the influence of trees and shrubs. In my thesis I didn’t explicitly measure the direct effects of perennial grasses but my results strongly imply that it has an important role. If the perennial grass cover is significantly depleted my results suggest it will negatively influence reptile diversity and abundance and on several populations parameters of P. lineoocellata. Perennial grass cover is associated with the highest prey abundance, reptile diversity and reptile abundance. It provides reptiles both a refuge from predators and opportunities to optimise thermoregulation. The relevance of each of the three vegetation structural elements is different for each taxa and species. In conclusion, I can all three major vegetation structures in the savannah system are important for faunal diversity.
Entwicklung, Implementierung und Erprobung eines planetaren Informationssystems auf Basis von ArcGIS
(2007)
Mit der Entwicklung der modernen Raumfahrt Mitte der 60er-Jahre des zwanzigsten Jahrhunderts und der Eroberung des Weltraums brach eine neue Epoche der bis dato auf Beobachtungen mit dem Teleskop gestützten planetaren Forschung an. Während des Wettrennens um die technologische Führerschaft im All zur Zeit des Kalten Krieges war das erste Ziel die Entsendung von Satelliten zur Erdbeobachtung, denen aber schon bald Sonden zum Mond und den benachbarten Planeten folgten. Diese Missionen lieferten eine enorme Fülle von Informationen in Form von Bildern und Messergebnissen in unterschiedlichen Datenformaten. Diese galt und gilt es zu strukturieren, zu verwalten, zu aktualisieren und zu interpretieren. Für die Interpretation terrestrischer Daten werden geographische Informationssysteme (GIS) hinzugezogen, die jedoch für planetare Anwendungen aufgrund unterschiedlicher Voraussetzungen nicht ohne weiteres eingesetzt werden können. Daher wurde im Rahmen dieser Arbeit die für die Verwaltung von geographischen Daten der Erdfernerkundung kommerziell erhältliche Software ArcGIS Desktop 9.0 / 9.1 (ESRI) mit eigenen Programmen und Modulen für die Planetenforschung angepasst. Diese ermöglichen die Aufbereitung und den Import planetarer Bild- und Textinformation in die kommerzielle Software. Zusätzlich wurde eine planetare Datenbank zur Speicherung und zentralen Verwaltung der Informationen aufgebaut. Die im Rahmen dieser Arbeit entwickelten Softwarekomponenten ermöglichen die schnelle und benutzerfreundliche Aufbereitung der in der Datenbank gehaltenen Informationen und das Auslesen in Dateiformate, die für geographische Informationssysteme geeignet sind. Des Weiteren wurde eine „Werkzeugleiste“ für ArcGIS entwickelt, die das Arbeiten mit planetaren Datensätzen beträchtlich beschleunigt und vereinfacht. Sie beinhaltet auch Module zur wissenschaftlichen Interpretation der planetaren Informationen, wie beispielsweise der Berechnung der Oberflächenrauigkeit der Marsoberfläche inklusive der flächendeckenden Kalibrierung der Eingangs-Basisdaten. Exemplarisch konnte gezeigt werden, dass das Verfahren eine verbesserte Berechnung der Oberflächenrauigkeit ermöglicht, als bisher angewandte Ansätze. Zudem wurde eine auf ArcGIS basierende Prozesskette zur Berechnung von hierarchischen Flussnetzen entwickelt und erprobt. Das terrestrische Beispiel, die Analyse eines Abflusssystems auf Island, zeigte eine sehr große Übereinstimmung der errechneten Gewässernetze mit den morphologischen Gegebenheiten vor Ort. Daraus ließ sich eine hohe Genauigkeit der mit demselben Ansatz errechneten Gewässernetze auf dem Mars ableiten. Auf der Grundlage der in dieser Arbeit entwickelten Programme und Module lassen sich auch Daten zukünftiger Missionen aufbereiten und in ein solches System einbinden, um diese mit eigenen Ansätzen zu verwalten, zu aktualisieren und für neue wissenschaftliche Fragestellungen perfekt anzupassen, einzusetzen und zu präsentieren, um so neue wissenschaftliche Erkenntnisse in der Planetenforschung zu gewinnen.
Adenylates are metabolites with essential function in metabolism and signaling in all living organisms. As Cofactors, they enable thermodynamically unfavorable reactions to be catalyzed enzymatically within cells. Outside the cell, adenylates are involved in signalling processes in animals and emerging evidence suggests similar signaling mechanisms in the plants’ apoplast. Presumably, apoplastic apyrases are involved in this signaling by hydrolyzing the signal mediating molecules ATP and ADP to AMP. This PhD thesis focused on the role of adenylates on metabolism and development of potato (Solanum tuberosum) by using reverse genetics and biochemical approaches. To study the short and long term effect of cellular ATP and the adenylate energy charge on potato tuber metabolism, an apyrase from Escherichia coli targeted into the amyloplast was expressed inducibly and constitutively. Both approaches led to the identification of adaptations to reduced ATP/energy charge levels on the molecular and developmental level. These comprised a reduction of metabolites and pathway fluxes that require significant amounts of ATP, like amino acid or starch synthesis, and an activation of processes that produce ATP, like respiration and an immense increase in the surface-to-volume ratio. To identify extracellular enzymes involved in adenylate conversion, green fluorescent protein and activity localization studies in potato tissue were carried out. It was found that extracellular ATP is imported into the cell by an apoplastic enzyme complement consisting of apyrase, unspecific phosphatase, adenosine nucleosidase and an adenine transport system. By changing the expression of a potato specific apyrase via transgenic approaches, it was found that this enzyme has strong impact on plant and particular tuber development in potato. Whereas metabolite levels were hardly altered, transcript profiling of tubers with reduced apyrase activity revealed a significant upregulation of genes coding for extensins, which are associated with polar growth. The results are discussed in context of adaptive responses of plants to changes in the adenylate levels and the proposed role of apyrase in apoplastic purinergic signaling and ATP salvaging. In summary, this thesis provides insight into adenylate regulated processes within and outside non-photosynthetic plant cells.
Allianzfähigkeit
(2008)
Ein empirisch belegtes Phänomen ist die steigende Anzahl strategischer Allianzen von Unternehmen, speziell in dynamischen Wettbewerbsumgebungen. Über strategische Allianzen versuchen Unternehmen, auch in einer dynamischen Wettbewerbsumwelt unter hoher Unsicherheit Wettbewerbsvorteile aufzubauen. Dabei belegen verschiedene Forschungsarbeiten, dass strategische Allianzen häufig scheitern und weisen übereinstimmend relativ niedrige Erfolgsquoten von 50% nach. Harbison und Pekár belegen zwischen Unternehmen eine hohe Varianz und identifizieren, dass einige Unternehmen bei 87% ihrer strategischen Allianzen erfolgreich sind, während andere Unternehmen nur eine Erfolgsrate von 37% aufweisen. Die Fragestellung, warum Unternehmen in dieser Hinsicht so signifikant differieren, bildet die grundlegende Motivation für die vorliegende Arbeit. Die Ursache für die hohe Varianz der Erfolgsrate von strategischen Allianzen zwischen Unternehmen, ist in den internen Prozessen und Strukturen der Unternehmen zu vermuten. Diese unternehmensinternen Prozesse und Strukturen werden mit dem Begriff Allianzfähigkeit bezeichnet. 1. Forschungsfrage Aus welchen Prozessen und Strukturen besteht Allianzfähigkeit in Unternehmen? 2. Forschungsfrage Wie entwickelt sich Allianzfähigkeit in Unternehmen? Die vermutete Kausalität zwischen Allianzfähigkeit und der Erfolgsrate bei strategischen Allianzen verweist auf einen post-positivistischen Charakter der Untersuchung. Es wird auf wissenschaftliche Literatur, aber auch auf Beiträge von Unternehmensberatungen, Nichtregierungsorganisationen und andere Quellen zurückgegriffen, wie es als Forschungsansatz im Kontext strategischer Allianzen vorgeschlagen wird. Zunächst werden im zweiten Kapitel die beiden beobachtbaren Phänomene, eine steigende Dynamik der Wettbewerbsumwelt vieler Unternehmen und die zunehmende Anzahl strategischer Allianzen, die Interdependenzen aufweisen, unter Einbeziehung der Literatur, charakterisiert. Insbesondere die Motive von Unternehmen und deren Strategien zum Eingehen strategischer Allianzen werden erläutert. Im folgenden dritten Kapitel werden die traditionellen Erklärungsansätze des strategischen Managements anhand einer empirischen Literaturanalyse skizziert. Das Ergebnis der empirischen Literaturanalyse ist die Notwendigkeit eines neuen theoretischen Zugangs, der die gestiegene Dynamik der Wettbewerbsumwelt stärker reflektiert und interne Prozesse von Unternehmen intensiver betrachtet. Mit den Beiträgen von Teece et al., Eisenhardt und Martin, scheint sich der fähigkeitsorientierte Ansatz als neue Erklärungsperspektive zu etablieren. Der junge fähigkeitsorientierte Ansatz wird als geeignet identifiziert und im vierten Kapitel ausführlich dargestellt sowie in seinen aktuellen Entwicklungen erläutert. Das vierte Kapitel bildet den theoretischen Rahmen für das folgende fünfte Kapitel, das die Charakterisierung von Allianzfähigkeit auf der Grundlage eines Literaturreviews umfasst und direkt die Forschungsfragen anhand einer Modellentwicklung adressiert. Erkennt¬nisse aus anderen theoretischen Perspektiven werden in den fähigkeitsorientierten Ansatz übertragen und in das Modell integriert. Ein Vorgehen, das in der Tradition des strategischen Managements, insbesondere der Beiträge zum fähigkeitsorientierten Ansatz, steht. Im sechsten Kapitel wird das skizzierte Modell als Grundlage verwendet, um die Entwicklung von Allianzfähigkeit empirisch anhand einer Longitudinal-Fallstudie zu untersuchen. Die Analyse von Allianzfähigkeit sollte vor dem Hintergrund einer hohen Wettbewerbsdynamik unter der Bedingung von Hyperwettbewerb (Kriterium 1) in einer Branche erfolgen, bei der strategische Allianzen eine hohe Rolle spielen (Kriterium 2). Darüber hinaus soll die Möglichkeit bestehen, Zugang zu Dokumenten, Interviewpartnern sowie Datenbanken zu erhalten (Kriterium 3). Aufgrund dieser Kriterien wurde die Börsenindustrie als Industrie und die Deutsche Börse als Unternehmen ausgewählt. Das Ziel der Fallstudie ist die Darstellung der Entwicklung der strategischen Allianzen der Deutschen Börse von 1997 bis 2007, um Rückschlüsse auf die Allianzfähigkeit des Unternehmens ziehen zu können. Da die Entwicklung der Allianzfähigkeit im Vordergrund der Fallstudie steht, wird eine Längsschnittfallstudie mit chronologischem Aufbau verwendet. Dabei wurden drei verschiedene Quellen, Experteninterviews, Datenbanken sowie Dokumente, ausgewertet.
Forests are a key resource serving a multitude of functions such as providing income to forest owners, supplying industries with timber, protecting water resources, and maintaining biodiversity. Recently much attention has been given to the role of forests in the global carbon cycle and their management for increased carbon sequestration as a possible mitigation option against climate change. Furthermore, the use of harvested wood can contribute to the reduction of atmospheric carbon through (i) carbon sequestration in wood products, (ii) the substitution of non-wood products with wood products, and (iii) through the use of wood as a biofuel to replace fossil fuels. Forest resource managers are challenged by the task to balance these multiple while simultaneously meeting economic requirements and taking into consideration the demands of stakeholder groups. Additionally, risks and uncertainties with regard to uncontrollable external variables such as climate have to be considered in the decision making process. In this study a scientific stakeholder dialogue with forest-related stakeholder groups in the Federal State of Brandenburg was accomplished. The main results of this dialogue were the definition of major forest functions (carbon sequestration, groundwater recharge, biodiversity, and timber production) and priority setting among them by the stakeholders using the pair-wise comparison technique. The impact of different forest management strategies and climate change scenarios on the main functions of forest ecosystems were evaluated at the Kleinsee management unit in south-east Brandenburg. Forest management strategies were simulated over 100 years using the forest growth model 4C and a wood product model (WPM). A current climate scenario and two climate change scenarios based on global circulation models (GCMs) HadCM2 and ECHAM4 were applied. The climate change scenario positively influenced stand productivity, carbon sequestration, and income. The impact on the other forest functions was small. Furthermore, the overall utility of forest management strategies were compared under the priority settings of stakeholders by a multi-criteria analysis (MCA) method. Significant differences in priority setting and the choice of an adequate management strategy were found for the environmentalists on one side and the more economy-oriented forest managers of public and private owned forests on the other side. From an ecological perspective, a conservation strategy would be preferable under all climate scenarios, but the business as usual management would also fit the expectations under the current climate. In contrast, a forest manager in public-owned forests or a private forest owner would prefer a management strategy with an intermediate thinning intensity and a high share of pine stands to enhance income from timber production while maintaining the other forest functions. The analysis served as an example for the combined application of simulation tools and a MCA method for the evaluation of management strategies under multi-purpose and multi-user settings with changing climatic conditions. Another focus was set on quantifying the overall effect of forest management on carbon sequestration in the forest sector and the wood industry sector plus substitution effects. To achieve this objective, the carbon emission reduction potential of material and energy substitution (Smat and Sen) was estimated based on a literature review. On average, for each tonne of dry wood used in a wood product substituting a non-wood product, 0.71 fewer tonnes of fossil carbon are emitted into to the atmosphere. Based on Smat and Sen, the calculation of the carbon emission reduction through substitution was implemented in the WPM. Carbon sequestration and substitution effects of management strategies were simulated at three local scales using the WPM and the forest growth models 4C (management unit level) or EFISCEN (federal state of Brandenburg and Germany). An investigation was conducted on the influence of uncertainties in the initialisation of the WPM, Smat, and basic conditions of the wood product sector on carbon sequestration. Results showed that carbon sequestration in the wood industry sector plus substitution effects exceeded sequestration in the forest sector. In contrast to the carbon pools in the forest sector, which acted as sink or source, the substitution effects continually reduced carbon emission as long as forests are managed and timber is harvested. The main climate protection function was investigated for energy substitution which accounted for about half of the total carbon sequestration, followed by carbon storage in landfills. In Germany, the absolute annual carbon sequestration in the forest and wood industry sector plus substitution effects was 19.9 Mt C. Over 50 years the wood industry sector contributed 70% of the total carbon sequestration plus substitution effects.
Die von mir vorgelegte Arbeit widmet sich insgesamt der Fragestellung, wie große gelenkte Projekte an einer ostdeutschen Schule in der Wendezeit durchgeführt wurden, was aus ihnen folgte und welche Konsequenzen für die Theorie der schulischen Projektarbeit daraus gezogen werden können. Insbesondere zeigt sie auf inwieweit die Arbeit mit Projekten die Forderungen der Gesellschaft, Schule als Lern-, Arbeits-, Lebens- und Freizeitort für Schüler/innen zu gestalten, erfüllt werden kann. Unterschiedlichste Schülerbeispiele (für Begabte, (Hoch)begabte, "schwierig Begabte", Verhaltensschwierige, überraschende Entwicklungen, Lernunwillige u.a.) werden vorgestellt und daran aufgezeigt, was Projektarbeit leisten kann, um die individuellen Leistungsmöglichkeiten von allen Schüler/innen gerecht zu werden, um diese auszuschöpfen, zu fördern und weiter zu entwickeln.
This thesis aims to quantify the human impact on the natural resource water at the landscape scale. The drivers in the federal state of Brandenburg (Germany), the area under investigation, are land-use changes induced by policy decisions at European and federal state level. The water resources of the federal state are particularly sensitive to changes in land-use due to low precipitation rates in the summer combined with sandy soils and high evapotranspiration rates. Key elements in landscape hydrology are forests because of their unique capacity to transport water from the soil to the atmosphere. Given these circumstances, decisions made at any level of administration that may have effects on the forest sector in the state are critical in relation to the water cycle. It is therefore essential to evaluate any decision that may change forest area and structure in such a sensitive region. Thus, as a first step, it was necessary to develop and implement a model able to simulate possible interactions and feedbacks between forested surfaces and the hydrological cycle at the landscape scale. The result is a model for simulating the hydrological properties of forest stands based on a robust computation of the temporal and spatial LAI (leaf area index) dynamics. The approach allows the simulation of all relevant hydrological processes with a low parameter demand. It includes the interception of precipitation and transpiration of forest stands with and without groundwater in the rooting zone. The model also considers phenology, biomass allocation, as well as mortality and simple management practices. It has been implemented as a module in the eco-hydrological model SWIM (Soil and Water Integrated Model). This model has been tested in two pre-studies to verify the applicability of its hydrological process description for the hydrological conditions typical for the state. The newly implemented forest module has been tested for Scots Pine (Pinus sylvestris) and in parts for Common Oak (Quercus robur and Q. petraea) in Brandenburg. For Scots Pine the results demonstrate a good simulation of annual biomass increase and LAI in addition to the satisfactory simulation of litter production. A comparison of the simulated and measured data of the May sprout for Scots pine and leaf unfolding for Oak, as well as the evaluation against daily transpiration measurements for Scots Pine, does support the applicability of the approach. The interception of precipitation has also been simulated and compared with weekly observed data for a Scots Pine stand which displays satisfactory results in both the vegetation periods and annual sums. After the development and testing phase, the model is used to analyse the effects of two scenarios. The first scenario is an increase in forest area on abandoned agricultural land that is triggered by a decrease in European agricultural production support. The second one is a shift in species composition from predominant Scots Pine to Common Oak that is based on decisions of the regional forestry authority to support a more natural species composition. The scenario effects are modelled for the federal state of Brandenburg on a 50m grid utilising spatially explicit land-use patterns. The results, for the first scenario, suggest a negative impact of an increase in forest area (9.4% total state area) on the regional water balance, causing an increase in mean long-term annual evapotranspiration of 3.7% at 100% afforestation when compared to no afforestation. The relatively small annual change conceals a much more pronounced seasonal effect of a mean long-term evapotranspiration increase by 25.1% in the spring causing a pronounced reduction in groundwater recharge and runoff. The reduction causes a lag effect that aggravates the scarcity of water resources in the summer. In contrast, in the second scenario, a change in species composition in existing forests (29.2% total state area) from predominantly Scots Pine to Common Oak decreases the long-term annual mean evapotranspiration by 3.4%, accompanied by a much weaker, but apparent, seasonal pattern. Both scenarios exhibit a high spatial heterogeneity because of the distinct natural conditions in the different regions of the state. Areas with groundwater levels near the surface are particularly sensitive to changes in forest area and regions with relatively high proportion of forest respond strongly to the change in species composition. In both cases this regional response is masked by a smaller linear mean effect for the total state area. Two critical sources of uncertainty in the model results have been investigated. The first one originates from the model calibration parameters estimated in the pre-study for lowland regions, such as the federal state. The combined effect of the parameters, when changed within their physical meaningful limits, unveils an overestimation of the mean water balance by 1.6%. However, the distribution has a wide spread with 14.7% for the 90th percentile and -9.9% for the 10th percentile. The second source of uncertainty emerges from the parameterisation of the forest module. The analysis exhibits a standard deviation of 0.6 % over a ten year period in the mean of the simulated evapotranspiration as a result of variance in the key forest parameters. The analysis suggests that the combined uncertainty in the model results is dominated by the uncertainties of calibration parameters. Therefore, the effect of the first scenario might be underestimated because the calculated increase in evapotranspiration is too small. This may lead to an overestimation of the water balance towards runoff and groundwater recharge. The opposite can be assumed for the second scenario in which the decrease in evapotranspiration might be overestimated.
Die Umsetzung theoretisch fundierter Besteuerungsprinzipien in die Praxis hat seit längerer Zeit einen prominenten Platz in der finanzwissenschaftlichen Forschung. Dabei besteht kein Zweifel, dass es ein größeres Interesse daran gibt, nicht nur theoretisch fundierte Prinzipien abzuleiten, sondern diese auch auf ihre Anwendbarkeit zu prüfen. Dieses Interesse an der optimalen Ausgestaltung eines Steuersystems in der Praxis wurde mit dem Zusammenbruch der sozialistischen Planwirtschaften in den 1990er Jahren nochmals verstärkt. Im Rahmen dieser umfassenden Transformationsprozesse ist es unabdingbar, dass die Wirtschaftsentwicklung über ein leistungsfähiges Steuersystem finanziert wird. Die zu erhebenden Steuern haben einen unmittelbaren Einfluss auf die ökonomischen Entscheidungen wie beispielsweise in Form eines Konsumverzichts. Darüber hinaus entstehen Zusatzlasten der Besteuerung (excess burden), wenn vergleichbare ökonomische Aktivitäten unterschiedlich besteuert werden und damit etwa der Konsum bestimmter Güter, eine bestimmte Investitionsart oder der Einsatz eines bestimmten Produktionsfaktors diskriminiert wird. Aus den Substitutionseffekten, die durch die Veränderungen der relativen Preise hervorgerufen werden, resultieren letztendlich über die Zahllast hinausgehende Nutzenverluste bei den Wirtschaftssubjekten. Dadurch werden die ökonomischen Konsum-/Sparentscheidungen verzerrt (Besteuerung der Kapitaleinkommen), das Leistungsangebot vermindert (Besteuerung der Arbeitseinkommen), Produktionsfaktoren umgelenkt oder Investitions- und Finanzierungsentscheidungen verzerrt (Unternehmenssteuer). Somit kann durch Steuern bzw. durch ihre unangemessene Ausgestaltung ein gesamtwirtschaftlicher Effizienzverlust verursacht werden. Gerade in Transformationsländern wie Georgien war mit Beginn der Transformationsphase de facto kein steuerpolitisches Know-how vorhanden, so dass eine enorme Nachfrage nach Beratung bestand und letztendlich der größte Teil der verabschiedeten Steuerreformen ein Ergebnis externer Beratung war. Ein erstes Ziel der Arbeit ist die Erstellung einer theoretischen Basis, um die einzelnen Steuerreformphasen besser zu verstehen. Ein zweites Ziel liegt in die Ableitung eines theoretisch fundierten Referenzrahmens (Benchmark) für die Beurteilung des Status quo sowie der Ausgestaltung der Einkommens- und Gewinnbesteuerung in Georgien. Die Ableitung von Benchmarks gilt dabei als ein eigenständiges Ziel wissenschaftlicher Forschung. Im Rahmen dieser Arbeit dienen die Benchmarks jedoch als Beurteilungsmaßstab für die Evaluation der Steuerreformen in Georgien sowie für die Evaluation des hier erarbeiteten konkreten Reformvorschlags. Ein drittes Ziel der vorliegenden Arbeit ist also in der konzeptionellen Ausgestaltung der Einkommens- und Gewinnbesteuerung in Georgien und deren konsequenten Ausrichtung an einem international anerkannten lebenszeitlichen bzw. konsumorientierten Leitbild der Besteuerung zu sehen. Im Rahmen dieser Arbeit wurde ein Entwurf für eine integrierte Einkommens- und Gewinnsteuer (Einfachsteuer) entwickelt, der den lokalen gesellschaftlichen Gegebenheiten optimal angepasst ist. Bei der Ausarbeitung eines entsprechenden Konzeptes für Georgien war zu berücksichtigen, dass die Effizienz reduzierenden Allokationsverzerrungen in diesen Systemen minimiert und die Belastung der Löhne und Gewinne durch Steuern auf ein angemessenes Niveau begrenzt werden sollten, um negative Anreizwirkungen in Bezug auf das Wirtschaftswachstum so gering wie möglich zu halten. Neben einer integrierten Einkommens- und Gewinnbesteuerung spielten dabei eine einheitliche Gewinnermittlung für Unternehmen (modifiziertes Kassenprinzip) sowie eine am Kassenprinzip orientierte Mehrwertsteuer eine besondere Rolle. Einkommen- und Mehrwertsteuerentwürfe erfüllen alle Neutralitätskriterien (Neutralität der intertemporalen Konsum- und Ersparnisbildung, Rechtsformneutralität, Investitionsneutralität in Bezug auf Human- und Sachkapital, Finanzierungsneutralität sowie Inflationsneutralität). Nach der Definition der Bemessungsgrundlagen für die Einzelsteuern und deren Anpassung an georgische Gegebenheiten war es notwendig, die technischen Einzelheiten für die Steuerverwaltung (Durchführungsverordnungen) und teilweise die zugehörigen Steuerformulare zu entwickeln. Diese müssen alle notwendigen Variablen der Veranlagungsverfahren erfassen und eindeutige Identifikationsmöglichkeiten für die Haushalte und Unternehmen bieten, was eine wichtige Rolle für die spätere Mikrosimulation spielt. Die gewonnenen Erkenntnisse dieser Arbeit sollen die politischen Entscheidungsträger bei der Auswahl eines geeigneten Reformvorschlages für das Einkommensteuergesetz unterstützen.
Politik des Projektmanagements : mikropolitische Analysen zu Entscheidungsprozessen in IT-Projekten
(2008)
In der hier vorliegenden Dissertation wurden anhand einer empirischen Fallstudie die Entscheidungs- und Aushandlungsprozesse zwischen Auftraggeber und Auftragnehmer in IT-Projekten analysiert und auf diesem Wege die Handlungszwänge des Projektmanagements beleuchtet. Damit sollte ein Beitrag zum näheren Verständnis der Eigendynamik von IT-Projekten und zur Wirkungsweise der gängigen Ansätze von Projektmanagement und QM geleistet werden. In dieser Arbeit wurden IT-Projekte und die Empfehlungen zum Projektmanagement aus politik- und organisationstheoretischer Perspektive beleuchtet, um Effekte begrenzter Rationalität, opportunistischen Verhalten und Inkrementalismus mit berücksichtigen zu können. Theoretische Ausgangspunkte für die Untersuchung sind auf der einen Seite die mikropolitischen Ansätze und auf der anderen Seite die Agenturtheorie. Gemeinsam ist diesen Ansätzen, die Auffassung, wonach das Handeln der Akteure in ergebnisoffenen, interdependenten Handlungskonstellationen stattfindet, in denen die Auswirkungen von Entscheidungen wenig bekannt sind und die benötigten Informationen den Akteuren in unterschiedlichem Maße zur Verfügung stehen. Bezüglich der Empfehlungen des Projektmanagements wurde auf Normen und Richtlinien sowie die Einführungs- und Praxisliteratur zum Projekt- und Qualitätsmanagement und zur Verwaltungs- und Organisationsberatung Bezug genommen. Die Fallstudie bezieht sich auf ein Realisierungsprojekt zur Einführung eines Personalmanagementsystems in einem Ministerium und seinen nachgeordneten Behörden. Das Projekt fand im Rahmen eines umfassenden Modernisierungsprogramms nach dem NSM statt und legte erstmals einen Schwerpunkt auf das Personalmanagement. Das Vorhaben war ursprünglich in drei Phasen von jeweils einem Jahr Laufzeit geplant. Mit der Realisierung wurde ein Konsortium aus drei Firmen beauftragt. Die Studie bezieht sich auf die erste der drei Phasen der Systemeinführung, die Pilotierungsphase in drei Pilotbehörden. Diese Phase beanspruchte insgesamt zwei Jahre und acht Monate und hatte damit ein Jahr und acht Monate Verspätung vor allem wegen wechselnden Ziel- und Aufgabenstellungen durch das Ministerium und aufgrund interner Steuerungsdefizite und Entscheidungsblockaden auf beiden Seiten. Die Entwicklung einer Schnittstelle in die Personalabrechnung wurde erfolglos abgebrochen. Hauptergebnis der Arbeit ist, dass die Anwendung von Methoden und Instrumenten, die in den Projektmanagement-Leitfäden bereitgestellt werden, stets den jeweils individuellen Interessen der Akteure unterliegen und als Bausteine der akteursspezifischen Strategien fungieren. Dabei führen insbesondere Strategien der Unsicherheitsabsorption, die auf die gegenseitige Kontrolle von Auftraggeber und Auftragnehmer hinauslaufen, zu unproduktiven, sich selbst verstärkende Blockadezyklen („Circuli vitiosi“), aus denen die Akteure nur durch Strategiewechsel ausbrechen können. Zwischen Auftraggeber und Auftragnehmer besteht eine strukturelle Informationsasymmetrie, weil der Auftragnehmer über die fachlichen-technischen Aspekte und über den aktuellen Projektstand besser informiert ist als der Auftraggeber. Gleichzeitig besteht jedoch auch eine entgegen gesetzte Entscheidungsasymmetrie, bei der der Auftraggeber formale Entscheidungsbefugnisse an sich ziehen kann und im Konfliktfall über das größere Drohpotenzial verfügt. Diese wird durch die Rechtsform des Werkvertrags verstärkt. Die Leitfäden des Projektmanagements werden hierbei zwar angewendet, doch die Anwendung beschränkt sich auf fachlich-operative Aspekte der Projektdurchführung, in denen die Empfehlungen einen hinreichenden Konkretisierungsgrad erreicht haben. Nur unzureichend umgesetzt werden jedoch die Empfehlungen zu politisch-strategischen Problemen, deren Anwendung entweder einen komplexen strategischen Entscheidungsprozess erfordert oder zwischen den Vertragsparteien strittig ist. Als äußerst kritisch lässt sich vor allem der Umgang mit dem Leistungsumfang im Projektverlauf bezeichnen, die von Seiten des Auftraggebers häufig im Projektverlauf verändert wird. Hier kollidiert das Gebot der Unabänderlichkeit der Leistungsbeschreibung mit den vitalen Interessen des Auftraggebers, und es zeigt sich anhand der Fallstudie, dass die vertrauensvolle Zusammenarbeit beider Vertragsparteien nötig ist, um zu eine befriedigenden Lösung zu gelangen. Gelingt dies nicht, so kann das Projekt nur mit Hilfe so genannter starker Ideologien wie dem NSM in einer Art Krisenmanagement fortgeführt werden, bedarf aber dann der strategischen Neuorientierung z.B. in Form von Personalwechsel oder Reorganisationen. Im Fallstudienprojekt hat sich herausgestellt, dass, eine Analyse der spezifischen Akteursstrategien (Policy-Analyse) den Akteuren helfen kann, die Ausgangskonstellationen besser zu verstehen und die eigene Strategie auf ihre Konsens- oder Durchsetzungsfähigkeit hin zu justieren. Hier halten die Leitfäden zum Projektmanagement jedoch keine befriedigenden Handlungsanweisungen bereit.
Nob1 (New Zealand obese 1) bezeichnet einen Adipositas-QTL auf Chr. 5 der Maus (LODBMI >3,3), der in einem Rückkreuzungsexperiment der Mausstämme NZO (adipös) und SJL (schlank) identifiziert wurde. Um Kandidatengene für Adipositas zu finden, wurden mehr als 300 Nob1-Transkripte mit Hilfe von Genexpressionsanalysen auf Unterschiede in stoffwechselrelevanten Geweben zwischen beiden Mausstämmen untersucht. Sieben Gene zeigten eine differentielle Expression: 2310045A20Rik, Tbc1d1, Ppp1cb, Mll5, Insig1, Abhd1 und Alox5ap. Die codierenden Bereiche dieser Gene wurden anschließend auf Sequenzunterschiede zwischen NZO und SJL untersucht. Nur im Gen Tbc1d1, das im Peak-Bereich des Nob1 lokalisiert ist, wurde eine SJL-spezifische Deletion von sieben Basen detektiert, die zu einer Leserasterverschiebung und einem vorzeitigen Abbruch des Proteins in der funktionellen Rab-GAP-Domäne führt (Loss-of-Function-Mutation). Interessanterweise wurde eine Variante von TBC1D1 (R125W) in Kopplungsanalysen mit Adipositas beim Menschen assoziiert (Stone et al., 2006). TBC1D1 zeigt eine hohe Homologie zu TBC1D4 (AS160), das im Insulinsignalweg eine wichtige Rolle spielt. In 17 weiteren Genen im Peak-Bereich des Nob1 wurde keine weitere SJL-spezifischen Mutation detektiert. Bei NZO-Tieren erfolgte die Tbc1d1-mRNA-Expression vorwiegend in glycolytischen Fasern des Skelettmuskels. Zudem wurden zwei gewebsspezifisch exprimierte Tbc1d1-Isoformen identifiziert, die sich durch alternatives Splicen der Exone 12 und 13 unterscheiden. Die im Rahmen dieser Arbeit gefundenen Ergebnisse machen Tbc1d1 zu einem plausiblen Kandidatengen für den Nob1-QTL. Welche Funktion Tbc1d1 im Glucose- und Fettstoffwechsel des Skelettmuskels hat, muss in weiteren Analysen untersucht werden.