Refine
Has Fulltext
- yes (94) (remove)
Year of publication
- 2005 (94) (remove)
Document Type
- Doctoral Thesis (94) (remove)
Keywords
- Modellierung (6)
- Polyelektrolyt (4)
- Selbstorganisation (4)
- Anthropogene Klimaänderung (3)
- Arabidopsis (3)
- Blockcopolymere (3)
- Klimawandel (3)
- Adhäsion (2)
- Adsorption (2)
- Climate Change (2)
- Dauerfrostboden (2)
- Funktionalisierung <Chemie> (2)
- Hydrologie (2)
- Integrated Assessment (2)
- Kolloides System (2)
- MHD (2)
- Optische Fernerkundung (2)
- Redoxreaktion (2)
- Siberia (2)
- Sibirien (2)
- Soziale Ungleichheit (2)
- Stoffhaushalt (2)
- Strategie (2)
- Tensid (2)
- Transkriptionsfaktor (2)
- Turbulenz (2)
- Wasserhaushalt (2)
- Wellenleiter (2)
- adhesion (2)
- block copolymers (2)
- colloids (2)
- integrierte hydrologische Modellierung (2)
- nucleation (2)
- phloem (2)
- phloem proteins (2)
- self-assembly (2)
- turbulence (2)
- 1D (1)
- 2D (1)
- 2D Transport (1)
- 2D transport (1)
- 3D computer graphics (1)
- 4-Mannigfaltigkeiten (1)
- 5'-neolignane (1)
- 8 (1)
- ABA (1)
- ADP-Glukosepyrophosphorylase (1)
- AMT (1)
- APC (1)
- Abszisinsäure (1)
- Acetyl-CoA carboxylase (1)
- Ackerschmalwand (1)
- Adhäsionscluster (1)
- Aerosol (1)
- Aerosol und Wolken Lidar (1)
- Airborne Aerosol and Cloud Lidar (1)
- Akkretion (1)
- Aktive Galaxie (1)
- Akzeptanz (1)
- Alkane (1)
- Allgemeine Psychologie (1)
- Amine (1)
- Ammonium (1)
- Ammoniumassimilation (1)
- Ammoniumtransporter (1)
- Amorphe Polymere (1)
- Amphiphile (1)
- Amphiphile Verbindungen (1)
- Amphiphilic diblock copolymers (1)
- Amyloid peptide (1)
- Anden (1)
- Andes (1)
- Angewandte Mikrobiologie (1)
- Anomale Diffusion (1)
- Antrieb (1)
- Application Server (1)
- Arctic Haze (1)
- Arktische Nebel (1)
- Ascorbat-Oxidase (1)
- Astrophysik (1)
- AtAMT1.1 (1)
- AtAMT1.2 (1)
- AtAMT1.3 (1)
- AtAMT1.4 (1)
- AtAMT1.5 (1)
- Atlantischer Ozean (1)
- Atmosphäre (1)
- Atmosphärendynamik (1)
- Aue (1)
- Auenreaktivierung (1)
- Ausbreitung planetarer Wellen (1)
- Aushandlung (1)
- Auxine (1)
- Azobenzen (1)
- BSS (1)
- Baikalsee (1)
- Bakteriophage T7 (1)
- Bakteriophagen (1)
- Ballaststoffe (1)
- Bariumtitanat (1)
- Benetzung (1)
- Biene (1)
- Bile Acids (1)
- Binäres Entscheidungsdiagramm (1)
- Biodiversität (1)
- Bioelektrisches Signal (1)
- Biogene Amine (1)
- Bioinformatik (1)
- Biophysik (1)
- Biopolymere (1)
- Biosensor (1)
- Biotoptypen (1)
- Blickbewegungen (1)
- Bodenmikrobiologie (1)
- Borna Disease Virus (1)
- Borna disease virus (1)
- Bt maize (1)
- Bt-Mais (1)
- C-C Bindungsknüpfung (1)
- C-C bond formation (1)
- Carbonate (1)
- Cellulose (1)
- Central Mediterranean (1)
- Change Management (1)
- Charged Systems (1)
- Chiralität <Chemie> (1)
- Chromatin (1)
- Climate Change Mitigation (1)
- Complementary Circuits (1)
- Constructive solid geometry (1)
- Cytochome c (1)
- Cytochrom c (1)
- DNS (1)
- DNS-Bindungsproteine (1)
- DNS-Chip (1)
- DPLL (1)
- Damped Lyman alpha (1)
- Datenbank (1)
- Decision Making under Ambiguity (1)
- Deichrückverlegung (1)
- Derivatisierung (1)
- Diagonalisierung (1)
- Dickdarmkrebs (1)
- Dietary Fibre (1)
- Differential Gene Expression (1)
- Dihydrobenzofurane (1)
- Diskursrepräsentation (1)
- Diskurssemantik (1)
- Dominanz (1)
- Dreidimensionale Computergraphik (1)
- Druckgradient (1)
- Durchflussdynamik (1)
- Dynamik der Atmosphäre (1)
- Dynamo (1)
- E-Learning (1)
- EEG (1)
- EGFP (1)
- EULAG Model (1)
- Edongenous Economic Growth (1)
- Eichtheorie (1)
- Eindimensionaler Festkörper (1)
- Einfluss (1)
- Einzugsgebiet (1)
- Elektroencephalographie (1)
- Elektromyographie (1)
- Elektronen (1)
- Elektronische Eigenschaft (1)
- Ellipsometrie (1)
- Emissionslinien-Galaxie (1)
- Emulsion (1)
- Emulsionspolymerisation (1)
- Endogenes Wirtschaftswachstum (1)
- Endothelfunktion (1)
- Entscheidung bei Unsicherheit (1)
- Entscheidungsbäume (1)
- Entwurf (1)
- Erdbeben (1)
- Ereigniskorreliertes Potenzial (1)
- Erfüllbarkeit einer Formel der Aussagenlogik (1)
- Erfüllbarkeitsproblem (1)
- Erosion (1)
- Error-Detection Circuits (1)
- Ertragsänderung (1)
- European corn borer (1)
- Evaluation (1)
- Extinktionsrisko (1)
- Extrudate (1)
- Fernerkundung (1)
- Fettsucht (1)
- Filament (1)
- Flooding probability (1)
- Flow (1)
- Flugzeug Lidar (1)
- Fluktuationen (1)
- Fluoreszenz-in-situ-Hybridisierung (1)
- Flüssigkristalline Polymere (1)
- Formeln der quantifizierten Aussagenlogik (1)
- Frühdiagenese (1)
- Fundamental Modeling Concepts (1)
- GC-MS (1)
- GI-GPx (1)
- Gabbro-Eklogit (1)
- Galaxie (1)
- Gallensäuren (1)
- Gallensäurenbindung (1)
- Gauge theory (1)
- Gebirgsbildung (1)
- Gene Array (1)
- Gene Chip (1)
- Genetik (1)
- Genexpression (1)
- Gentechnologie (1)
- Gentransfer (1)
- Geoinformation (1)
- Geoinformationssystem (1)
- Geomorphologie (1)
- Geomorphology (1)
- Gewebsverteilung (1)
- Gewässerfernerkundung (1)
- Gilles Deleuze (1)
- Gleichaltrigenbeziehungen (1)
- Global change (1)
- Glutathionperoxidase (1)
- Gravitation (1)
- Gravitationskollaps (1)
- Gravitationslinsen (1)
- Grenzflächenaktivität (1)
- Grenzflächenchemie (1)
- Grundschule (1)
- Grundschulkinder (1)
- Grundwasser (1)
- Grundwasserdynamik (1)
- Hafer (1)
- Haftvermittler (1)
- Handlungsregulation (1)
- Hans Blumenberg (1)
- Hebung (1)
- Helix <beta-> (1)
- Hemisphaerendominanz (1)
- Heterophasenpolymerisation (1)
- Himalaya (1)
- Histologie (1)
- Histon-DNS-Komplex (1)
- Histone-DNA Complexes (1)
- Hofmeister (1)
- Homocystein (1)
- Hormonersatztherapie (1)
- Hydroborierung (1)
- Hydrodynamisches Modell (1)
- Hyperoxide (1)
- Hülsenfrüchtler (1)
- IBM 360 (1)
- ICA (1)
- IOVP effect (1)
- IOVP-Effekt (1)
- IRF3 (1)
- IRRAS (1)
- ISA (1)
- Immobilisierung (1)
- Importin (1)
- Imprecise Probability (1)
- India (1)
- Indien (1)
- Inferenzen (1)
- Infinite dimensional manifolds (1)
- Instabilität (1)
- Integrierte Bewertung (1)
- Interaktionen (1)
- Interferon <beta-> (1)
- Intervallwahrscheinlichkeit (1)
- Inverse Micelle (1)
- Ionenspezifisch (1)
- Ionisches Tensid (1)
- Isoflavone (1)
- Iterative Airborne Lidar Inversion (1)
- Java 2 Enterprise Edition (1)
- Java Virtual Machine (1)
- Jets (1)
- Kanurennsport (1)
- Kanzerogenese (1)
- Keimbildung (1)
- Kernlokalisierungssignal (1)
- Kind (1)
- Klima (1)
- Klima / Umweltschutz (1)
- Klimaschutz (1)
- Klimaänderung (1)
- Kognitive Motivation (1)
- Kohlenhydrat-Protein-Wechselwirkung (1)
- Kohlenstoffkreislauf (1)
- Kolloid (1)
- Kolloid / Lösung (1)
- Kolloidphysik (1)
- Kolonialität (1)
- Komplexe (1)
- Konflikt (1)
- Konnektoren (1)
- Kontingenzansatz (1)
- Kooperativität (1)
- Kopplung (1)
- Kraftmikroskopie (1)
- Kähler-Mannigfaltigkeit (1)
- Körper (1)
- Körperfett (1)
- Körperschall (1)
- Körperzusammensetzung (1)
- L2 metrics (1)
- L2-Metrik (1)
- LB-Multilayer (1)
- LB-multilayer (1)
- Lab on chip (1)
- Labialpfeife (1)
- Lake Baikal (1)
- Landnutzung (1)
- Landnutzungsänderung (1)
- Langmuir monolayers (1)
- Lateralität (1)
- Legasthenie (1)
- Leghämoglobin (1)
- Legierung (1)
- Leistungsdiagnostik (1)
- Leistungsmotivation (1)
- Len (1)
- Lernen und Gedächtnis (1)
- Lernmotivation (1)
- Lerntechnik (1)
- Leseförderung (1)
- Lesen (1)
- Leseschwierigkeiten (1)
- Lesestrategie (1)
- Lesetraining (1)
- Levy walk (1)
- Levy-Bewegung (1)
- Lichtinduzierter Effekt (1)
- Lidar (1)
- Ligand <Biochemie> (1)
- Lignane (1)
- Linear polarisierte Bestrahlung (1)
- Lipid Synthese (1)
- Lipid synthesis (1)
- Lipide (1)
- Lipopolysaccharide (1)
- Lotus japonicus (1)
- Längsschnittuntersuchung (1)
- Lösungszustand (1)
- MEG (1)
- MRI (1)
- Macht (1)
- Magnetische Kernresonanz (1)
- Magnetoencephalographie (1)
- Magnetohydrodynamik (1)
- Maiszünsler (1)
- Mannuronsäure (1)
- Maschinelles Lernen (1)
- Massenspektrometrie (1)
- Mastergleichung (1)
- Material (1)
- Materialeinflüsse (1)
- Mathematisches Modell (1)
- Matrizen-Eigenwertaufgabe (1)
- Maximalkraft (1)
- Mechanische Eigenschaft (1)
- Mehrschichten-Perzeptron (1)
- Mehrschichtsystem (1)
- Membran (1)
- Membranproteine (1)
- Mesoporöse Materialien (1)
- Messenger-RNS (1)
- Metabolisches Syndrom (1)
- Metabolit (1)
- Metabolitprofil (1)
- Metabolom (1)
- Metakognition (1)
- Methanemission (1)
- Micelle (1)
- Microarray (1)
- Microbiology (1)
- Mikrobiologie (1)
- Mikroemulsion (1)
- Mikrolinsen (1)
- Mikroskopie (1)
- Mikrostruktur (1)
- Milchstrasse (1)
- Mischung <Signalverarbeitung> (1)
- Mittelmeerraum (1)
- Model Based Engineering (1)
- Model Checking (1)
- Modellbasiert (1)
- Moduli spaces (1)
- Modulraum (1)
- Molekulare Bioinformatik (1)
- Molekularer Motor (1)
- Monitoring (1)
- Monoschicht (1)
- Monsoon (1)
- Monte Carlo simulations (1)
- Monte-Carlo-Simulationen (1)
- Mortalität (1)
- Motility-Assay (1)
- Motilität (1)
- Motivation (1)
- Motive (1)
- Multilayers (1)
- Mutation (1)
- Mutations (1)
- NF-kB (1)
- NLO (1)
- Nanopartikel (1)
- Nanostruktur (1)
- Nanotechnologie (1)
- Nanotechnology (1)
- Nassfestigkeit (1)
- Neue Medien (1)
- Neuronales Netz (1)
- Neutronensterne (1)
- New On-Line Error-Detection Methode (1)
- Nichtgleichgewicht (1)
- Nichtgleichgewichts-Phasenübergang (1)
- Nichtlineare Dynamik (1)
- Nichtlineare Optik (1)
- Nichtlineare Spektroskopie (1)
- Nitratdynamik (1)
- Nitrogen (1)
- Nodulin (1)
- Normbruch (1)
- Novelose (1)
- Nrf2 (1)
- Nukleierung (1)
- OGLE (1)
- Oats (1)
- Oberflächen (1)
- Oberflächenphysik (1)
- Oberflächenwasser (1)
- Ocean Colour satellite data (1)
- Oderbruch (1)
- Oligo-Miocene (1)
- Oligozän-Miozän-Grenze (1)
- On-Chip-PCR (1)
- Optimale und Präferierte Blickposition (1)
- Optimierung (1)
- Optimierungsproblem (1)
- Organisationsentwicklung (1)
- Organisationswandel (1)
- Organo-Silikate (1)
- Orgelpfeife (1)
- Orientierungsbewegung (1)
- Orogen (1)
- Oscillating Bubble (1)
- Ostrinia nubilalis (1)
- Oxidkeramik (1)
- Ozeanmodell (1)
- Ozon (1)
- Ozonzabbau (1)
- PAVM (1)
- PEI (1)
- PFG-NMR-Spektroskopie (1)
- PHGPx (1)
- PLANET (1)
- PXR (1)
- PZT (1)
- Paarungssystem (1)
- Palaeoklima (1)
- Palladium (1)
- Parametrisierung (1)
- Pathway Abbildung (1)
- Pathwaysuche (1)
- Peerinteraktion (1)
- Peptide (1)
- Performance (1)
- Periglazial (1)
- Periglazialgeomorphologie (1)
- Permafrost (1)
- Pflanzenernährung (1)
- Pflanzenhormon (1)
- Pfropfcopolymere (1)
- Pharmakologie (1)
- Phasenübergang (1)
- Phloem (1)
- Phloemproteine (1)
- Phospholipid (1)
- Photochemie (1)
- Photoorientierung (1)
- Phytoplankton (1)
- Planeten (1)
- Polarforschung (1)
- Polartief (1)
- Polyandrie (1)
- Polyelectrolyte Complexes (1)
- Polyelektrolytkomplexe (1)
- Polyethylenglykole (1)
- Polyethylenimin (1)
- Polykation (1)
- Polymerase-Kettenreaktion (1)
- Polymere (1)
- Polymertenside (1)
- Popularity (1)
- Populationsbiologie (1)
- Poröser Stoff (1)
- Potsdam-Institut für Klimafolgenforschung (1)
- Power (1)
- Pregnane X Receptor (1)
- Profilmessung (1)
- Profilmethode (1)
- Promotoren (1)
- Psychologiestudium (1)
- Quantendraht (1)
- Quantenwell (1)
- Quantified Boolean Formula (QBF) (1)
- RAFT (1)
- RAFT-Polymerisation (1)
- RAFT-Polymerization (1)
- RT-PCR (1)
- Reading Strategy (1)
- Reaktionsmechanismus (1)
- Real Time PCR (1)
- Reciprocal Teaching (1)
- Redoxine (1)
- Redoxregulation (1)
- Redoxsystem (1)
- Relativistische Astrophysik (1)
- Rendering (1)
- Reproduktionserfolg (1)
- Resonator (1)
- Reverse Transcription (1)
- Reverse Transkription (1)
- Reziprokes Lehren (1)
- Rheologie (1)
- Rhizobium (1)
- Riemannsche Geometrie (1)
- Rohr (1)
- Rohrresonator (1)
- SCFA (1)
- SFG (1)
- SHG (1)
- SSCP (1)
- Salzfrachtsteuerung (1)
- Satisfiability (1)
- Scene graph systems (1)
- Schallabstrahlung (1)
- Schaum (1)
- Schaumbildung (1)
- Schaumstabilität (1)
- Schmalwand <Arabidopsis> (1)
- Schnellkraft (1)
- Schwimmsport (1)
- SeaWiFS Ocean-Colour Satellitendaten (1)
- Sedimenttransport (1)
- Seiberg-Witten theory (1)
- Seiberg-Witten-Invariante (1)
- Selbstdiffusion (1)
- Selbstorganisierende Karte (1)
- Selbstwirksamkeit (1)
- Selen (1)
- Selenoprotein (1)
- Self-Checking Circuits (1)
- Serotonin (1)
- Serotoninrezeptor (1)
- Sibirien <Nord> (1)
- Signalquellentrennung (1)
- Signalstoffe (1)
- Signaltrennung (1)
- Silben (1)
- Silicate (1)
- Simulation (1)
- Simultane Diagonalisierung (1)
- Situationsansatz (1)
- Situationsmodell (1)
- Situative Anforderungen (1)
- Skleroproteine (1)
- Social Status (1)
- Sociometry (1)
- Software (1)
- Software architecture (1)
- Softwarearchitektur (1)
- Soil (1)
- Sojabohne (1)
- Sol-Gel (1)
- Solvothermalsynthese (1)
- Soziale Anerkennung (1)
- Sozialer Status (1)
- Soziometrie (1)
- Spalt Spuren (1)
- Sprachverarbeitung <Psycholinguistik> (1)
- Stammschleife (1)
- Starch synthesis (1)
- Sternentstehung (1)
- Stickstoff (1)
- Stickstoffmonoxid (1)
- Stochastische Differentialgleichung (1)
- Stochastischer Prozess (1)
- Stochastisches dynamisches System (1)
- Stofftransport (1)
- Strategietraining (1)
- Strategy Training (1)
- Stratosphärendynamik (1)
- Styrol (1)
- Stärke Synthese (1)
- Subduktion (1)
- Summenfrequenzspektroskopie (1)
- Superoxiddismutasen (1)
- Superoxide Dismutase (1)
- Surfactant (1)
- Surfactants (1)
- Synchronisation (1)
- Szenengraph (1)
- T3 (1)
- T7 (1)
- TBK1 (1)
- Tailspike (1)
- Taktik (1)
- Technologiebewertung (1)
- Technology Assessment (1)
- Teilchenbildung (1)
- Telekonnexionsmuster (1)
- Tensiddynamik (1)
- Tenside (1)
- Tensidlösung (1)
- Tensidschaum (1)
- Terrestrische Ökologie (1)
- Test (1)
- Theoretische Ökologie (1)
- Theorie (1)
- Thermochronologie (1)
- Thermohaline Circulation (1)
- Thermohaline Zi (1)
- Thermohaline Zirkulation (1)
- Thermokarst (1)
- Thiole (1)
- Thioredoxine (1)
- Tiefland (1)
- Tocopherol (1)
- Tocotrienol (1)
- Transcription facotrs (1)
- Transfektion (1)
- Transformation (1)
- Transkription <Genetik> (1)
- Translation <Genetik> (1)
- Trehalose-6-Phosphat (1)
- Triiodthyronin (1)
- Two-stream Lidar Inversion (1)
- Umweltrauschen (1)
- Uncertainty (1)
- Unendlichdimensionale Mannigfaltigkeit (1)
- Unschärfe (1)
- Unterkühlung (1)
- Unternehmensentwicklung / Management (1)
- Uronsäuren (1)
- VCAM-1 (1)
- VM (1)
- VM Integration (1)
- Vegetation (1)
- Vektor (1)
- Vermischung (1)
- Veränderungsprinzipien (1)
- Vesikeln (1)
- Virtuelle Maschine (1)
- Visualisierung (1)
- Vitamin C (1)
- Vitamin E (1)
- Vitamin K (1)
- Wasser-in-Öl-Mikroemulsion (1)
- Wasserqualität (1)
- Wasserstoffionenkonzentration (1)
- Wellenausbreitung (1)
- Wille (1)
- Wissensextraktion (1)
- ZQSA (1)
- ZQSAT (1)
- Zeatin (1)
- Zelladhäsion (1)
- Zero-Suppressed Binary Decision Diagram (ZDD) (1)
- Zirkulationsregime (1)
- Zwang (1)
- accretion (1)
- acoustic waveguide (1)
- adhesion cluster (1)
- adiposity (1)
- adsorption (1)
- air-water interface (1)
- allochthon (1)
- alloy (1)
- ammonium (1)
- ammoniumtransporter (1)
- amphiphiles (1)
- approximate joint diagonalization (1)
- ascorbate oxidase (1)
- astrophysics (1)
- asymmetric dimethylarginine (1)
- asymmetrisches Dimethylarginin (1)
- atmosphere (1)
- atmospheric dynamics (1)
- atomic force microscopy (1)
- autochthon (1)
- auxin (1)
- azobenzene (1)
- b-Catenin (1)
- biogenic amine (1)
- bioinformatics (1)
- biotopes (1)
- black holes (1)
- blind source separation (1)
- body (1)
- bulk-mediated surface diffusion (1)
- cDNA array (1)
- carbohydrate binding site (1)
- carcinogenesis (1)
- cell adhesion (1)
- child (1)
- circulation regimes (1)
- climate (1)
- climate change (1)
- climate change impacts (1)
- coercion (1)
- collimation (1)
- colon cancer (1)
- coloniality (1)
- complexes (1)
- computational biology (1)
- conflict (1)
- connective ties (1)
- contingency approach (1)
- controlled radical polymerization (1)
- cooperativity (1)
- coupled model (1)
- cucurbits (1)
- cyclic sports (1)
- decadal climate variability (1)
- decision trees (1)
- dekadische Klimavariabilität (1)
- design (1)
- dihydrobenzofurans (1)
- discourse processing (1)
- dominance of hemisphere (1)
- driving mechanism (1)
- dynamic force spectroscopy (1)
- dynamic global vegetation model (1)
- dynamic of the atmosphere (1)
- dynamische Klimatologie (1)
- dynamische Kraftspektroskopie (1)
- dynamo (1)
- dyslexia (1)
- e-learning (1)
- early diagenesis (1)
- ecohydrology (1)
- ecological modelling (1)
- electromyography (1)
- electronic structure (1)
- elektronische Struktur (1)
- elementary school children (1)
- emulatorfrei (1)
- emulsifier-free (1)
- emulsion polymerization (1)
- endothelabhängige flussinduzierte Vasodilatation (1)
- endothelial function (1)
- erosion (1)
- erwartete unmittelbare Wirkung (1)
- evoked potentials (1)
- explicit (1)
- explizit (1)
- extinction risk (1)
- eye movements (1)
- fehlplazierte Fixationen (1)
- filaments (1)
- finite difference simulation (1)
- fission track (1)
- flat water canoeing (1)
- floodplain (1)
- flow discharge (1)
- fluctuations (1)
- flue organ pipe (1)
- foam (1)
- forest age-structure (1)
- functionalization (1)
- geführte Wellen (1)
- geladene Systeme (1)
- genetic engineering (1)
- genetic mosaicism (1)
- genetics (1)
- genetisches Mosaik (1)
- geoinformation (1)
- gestufte Oberfläche (1)
- global change (1)
- glutathione peroxidase (1)
- graft copolymers (1)
- gravity (1)
- guided waves (1)
- hairy root Transformation (1)
- heterozoan carbonates (1)
- heterozoisch (1)
- homocysteine (1)
- honeybee (1)
- human body composition (1)
- hydrodynamical model (1)
- immobilization (1)
- implicit (1)
- implizit (1)
- importin (1)
- independent component analysis (1)
- inferences (1)
- influence (1)
- integrated hydrolocal modelling (1)
- integrated modelling (1)
- ions (1)
- jets (1)
- ki-ras (1)
- kollimation (1)
- kontrollierte radikalische Polymerisation (1)
- kurzkettige Fettsäuren (1)
- land use change (1)
- language processing <psycholinguistics> (1)
- laterality (1)
- leghemoglobin (1)
- legume (1)
- ligand (1)
- linearly polarized irradiation (1)
- logische Ergänzung (1)
- long-chain alkane (1)
- longitudinal design (1)
- mRNA (1)
- machine learning (1)
- mannuronic acid (1)
- master equation (1)
- material (1)
- maximum force (1)
- mechanical properties (1)
- medium-vermittelte Oberflächendiffusion (1)
- membrane protein (1)
- mesoporous materials (1)
- metabolic syndrom (1)
- metabolite profiling (1)
- metabolomic analysis (1)
- metabolomics (1)
- methane (1)
- micelles (1)
- microlensing (1)
- microscopy (1)
- mislocated fixations (1)
- mixing parameterization (1)
- model uncertainty (1)
- model-based (1)
- molecular motors (1)
- monitoring (1)
- monsoon (1)
- motility assay (1)
- motives (1)
- multi-layer perceptron (1)
- negotiation (1)
- neolignans (1)
- neue Online-Fehlererkennungsmethode (1)
- neural networks (1)
- neutron stars (1)
- new media (1)
- nichtwässrige Synthese (1)
- nitrate dynamics (1)
- nitric oxide (1)
- nitrogen fixation (1)
- nodulin (1)
- non-equilibrium dynamics (1)
- nonaqueous synthesis (1)
- nonlinear optics (1)
- nuclear localization signal (1)
- numerical simulation (1)
- ocean model (1)
- oceanic crust (1)
- optimal and preferred viewing position (1)
- organizational development (1)
- organosilica (1)
- oscillating bubble (1)
- oscillation (1)
- outcome expectation (1)
- overheating (1)
- oxygen transport (1)
- ozeanische Kruste (1)
- ozone (1)
- ozone loss (1)
- p-proteins (1)
- palladium (1)
- parallel beta-helix (1)
- parallele beta-Helix (1)
- particle formation (1)
- pathway mapping (1)
- pathway search (1)
- pattern-oriented modelling (1)
- peer relations (1)
- performance (1)
- pharmacology (1)
- pharmakologisches Profil (1)
- phase transitions (1)
- phloem architecture (1)
- photoorientation (1)
- phytoplankton distribution (1)
- planet (1)
- planetary wave propagation (1)
- polar research (1)
- polar vortex (1)
- polyandry (1)
- polyelectrolyte multilayer (1)
- polyethelenimine (1)
- polymers (1)
- postmenopausal (1)
- pressure gradient (1)
- qRT-PCR (1)
- quasi-geostrophic model (1)
- quasi-geostropisches Modell (1)
- reading (1)
- reading disabilities (1)
- receptor (1)
- red noise (1)
- redox (1)
- redox metabolism (1)
- redox regulation (1)
- reduced dimensionality (1)
- reduzierte Dimensionalität (1)
- regulation (1)
- remedial reading (1)
- reproduction success (1)
- restoration of floodplains (1)
- rights infraction (1)
- salt load management (1)
- schwarze Löcher (1)
- selbstprüfende Schaltungen (1)
- selenium (1)
- selenoprotein (1)
- self-gravity (1)
- self-organisation (1)
- self-organizing feature map (1)
- serotonin (1)
- setting back dykes (1)
- signal compounds (1)
- situation model (1)
- situational requirements (1)
- social acceptance (1)
- social inequality (1)
- software (1)
- sol-gel (1)
- solute transport (1)
- solvothermal synthesis (1)
- sound radiation (1)
- soy isoflavones (1)
- spiral galaxies (1)
- star formation (1)
- stem loop (1)
- stepped surface (1)
- stochastic differential equation (1)
- strategy (1)
- stratospheric circulation (1)
- structured substrates (1)
- strukturierte Substrate (1)
- styrene (1)
- subduction (1)
- surface rheology (1)
- surfaces (1)
- surfactant dynamics (1)
- surfactants (1)
- survival rate (1)
- swimming (1)
- syllables (1)
- symbiosis (1)
- symplastic loading (1)
- synchronisation (1)
- tailspike (1)
- tbr mutant (1)
- teleconnection patterns (1)
- terrestrial carbon balance (1)
- terrigenous input (1)
- test (1)
- thermally activated dynamics (1)
- thermisch aktivierte Dynamik (1)
- thermochronology (1)
- thioredoxin (1)
- total body fat (1)
- transcription (1)
- transcription factor (1)
- translation (1)
- undercooling (1)
- uplift (1)
- vesicles (1)
- visualisation (1)
- water balance (1)
- water quality (1)
- water-in-oil microemulsion (1)
- wetting (1)
- zeatin (1)
- ÁtAMT2 (1)
- Ästhetik (1)
- Öko-Ethologie (1)
- Ökohydrologie (1)
- Ökologie (1)
- Ökologische Modelle (1)
- Östrogene (1)
- Überflutung (1)
- Überhitzung (1)
- ß-Glucan (1)
Institute
- Institut für Physik und Astronomie (23)
- Institut für Biochemie und Biologie (21)
- Institut für Chemie (14)
- Institut für Ernährungswissenschaft (6)
- Institut für Informatik und Computational Science (6)
- Extern (5)
- Institut für Geowissenschaften (5)
- Institut für Umweltwissenschaften und Geographie (5)
- Department Psychologie (4)
- Department Erziehungswissenschaft (3)
Quantified Boolean formulas (QBFs) play an important role in theoretical computer science. QBF extends propositional logic in such a way that many advanced forms of reasoning can be easily formulated and evaluated. In this dissertation we present our ZQSAT, which is an algorithm for evaluating quantified Boolean formulas. ZQSAT is based on ZBDD: Zero-Suppressed Binary Decision Diagram , which is a variant of BDD, and an adopted version of the DPLL algorithm. It has been implemented in C using the CUDD: Colorado University Decision Diagram package. The capability of ZBDDs in storing sets of subsets efficiently enabled us to store the clauses of a QBF very compactly and let us to embed the notion of memoization to the DPLL algorithm. These points led us to implement the search algorithm in such a way that we could store and reuse the results of all previously solved subformulas with a little overheads. ZQSAT can solve some sets of standard QBF benchmark problems (known to be hard for DPLL based algorithms) faster than the best existing solvers. In addition to prenex-CNF, ZQSAT accepts prenex-NNF formulas. We show and prove how this capability can be exponentially beneficial.
Modern biological analysis techniques supply scientists with various forms of data. One category of such data are the so called "expression data". These data indicate the quantities of biochemical compounds present in tissue samples. Recently, expression data can be generated at a high speed. This leads in turn to amounts of data no longer analysable by classical statistical techniques. Systems biology is the new field that focuses on the modelling of this information. At present, various methods are used for this purpose. One superordinate class of these methods is machine learning. Methods of this kind had, until recently, predominantly been used for classification and prediction tasks. This neglected a powerful secondary benefit: the ability to induce interpretable models. Obtaining such models from data has become a key issue within Systems biology. Numerous approaches have been proposed and intensively discussed. This thesis focuses on the examination and exploitation of one basic technique: decision trees. The concept of comparing sets of decision trees is developed. This method offers the possibility of identifying significant thresholds in continuous or discrete valued attributes through their corresponding set of decision trees. Finding significant thresholds in attributes is a means of identifying states in living organisms. Knowing about states is an invaluable clue to the understanding of dynamic processes in organisms. Applied to metabolite concentration data, the proposed method was able to identify states which were not found with conventional techniques for threshold extraction. A second approach exploits the structure of sets of decision trees for the discovery of combinatorial dependencies between attributes. Previous work on this issue has focused either on expensive computational methods or the interpretation of single decision trees a very limited exploitation of the data. This has led to incomplete or unstable results. That is why a new method is developed that uses sets of decision trees to overcome these limitations. Both the introduced methods are available as software tools. They can be applied consecutively or separately. That way they make up a package of analytical tools that usefully supplement existing methods. By means of these tools, the newly introduced methods were able to confirm existing knowledge and to suggest interesting and new relationships between metabolites.
Subject of this work is the study of applications of the Galactic Microlensing effect, where the light of a distant star (source) is bend according to Einstein's theory of gravity by the gravitational field of intervening compact mass objects (lenses), creating multiple (however not resolvable) images of the source. Relative motion of source, observer and lens leads to a variation of deflection/magnification and thus to a time dependant observable brightness change (lightcurve), a so-called microlensing event, lasting weeks to months. The focus lies on the modeling of binary-lens events, which provide a unique tool to fully characterize the lens-source system and to detect extra-solar planets around the lens star. Making use of the ability of genetic algorithms to efficiently explore large and intricate parameter spaces in the quest for the global best solution, a modeling software (Tango) for binary lenses is developed, presented and applied to data sets from the PLANET microlensing campaign. For the event OGLE-2002-BLG-069 the 2nd ever lens mass measurement has been achieved, leading to a scenario, where a G5III Bulge giant at 9.4 kpc is lensed by an M-dwarf binary with total mass of M=0.51 solar masses at distance 2.9 kpc. Furthermore a method is presented to use the absence of planetary lightcurve signatures to constrain the abundance of extra-solar planets.
Die folgenden Fragen standen im Mittelpunkt der Dissertation: Wie handeln Grundschulkinder aus, wenn sie von ihren Peers ungerecht behandelt werden? Welche unmittelbaren Wirkungen hat ihr Vorgehen? In welchem Zusammenhang steht das Vorgehen in der Konfliktsituation mit der Stellung unter den Peers? Theoretische Grundlage waren die Entwicklungsmodelle zum Aushandeln von Yeates und Selman (1989) sowie Hawley (1999). Es nahmen 213 Dritt- und Fünftklässler an der Untersuchung teil. Eine Kombination qualitativer und quantitativer Methoden wurde verwendet. In einem individuellen Interview wurde erhoben, welche Taktiken (eine Handlungseinheit) sowie welche Strategien (Abfolge von Taktiken) die Kinder in einer hypothetischen Normbruchsituation einsetzen würden. Die Kinder wurden auch gefragt, welche unmittelbaren Wirkungen sie erwarten, wenn sie die vorgeschlagene Taktik einsetzen. Die Stellung der Kinder wurde sowohl bezüglich ihres Einflusses (Peerrating) als auch bezüglich ihrer Akzeptanz (Soziometrie) unter den Klassenkameraden erhoben. Die von den Kindern genannten Taktiken wurden vier übergeordneten Kategorien zugeordnet: Verhandeln, Erzwingen, Ausweichen und Aufgeben. Nach den Erwartungen der Kinder führen sowohl Verhandlungstaktiken als auch erzwingende Taktiken in um die Hälfte der Fälle zur Durchsetzung. Erzwingende Taktiken gehen jedoch häufig mit unfreundlichen Reaktionen einher. Einfluss und Akzeptanz der Kinder waren davon abhängig, welche Kombination und Sequenz von Taktiken (Strategie) sie wählten. Beispielsweise waren Kinder einflussreich und beliebt, die eine Reihe von Verhandlungstaktiken generierten oder die zunächst Verhandlungstaktiken vorschlugen und danach erzwingende Taktiken. Kinder, die sofort Zwang einsetzen würden, hatten wenig Einfluss und wurden abgelehnt. Außerdem fanden sich Geschlechts- und Altersunterschiede hinsichtlich des Vorgehens in der hypothetischen Normbruchsituation sowie der Zusammenhänge zwischen Taktiken und Stellung unter Peers.
Bestimmung von Ozonabbauraten über der Arktis und Antarktis mittels Ozonsonden- und Satellitendaten
(2005)
Diese Arbeit beschäftigt sich mit der chemischen Ozonzerstörung im arktischen und antarktischen stratosphärischen Polarwirbel. Diese wird durch Abbauprodukte von anthropogen emittierten Fluorchlorkohlenwasserstoffen und Halonen, Chlor- und Bromradikale, verursacht. Studien in denen der gemessene und modellierte Ozonabbau verglichen wird zeigen, dass die Prozeße bekannt sind, der quantitative Verlauf allerdings nicht vollständig verstanden ist. Die Prozesse, die zur Ozonzerstörung führen sind in beiden Polarwirbeln ähnlich. Allerdings fällt als Konsequenz unterschiedlicher meteorologischer Bedingungen der chemische Ozonabbau im arktischen Polarwirbel weniger drastisch aus als über der Antarktis. Der arktische Polarwirbel ist im Mittel stärker dynamisch gestört als der antarktische und weist eine stärkere Jahr-zu-Jahr Variabilität auf. Das erschwert die Messung des chemischen Ozonabbaus. Zur Trennung des chemischen Ozonabbaus von der dynamischen Umverteilung des Ozons im arktischen Polarwirbel wurde die Matchmethode entwickelt. Bei dieser Methode werden Luftpakete innerhalb des Polarwirbels mehrfach beprobt, um den chemischen Anteil der Ozonänderung zu quantifizieren. Zur Identifizierung von doppelt beprobten Luftpaketen werden Trajektorien aus Windfeldern berechnet. Können zwei Messungen im Rahmen bestimmter Qualitätskriterien durch eine Trajektorie verbunden werden, kann die Ozondifferenz zwischen beiden Sondierungen berechnet und als chemischer Ozonabbau interpretiert werden. Eine solche Koinzidenz wird Match genannt. Der Matchmethode liegt ein statistischer Ansatz zugrunde, so dass eine Vielzahl solcher doppelt beprobter Luftmassen vorliegen muss, um gesicherte Aussagen über die Ozonzerstörung gewinnen zu können. So erhält man die Ozonzerstörung in einem bestimmten Zeitintervall, also Ozonabbauraten. Um die Anzahl an doppelt beprobten Luftpackten zu erhöhen wurde eine aktive Koordinierung der Ozonsondenaufstiege entwickelt. Im Rahmen dieser Arbeit wurden Matchkampagnen während des arktischen Winters 2002/2003 und zum ersten Mal während eines antarktischen Winter (2003) durchgeführt. Aus den gewonnenen Daten wurden Ozonabbauraten in beiden Polarwirbeln bestimmt. Diese Abbauraten dienen zum einen der Evaluierung von Modellen, ermöglichen aber auch den direkten Vergleich von Ozonabbauraten in beiden Polarwirbeln. Der Winter 2002/2003 war zu Beginn durch sehr tiefe Temperaturen in der mittleren und unteren Stratosphäre charakterisiert, so dass die Matchkampagne Ende November gestartet wurde. Ab Januar war der Polarwirbel zeitweise stark dynamisch gestört. Die Kampagne ging bis Mitte März. Für den Höhenbereich von 400 bis 550 K potentieller Temperatur (15-23 km) konnten Ozonabbauraten und der Verlust in der Gesamtsäule berechnet werden. Die Ozonabbauraten wurden in verschiedenen Tests auf ihre Stabilität überprüft. Der antarktische Polarwirbel war vom Beginn des Winters bis Mitte Oktober 2003 sehr kalt und stellte Ende September kurzzeitig den Rekord für die größte bisher aufgetretene Ozonloch-Fläche ein. Es konnten für den Kampagnenzeitraum, Anfang Juni bis Anfang Oktober, Ozonabbauraten im Höhenbereich von 400 bis 550 K potentieller Temperatur ermittelt werden. Der zeitliche Verlauf des Ozonabbaus war dabei auf fast allen Höhenniveaus identisch. Die Zunahme des Sonnenlichtes im Polarwirbel mit der Zeit führt zu einem starken Anwachsen der Ozonabbauraten. Ab Mitte September gingen die Ozonabbauraten auf Null zurück, da bis zu diesem Zeitpunkt das gesamte Ozon zwischen ca. 14 und 21 km zerstört wurde. Im letzten Teil der Arbeit wird ein neuer Algorithmus auf Basis der multivariaten Regression vorgestellt, mit dem Ozonabbauraten aus Ozonprofilen verschiedener Sensoren gleichzeitig berechnet werden können. Dabei können neben der Ozonabbaurate die systematischen Fehler zwischen den einzelnen Sensoren bestimmt werden. Dies wurde exemplarisch am antarktischen Winter 2003 für das 475 K potentielle Temperatur Niveau gezeigt. Neben den Ozonprofilen der Sonden wurden Daten von zwei Satellitenexperimenten verwendet. Die mit der multivariaten Matchtechnik berechneten Ozonabbauraten stimmen gut mit den Ozonabbauraten der Einzelsensor-Matchansätze überein.
This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals. In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization. As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed. These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms. Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings.
The protection of species is one major focus in conservation biology. The basis for any management concept is the knowledge of the species autecology. In my thesis, I studied the life-history traits and population dynamics of the endangered Lesser Spotted Woodpecker (Picoides minor) in Central Europe. Here, I combine a range of approaches, from empirical investigations of a Lesser Spotted Woodpecker population in the Taunus low mountain range in Germany, the analysis of empirical data and the development of an individual-based stochastic model simulating the population dynamics. In the field studies I collected basic demographic data of reproductive success and mortality. Moreover, breeding biology and behaviour were investigated in detail. My results showed a significant decrease of the reproductive success with later timing of breeding, caused by deterioration in food supply. Moreover, mate fidelity was of benefit, since pairs composed of individuals that bred together the previous year started earlier with egg laying and obtained a higher reproductive success. Both sexes were involved in parental care, but the care was only shared equally during incubation and the early nestling stage. In the late nestling stage, parental care strategies differed between sexes: Females considerably decreased feeding rate with number of nestlings and even completely deserted small broods. Males fed their nestlings irrespective of brood size and compensated for the females absence. The organisation of parental care in the Lesser Spotted Woodpecker is discussed to provide the possibility for females to mate with two males with separate nests and indeed, polyandry was confirmed. To investigate the influence of the observed flexibility in the social mating system on the population persistence, a stochastic individual-based model simulating the population dynamics of the Lesser Spotted Woodpecker was developed, based on empirical results. However, pre-breeding survival rates could not be obtained empirically and I present in this thesis a pattern-oriented modelling approach to estimate pre-breeding survival rates by comparing simulation results with empirical pattern of population structure and reproductive success on population level. Here, I estimated the pre-breeding survival for two Lesser Spotted Woodpecker populations on different latitudes to test the reliability of the results. Finally, I used the same simulation model to investigate the effect of flexibility in the mating system on the persistence of the population. With increasing rate of polyandry in the population, the persistence increased and even low rates of polyandry had a strong influence. Even when presuming only a low polyandry rate and costs of polyandry in terms of higher mortality and lower reproductive success for the secondary male, the positive effect of polyandry on the persistence of the population was still strong. This thesis greatly helped to increase the knowledge of the autecology of an endangered woodpecker species. Beyond the relevance for the species, I could demonstrate here that in general flexibility in mating systems are buffer mechanisms and reduce the impact of environmental and demographic noise.
The thesis assesses the contribution of technology option of Carbon Capture and Sequestration (CCS) to climate change mitigation. CCS means that CO2 is captured at large industrial facilities and sequestered in goelogical structures. The technology uses the endogenous growth model MIND. Herein the various climate change mitigation options of reducing economic growth, increasing energy efficiency, changing the energy mix and CCS are assessed simultaneously. An important question is whether CCS is a temporary or long-term solution. The results show that in the middle of the 21st century CCS has its peak contribution, which allows prolonged use of relatively cheap fossil energy carriers. However, this leads to delayed introduction of renewable energy carriers. The technology path ways are accombined with different costs of climate change mitigation. The use of CCS delays and reduces the costs of climate change mitigation. However, the delayed introduction of renewable energy carriers leads to reduced technological learning, which induces higher costs in the longer term. All in all the temporary use of CCS reduces the costs of climate change mitigation costs. The result is robust, which is tested with various uncertainty analysis.
About 24 % of the land surface in the northern hemisphere are underlayed by permafrost in various states. Permafrost aggradation occurs under special environmental conditions with overall low annual precipitation rates and very low mean annual temperatures. Because the general permafrost occurrence is mainly driven by large-scale climatic conditions, the distribution of permafrost deposits can be considered as an important climate indicator. The region with the most extensive continuous permafrost is Siberia. In northeast Siberia, the ice- and organic-rich permafrost deposits of the Ice Complex are widely distributed. These deposits consist mostly of silty to fine-grained sandy sediments that were accumulated during the Late Pleistocene in an extensive plain on the then subaerial Laptev Sea shelf. One important precondition for the Ice Complex sedimentation was, that the Laptev Sea shelf was not glaciated during the Late Pleistocene, resulting in a mostly continuous accumulation of permafrost sediments for at least this period. This shelf landscape became inundated and eroded in large parts by the Holocene marine transgression after the Last Glacial Maximum. Remnants of this landscape are preserved only in the present day coastal areas. Because the Ice Complex deposits contain a wide variety of palaeo-environmental proxies, it is an excellent palaeo-climate archive for the Late Quaternary in the region. Furthermore, the ice-rich Ice Complex deposits are sensible to climatic change, i.e. climate warming. Because of the large-scale climatic changes at the transition from the Pleistocene to the Holocene, the Ice Complex was subject to extensive thermokarst processes since the Early Holocene. Permafrost deposits are not only an environmental indicator, but also an important climate factor. Tundra wetlands, which have developed in environments with aggrading permafrost, are considered a net sink for carbon, as organic matter is stored in peat or is syn-sedimentary frozen with permafrost aggradation. Contrary, the Holocene thermokarst development resulted in permafrost degradation and thus the release of formerly stored organic carbon. Modern tundra wetlands are also considered an important source for the climate-driving gas methane, originating mainly from microbial activity in the seasonal active layer. Most scenarios for future global climate development predict a strong warming trend especially in the Arctic. Consequently, for the understanding of how permafrost deposits will react and contribute to such scenarios, it is necessary to investigate and evaluate ice-rich permafrost deposits like the widespread Ice Complex as climate indicator and climate factor during the Late Quaternary. Such investigations are a pre-condition for the precise modelling of future developments in permafrost distribution and the influence of permafrost degradation on global climate. The focus of this work, which was conducted within the frame of the multi-disciplinary joint German-Russian research projects "Laptev Sea 2000" (1998-2002) and "Dynamics of Permafrost" (2003-2005), was twofold. First, the possibilities of using remote sensing and terrain modelling techniques for the observation of periglacial landscapes in Northeast Siberia in their present state was evaluated and applied to key sites in the Laptev Sea coastal lowlands. The key sites were situated in the eastern Laptev Sea (Bykovsky Peninsula and Khorogor Valley) and the western Laptev Sea (Cape Mamontovy Klyk region). For this task, techniques using CORONA satellite imagery, Landsat-7 satellite imagery, and digital elevation models were developed for the mapping of periglacial structures, which are especially indicative of permafrost degradation. The major goals were to quantify the extent of permafrost degradation structures and their distribution in the investigated key areas, and to establish techniques, which can be used also for the investigation of other regions with thermokarst occurrence. Geographical information systems were employed for the mapping, the spatial analysis, and the enhancement of classification results by rule-based stratification. The results from the key sites show, that thermokarst, and related processes and structures, completely re-shaped the former accumulation plain to a strongly degraded landscape, which is characterised by extensive deep depressions and erosional remnants of the Late Pleistocene surface. As a results of this rapid process, which in large parts happened within a short period during the Early Holocene, the hydrological and sedimentological regime was completely changed on a large scale. These events resulted also in a release of large amounts of organic carbon. Thermokarst is now the major component in the modern periglacial landscapes in terms of spatial extent, but also in its influence on hydrology, sedimentation and the development of vegetation assemblages. Second, the possibilities of using remote sensing and terrain modelling as a supplementary tool for palaeo-environmental reconstructions in the investigated regions were explored. For this task additionally a comprehensive cryolithological field database was developed for the Bykovsky Peninsula and the Khorogor Valley, which contains previously published data from boreholes, outcrops sections, subsurface samples, and subsurface samples, as well as additional own field data. The period covered by this database is mainly the Late Pleistocene and the Holocene, but also the basal deposits of the sedimentary sequence, interpreted as Pliocene to Early Pleistocene, are contained. Remote sensing was applied for the observation of periglacial strucures, which then were successfully related to distinct landscape development stages or time intervals in the investigation area. Terrain modelling was used for providing a general context of the landscape development. Finally, a scheme was developed describing mainly the Late Quaternary landscape evolution in this area. A major finding was the possibility of connecting periglacial surface structures to distinct landscape development stages, and thus use them as additional palaeo-environmental indicator together with other proxies for area-related palaeo-environmental reconstructions. In the landscape evolution scheme, i.e. of the genesis of the Late Pleistocene Ice Complex and the Holocene thermokarst development, some new aspects are presented in terms of sediment source and general sedimentation conditions. This findings apply also for other sites in the Laptev Sea region.
Nitrogen is often a limiting factor for plant growth due to its heterogenous distribution in the soil and to seasonal and diurnal changes in growth rates. In most soils, NH4+ and NO3 – are the predominant sources of inorganic nitrogen that are available for plant nutrition. In this context, plants have evolved mechanisms that enable them to optimize nitrogen acquisition, which include transporters specialized in the uptake of nitrogen and susceptible to a regulation that responds to nitrogen limiting or excess conditions. Although the average NH4+ concentrations of soils are generally 100 to 1000 times lower than those of NO3 – (Marschner, 1995), most plants preferentially take up NH4+ when both forms are present because unlike NO3– , NH4+ has not to be reduced prior to assimilation and thus requires less energy for assimilation (Bloom et al., 1992). Apart from high uptake rates in roots, high intracellular ammonium concentrations also result from quantitatively important internal breakdown of amino acids (Feng et al., 1998), and originates in high quantities during photorespiration (Mattson et al., 1997, Pearson et al., 1998). Thus, NH4+ is a key component of nitrogen metabolism for all plants and can accumulate to varying concentrations in all compartments of the cell, including the cytosol, the vacuole and in the apoplast (Wells and Miller, 2000; Nielsen and Schjoerring, 1998). Two related families of ammonium transporters (AMT1 and AMT2), containing six genes which encode transporter proteins that are specific for ammonium had been identified prior to this thesis and some genes had partially been characterised in Arabidopsis (Gazzarrini et al., 1999; Sohlenkamp et al. 2002; Kaiser et al., 2002). However, these studies were not sufficient to assign physiological functions to the individual transporters and AMT1.4 and AMT1.5 had not been studied prior to this thesis. Given this background, it was considered desirable to acquire a deeper knowledge of the physiological functions of the six Arabidopsis ammonium transporters. To this end, tissue specific expression profiles of the individual wildtype AtAMT genes were performed by quantitative real time PCR (qRT-PCR) and promoter-GUS expression. Modern approaches such as the use of T-DNA insertional mutants and RNAi hairpin constructs were employed to reduce the expression levels of AMT genes. Transcript levels were determined, and physiological, biochemical and developmental analysis such as growth tests on different media and 14C-MA and NH4+ uptake studies with the isolated insertional mutants and RNAi lines were performed to deepen the knowledge of the individual functions of the six AMTs in Arabidopsis. In addition, double mutants of the insertional mutants were created to investigate the extent in which homologous genes could compensate for lost transporter functions. The results described in this thesis show that the six AtAMT genes display a high degree of specifity in their tissue specific expression and are likely to play complementary roles in ammonium uptake into roots, in shoots, and in flowers. AtAMT1.1 is likely to be a ‘work horse’ for cellular ammonium transport and reassimilation. A major role is probably the recapture of photorespiratory NH3/NH4+ escaping from the cytosol. In roots, it is likely to transport NH4+ from the apoplast into cortical cells. AtAMT1.3 and AtAMT1.5 appear to be specialised in the acquisition of external NH4+ from the soil. Furthermore, AtAMT1.5 plays an additional role in the reassimilation of NH3/NH4+ released during the breakdown of storage proteins in the cotyledons of germinating seedlings. It was difficult to distinguish a specialisation between the transporters AtAMt1.2 and AtAMt1.1, however the root and flower specific expression patterns are different and indicate alternative functions of both. AtAMT1.4 has a very distinct expression which is restricted to the vascular bundels of leaves and to pollen only, where it is likely to be involved in the loading of NH4+ into the cells.The AtAMT2.1 expression pattern is confined to vascular bundels and meristematic active tissues in leaves where ammonium concentrations can reach very high levels. Additionally, the Vmax of AtAMT2 increases with increasing external pH, contrasting to AtAMT1.1. Thus, AtAMT2.1 it might be specialised in ammonium transport in ammonium rich environments, where the functions of other transporters are limited, enabling cells to take up NH4+ over a wide range of concentrations. The root hair expression ascribes an additional role in NH3/NH4+ acquisition where it possibly serves as a transporter that is able to acquire ammonium from basic soils where other transporters become less effective.RNAi lines showing a reduction in AtAMT gene mRNA levels and NH4+ transport kinetics, grew slower and flowering time was delayed. This indicates that NH4+ is a crucial and limiting factor for plant growth.
Die vorliegende Arbeit wurde im Rahmen des multidisziplinären Deutsch-Russischen Verbundprojektes "Laptev See 2000" erstellt. Die dargestellten bodenkundlichen und mikro-biologischen Untersuchungen verfolgten das Ziel die mikrobielle Lebensgemeinschaft eines Permafrostbodens im sibirischen Lena Delta zu charakterisieren, wobei den methanogenen Archaea besondere Beachtung zukam. Die Probennahme wurde im August 2001 im zentralen Lenadelta, auf der Insel Samoylov durchgeführt. Das Delta liegt im Bereich des kontinuierlichen Permafrostes, was bedeutet, dass nur eine flache saisonale Auftauschicht während der Sommermonate auftaut. Das untersuchte Bodenprofil lag im Zentrum eines für die Landschaft repräsentativen Low Center Polygons. Zum Zeitpunkt der Beprobung betrug die Auftautiefe des untersuchten Bodens 45 cm.. Der Wasserstand lag zum Untersuchungszeitpunkt 18 cm unter der Geländeoberfläche, so dass alle tiefer liegenden Horizonte durch anaerobe Verhältnisse charakterisiert waren. Die Untersuchung der bodenkundlichen Parameter ergab unter anderem eine mit zunehmender Tiefe abnehmende Konzentration von Kohlenstoff und Stickstoff, sowie eine Abnahme von Temperatur und Wurzeldichte. Um die Auswirkungen der sich mit der Tiefe verändernden Bodeneigenschaften auf die Mikroorganismen zu ermitteln, wurden die Mikroorganismenpopulationen der verschiedenen Bodentiefen mit Hilfe der Fluoreszenz in situ Hybridisierung hinsichtlich ihrer Anzahl, Aktivität und Zusammensetzung beschrieben. Für die Charakterisierung des physiologischen Profils dieser Gemeinschaften, bezüglich der von ihr umsetzbaren Kohlenstoffverbindungen, wurden BIOLOG Mikrotiterplatten unter den in situ Bedingungen angepassten Bedingungen eingesetzt. Die sich im Profil verändernden Bodenparameter, vor allem die abnehmende Substratversorgung, die geringe Temperatur und die anaeroben Verhältnisse in den unteren Bodenschichten führten zu einer Veränderung der Mikroorganismenpopulation im Bodenprofil. So nahm von oben nach unten die Gesamtanzahl der ermittelten Mikroorganismen von 23,0 × 108 auf 1,2 × 108 Zellen g-1 ab. Gleichzeitig sank der Anteil der aktiven Zellen von 59% auf 33%. Das bedeutet, dass im Bereich von 0-5 cm 35mal mehr aktive Zellen g-1 als im Bereich von 40-45 cm gefunden wurden. Durch den Einsatz spezieller rRNS-Sonden konn-te zusätzlich eine Abnahme der Diversität mit zunehmender Bodentiefe nachgewiesen werden. Die geringere Aktivität der Population in den unteren Horizonten sowie die Unterschiede in der Zusammensetzung wirkten sich auf den Abbau der organischen Substanz aus. So wur-den die mit Hilfe der BIOLOG Mikrotiterplatten angebotenen Substanzen in größerer Tiefe langsamer und unvollständiger abgebaut. Insbesondere in den oberen 5 cm konnten einige der angebotenen Polymere und Kohlehydrate deutlich besser als im restlichen Profil umge-setzt werden. Das außerdem unter anaeroben Versuchsbedingungen diese Substrate deutlich schlechter umgesetzt wurden, kann so interpretiert werden, dass die konstant anaeroben Bedingungen in den unteren Horizonten ein Auftreten der Arten, die diese Substrate umset-zen, erschweren. Die in den oberen, aeroben Bodenabschnitten wesentlich höheren Zellzahlen und Aktivitäten und die dadurch schnellere C-Umsetzung führen auch zu einer besseren Substratversorgung der methanogenen Archaea in den makroskopisch aeroben Horizonten. Die erhöhte Substratverfügbarkeit erklärt die Tatsache, dass im Bereich von 0-5 cm die meisten methanogenen Archaea gefunden wurden, obwohl sich dieser Bereich zum Zeitpunkt der Probennahme oberhalb des wassergesättigten Bodenbereichs befand. Trotz der aeroben Bedingungen in, liegt im Bereich von 5 10 cm die für die methanogenen Archaea am besten geeignete Kombination aus Substratangebot und anaeroben Nischen vor. Hinzu kommt, dass in diesen Tiefen die Sommertemperaturen etwas höher liegen als in den tieferen Horizonten, was wiederum die Aktivität positiv beeinflusst. Bei zusammenfassender Betrachtung der Untersuchungsergebnisse von Anzahl, Aktivität, Zusammensetzung und Leistung der gesamten, aber im besonderen auch der methanogenen Mikroorganismenpopulation wird deutlich, dass in dem untersuchten Bodenprofil unter ökologischen Gesichtspunkten die oberen 15-20 cm den für den C-Umsatz relevantesten Bereich darstellen. Das Zusammenspiel wichtiger Bodenparameter wie Bodentemperatur, Wasserstand, Nährstoffversorgung und Durchwurzelung führt dazu, dass in dem untersuchten Tundraboden in den oberen 15-20 cm eine wesentlich größere und diversere Anzahl an Mikroorganismen existiert, die für einen schnelleren und umfassenderen Kohlenstoffumsatz in diesem Bereich des active layers sorgt.
Das Borna Disease Virus (BDV, Bornavirus) besitzt ein einzelsträngiges RNA-Genom negativer Polarität und ist innerhalb der Ordnung Mononegavirales der Prototyp einer eigenen Virusfamilie, die der Bornaviridae. Eine außergewöhnliche Eigenschaft des Virus ist seine nukleäre Transkription und Replikation, eine weitere besteht in seiner Fähigkeit, als neurotropes Virus sowohl in vivo als auch in vitro persistente Infektionen zu etablieren. Die zugrunde liegenden Mechanismen sowohl der Replikation als auch der Persistenz sind derzeit noch unzureichend verstanden, auch deshalb, weil das Virus noch relativ „jung“ ist: Erste komplette Sequenzen des RNA-Genoms wurden 1994 publiziert und erst vor einigen Monaten gelang die Generierung rekombinanter Viren auf der Basis klonierter cDNA. Im Mittelpunkt dieser Arbeit standen das p10 Protein und das Phosphoprotein (P), die von der gemeinsamen Transkriptionseinheit II in überlappenden Leserahmen kodiert werden. Als im Kern der Wirtszelle replizierendes Virus ist das Bornavirus auf zelluläre Importmechanismen angewiesen, um den Kernimport aller an der Replikation beteiligten viralen Proteine zu gewährleisten. Das p10 Protein ist ein negativer Regulator der viralen RNA-abhängigen RNA-Polymerase (L). In vitro Importexperimente zeigten, dass p10 über den klassischen Importin alpha/beta abhängigen Kernimportweg in den Nukleus transportiert wird. Dies war unerwartet, da p10 kein vorhersagbares klassisches Kernlokalisierungssignal (NLS) besitzt und weist darauf hin, dass der zelluläre Importapparat offensichtlich flexibler ist als allgemein angenommen. Die ersten 20 N-terminalen AS vermitteln sowohl Kernimport als auch die Bindung an den Importrezeptor Importin alpha. Durch Di-Alanin-Austauschmutagenese wurden die für diesen Transportprozess essentiellen AS identifiziert und die Bedeutung hydrophober und polarer AS-Reste demonstriert. Die Fähigkeit des Bornavirus, persistente Infektionen zu etablieren, wirft die Frage auf, wie das Virus die zellulären antiviralen Abwehrmechanismen, insbesondere das Typ I Interferon (IFN)-System, unterwandert. Das virale P Protein wurde in dieser Arbeit als potenter Antagonist der IFN-Induktion charakterisiert. Es verhindert die Phosphorylierung des zentralen Transkriptionsfaktors IRF3 durch die zelluläre Kinase TBK1 und somit dessen Aktivierung. Der Befund, dass P mit TBK1 Komplexe bildet und zudem auch als Substrat für die zelluläre Kinase fungiert, erlaubt es, erstmalig einen Mechanismus zu postulieren, in dem ein virales Protein (BDV-P) als putatives TBK1-Pseudosubstrat die IRF3-Aktivierung kompetitiv hemmt.
This work explores the equilibrium structure and thermodynamic phase behavior of complexes formed by charged polymer chains (polyelectrolytes) and oppositely charged spheres (macroions). Polyelectrolyte-macroion complexes form a common pattern in soft-matter physics, chemistry and biology, and enter in numerous technological applications as well. From a fundamental point of view, such complexes are interesting in that they combine the subtle interplay between electrostatic interactions and elastic as well as entropic effects due to conformational changes of the polymer chain, giving rise to a wide range of structural properties. This forms the central theme of theoretical studies presented in this thesis, which concentrate on a number of different problems involving strongly coupled complexes, i.e. complexes that are characterized by a large adsorption energy and small chain fluctuations. In the first part, a global analysis of the structural phase behavior of a single polyelectrolyte-macroion complex is presented based on a dimensionless representation, yielding results that cover a wide range of realistic system parameters. Emphasize is made on the interplay between the effects due to the polyelectrolytes chain length, salt concentration and the macroion charge as well as the mechanical chain persistence length. The results are summarized into generic phase diagrams characterizing the wrapping-dewrapping behavior of a polyelectrolyte chain on a macroion. A fully wrapped chain state is typically obtained at intermediate salt concentrations and chain lengths, where the amount of polyelectrolyte charge adsorbed on the macroion typically exceeds the bare macroion charge leading thus to a highly overcharged complex. Perhaps the most striking features occur when a single long polyelectrolyte chain is complexed with many oppositely charged spheres. In biology, such complexes form between DNA (which carries the cell's genetic information) and small oppositely charged histone proteins serving as an efficient mechanism for packing a huge amount of DNA into the micron-size cell nucleus in eucaryotic cells. The resultant complex fiber, known as the chromatin fiber, appears with a diameter of 30~nm under physiological conditions. Recent experiments indicate a zig-zag spatial arrangement for individual DNA-histone complexes (nucleosome core particles) along the chromatin fiber. A numerical method is introduced in this thesis based on a simple generic chain-sphere cell model that enables one to investigate the mechanism of fiber formation on a systematic level by incorporating electrostatic and elastic contributions. As will be shown, stable complex fibers exhibit an impressive variety of structures including zig-zag, solenoidal and beads-on-a-string patterns, depending on system parameters such as salt concentration, sphere charge as well as the chain contour length (per sphere). The present results predict fibers of compact zig-zag structure within the physiologically relevant regime with a diameter of about 30~nm, when DNA-histone parameters are adopted. In the next part, a numerical method is developed in order to investigate the role of thermal fluctuations on the structure and thermodynamic phase behavior of polyelectrolyte-macroion complexes. This is based on a saddle-point approximation, which allows to describe the experimentally observed reaction (or complexation) equilibrium in a dilute solution of polyelectrolytes and macroions on a systematic level. This equilibrium is determined by the entropy loss a single polyelectrolyte chain suffers as it binds to an oppositely charged macroion. This latter quantity can be calculated from the spectrum of polyelectrolyte fluctuations around a macroion, which is determined by means of a normal-mode analysis. Thereby, a stability phase diagram is obtained, which exhibits qualitative agreement with experimental findings. At elevated complex concentrations, one needs to account for the inter-complex interactions as well. It will be shown that at small separations, complexes undergo structural changes in such a way that positive patches from one complex match up with negative patches on the other. Furthermore, one of the polyelectrolyte chains may bridge between the two complexes. These mechanisms lead to a strong inter-complex attraction. As a result, the second virial coefficient associated with the inter-complex interaction becomes negative at intermediate salt concentrations in qualitative agreement with recent experiments on solutions of nucleosome core particles.
Natural and human induced environmental changes affect populations at different time scales. If they occur in a spatial heterogeneous way, they cause spatial variation in abundance. In this thesis I addressed three topics, all related to the question, how environmental changes influence population dynamics. In the first part, I analysed the effect of positive temporal autocorrelation in environmental noise on the extinction risk of a population, using a simple population model. The effect of autocorrelation depended on the magnitude of the effect of single catastrophic events of bad environmental conditions on a population. If a population was threatened by extinction only, when bad conditions occurred repeatedly, positive autocorrelation increased extinction risk. If a population could become extinct, even if bad conditions occurred only once, positive autocorrelation decreased extinction risk. These opposing effects could be explained by two features of an autocorrelated time series. On the one hand, positive autocorrelation increased the probability of series of bad environmental conditions, implying a negative effect on populations. On the other hand, aggregation of bad years also implied longer periods with relatively good conditions. Therefore, for a given time period, the overall probability of occurrence of at least one extremely bad year was reduced in autocorrelated noise. This can imply a positive effect on populations. The results could solve a contradiction in the literature, where opposing effects of autocorrelated noise were found in very similar population models. In the second part, I compared two approaches, which are commonly used for predicting effects of climate change on future abundance and distribution of species: a "space for time approach", where predictions are based on the geographic pattern of current abundance in relation to climate, and a "population modelling approach" which is based on correlations between demographic parameters and the inter-annual variation of climate. In this case study, I compared the two approaches for predicting the effect of a shift in mean precipitation on a population of the sociable weaver Philetairus socius, a common colonially living passerine bird of semiarid savannahs of southern Africa. In the space for time approach, I compared abundance and population structure of the sociable weaver in two areas with highly different mean annual precipitation. The analysis showed no difference between the two populations. This result, as well as the wide distribution range of the species, would lead to the prediction of no sensitive response of the species to a slight shift in mean precipitation. In contrast, the population modelling approach, based on a correlation between reproductive success and rainfall, predicted a sensitive response in most model types. The inconsistency of predictions was confirmed in a cross-validation between the two approaches. I concluded that the inconsistency was caused, because the two approaches reflect different time scales. On a short time scale, the population may respond sensitively to rainfall. However, on a long time scale, or in a regional comparison, the response may be compensated or buffered by a variety of mechanisms. These may include behavioural or life history adaptations, shifts in the interactions with other species, or differences in the physical environment. The study implies that understanding, how such mechanisms work, and at what time scale they would follow climate change, is a crucial precondition for predicting ecological consequences of climate change. In the third part of the thesis, I tested why colony sizes of the sociable weaver are highly variable. The high variation of colony sizes is surprising, as in studies on coloniality it is often assumed that an optimal colony size exists, in which individual bird fitness is maximized. Following this assumption, the pattern of bird dispersal should keep colony sizes near an optimum. However, I showed by analysing data on reproductive success and survival that for the sociable weaver fitness in relation to colony size did not follow an optimum curve. Instead, positive and negative effects of living in large colonies overlaid each other in a way that fitness was generally close to one, and density dependence was low. I showed in a population model, which included an evolutionary optimisation process of dispersal that this specific shape of the fitness function could lead to a dispersal strategy, where the variation of colony sizes was maintained.
Connective ties in discourse: Three ERP studies on causal, temporal and concessive connective ties and their influence on language processing. Questions In four experiments the influence of lexical connectives such as " darum", therefore, " danach", afterwards, and " trotzdem", nevertheless, on the processing of short two-sentence discourses was examined and compared to the processing of deictical sentential adverbs such as " gestern", yesterday, and " lieber", rather. These latter words do not have the property of signaling a certain discourse relation between two sentences, as connective ties do. Three questions were central to the work: * Do the processing contrasts found between connective and non-connective elements extend to connective ties and deictical sentential adverbs (experiments 2 and 3)? * Does the semantic content of the connective ties play the primary role, i.e is the major distinction to be made indeed between connective and non-connective or instead between causal, temporal and concessive? * When precisely is the information provided by connective ties used? There is some evidence that connective ties can have an immediate influence on the integration of subsequent elements, but the end of the second sentences appears to play an important role as well: experiments 2, 3, and 4. Conclusions First of all, the theoretical distinction between connective and non-connective elements does indeed have " cognitive reality" . This has already been shown in previous studies. The present studies do however show, that there is also a difference between one-place discourse elements (deictical sentential adverbs) and two-place discourse elements, namely connective ties, since all experiments examining this contrast found evidence for qualitatively and quantitatively different processing (experiments 1, 2, and 3). Secondly, the semantic type of the connective ties also plays a role. This was not shown for the LAN, found for all connective ties when compared to non-connective elements, and consequently interpreted as a more abstract reflection of the integration of connective ties. There was also no difference between causal and temporal connective ties before the end of the discourses in experiment 3. However, the N400 found for incoherent discourses in experiment 2, larger for connective incoherent than non-connective incoherent discourses, as well as the P3b found for concessive connective ties in the comparison between causal and concessive connective ties gave reason to assume that the semantic content of connective ties is made use of in incremental processing, and that the relation signaled by the connective tie is the one that readers attempt to construct. Concerning when the information provided by connective ties is used, it appears as if connectivity is generally and obligatorily taken at face value. As long as the meaning of a connective tie did not conflict with a preferred canonical discourse relation, there were no differences found for varying connective discourses (experiment 3). However, the fact that concessive connective ties announce the need for a more complex text representation was recognized and made use of immediately (experiment 4). Additionally, a violation of the discourse relation resulted in more difficult semantic integration if a connective tie was present (experiment 2). It is therefore concluded here that connective ties influence processing immediately. This claim has to be modified somewhat, since the sentence-final elements suggested that connective ties trigger different integration processes than non-connective elements. It seems as if the answer to the question of when connective ties are processed is neither exclusively immediately nor exclusively afterwards, but that both viewpoints are correct. It is suggested here that before the end of a discourse economy plays a central role in that a canonical relation is assumed unless there is evidence to the contrary. A connective tie could have the function of reducing the dimensions evaluated in a discourse to the one signaled by the connective tie. At the end of the discourse the representation is evaluated and verified, and an integrated situation model constructed. Here, the complexity of the different discourse relations that connective ties can signal, is expressed.
Homocystein (tHcy) gilt als unabhängiger kardiovaskulärer Risikofaktor und korreliert eng mit einer endothelialen Dysfunktion, welche nichtinvasiv mittels der flussinduzierten Vasodilatation (FMD) messbar ist. Experimentelle Hyperhomocysteinämie ist mit einer reduzierten Bioverfügbarkeit von endothelialen Stickstoffmonoxid (NO) bei gleichzeitig erhöhten Spiegeln des kompetetiven Inhibitors der NO-Biosynthese asymmetrisches Dimethylarginin (ADMA) assoziiert. In-vivo senkt eine Östrogenbehandlung neben tHcy auch die ADMA-Spiegel und verbessert signifikant die Endothelfunktion. Hinsichtlich ihrer Wirkung als selektive Östrogenrezeptormodulatoren wird angenommen, dass Phytoöstrogene, speziell Sojaisoflavone, ähnliche Effekte hervorrufen. Innerhalb einer europäischen, multizentrischen, doppelblinden Interventionsstudie an 89 gesunden, postmenopausalen Frauen wurde der Einfluss von Sojaisoflavonen auf den Homocysteinmetabolismus, den Blutdruck und die in-vivo Endothelfunktion untersucht. Die cross-over Studie umfasste zwei achtwöchige Interventionsperioden, die von einer gleichlangen Wash-out-Phase unterbrochen waren. Die Zuteilung zum Isoflavon- (50 mg/d) oder Plazeboregime für die erste Interventionsphase erfolgte randomisiert. Endpunkterhebungen fanden jeweils in den Wochen 0 und 8 der Interventionsperioden statt. Die renale Ausscheidung von Genistein, Daidzein und Equol war während der Isoflavonintervention signifikant erhöht (P>0,001). Die Phyoöstrogene hatten weder einen Effekt auf die tHcy-Konzentration (P=0,286), noch auf ADMA, Erythrozytenfolat und Vitamin B-12 (P>0,05) im Plasma. Während die Summe aus Nitrat und Nitrit (NOx), welche die NO-Bioverfügbarkeit reflektiert, im Verlaufe der Plazebobehandlung abfiel, wurde ein leichter Anstieg bei der Isoflavonsupplementation beobachtet (Delta Wo8-Wo0: -2,60 [-8,75; 2,25] vs. 1,00 [-6,65; 7,85] µmol/L P<0,001), was zu einem signifikanten Behandlungseffekt führte. Weiterhin wurde eine positive Korrelation zwischen ADMA und Vitamin B-12 gefunden (R=0,252; P=0,018). Die flussinduzierte Vasodilatation (P=0,716), ein Maß für die Endothelfunktion, blieb durch die Isoflavonbehandlung unbeeinflusst, obwohl sich diese über die Zeit insgesamt verbesserte (P>0,001). Bis auf einen marginalen Anstieg des systolischen Wertes (P=0,032) im Vergleich zur Plazebobehandlung blieb der Blutdruck während der Isoflavonintervention unverändert. Im Gegensatz zu Östrogen übten Sojaisoflavone weder einen Einfluss auf die in-vivo Endothelfunktion noch auf die traditionellen und neuen kardiovaskulären Risikofaktoren den Blutdruck, tHcy und ADMA aus. Demzufolge ist der gesundheitliche Nutzen isolierter Isoflavone hinsichtlich einer Prävention hormonmangelbedingter Erkrankungen in gesunden postmenopausalen Frauen fraglich.
Self-assembly of polymeric building blocks is a powerful tool for the design of novel materials and structures that combine different properties and may respond to external stimuli. In the past decades, most studies were focused on the self-assembly of amphiphilic diblock copolymers in solution. The dissolution of these block copolymers in a solvent selective for one block results mostly in the formation of micelles. The micellar structure of diblock copolymers is inherently limited to a homogeneous core surrounded by a corona, which keeps the micelle in solution. Thus, for drug-delivery applications, such structures only offer a single domain (the hydrophobic inner core) for drug entrapment. Whereas multicompartment micelles composed of a water-soluble shell and a segregated hydrophobic core are novel, interesting morphologies for applications in a variety of fields including medicine, pharmacy and biotechnology. The separated incompatible compartments of the hydrophobic core could enable the selective entrapment and release of various hydrophobic drugs while the hydrophilic shell would permit the stabilization of these nanostructures in physiological media. However, so far, the preparation and control of stable multicompartment micellar systems are in the first stages and the number of morphological studies concerning such micelles is rather low. Thus considerably little is known about their exact inner structures. In the present study, we concentrate on four different approaches for the preparation of multicompartment micelles by self-assembly in aqueous media. A similarity of all approaches was that hydrocarbon and fluorocarbon blocks were selected for all employed copolymers since such segments tend to be strongly incompatible, and thus favor the segregation into distinct domains. Our studies have shown that the self-assembly of the utilized copolymers in aqueous solution leads in three cases to the formation of multicompartment micelles. As expected the shape and size of the micelles depend on the molecular architecture and to some extent also on the way of preparation. These novel structured colloids may serve as models as well as mimics for biological structures such as globular proteins, and may open interesting opportunities for nanotechnology applications.
Aufgrund des großen Verhältnisses von Oberfläche zu Volumen zeigen Nanopartikel interessante, größenabhängige Eigenschaften, die man im ausgedehnten Festkörper nicht beobachtet. Sie sind daher von großem wissenschaftlichem und technologischem Interesse. Die Herstellung kleinster Partikel ist aus diesem Grund überaus wünschenswert. Dieses Ziel kann mit Hilfe von Mikroemulsionen als Templatphasen bei der Herstellung von Nanopartikeln erreicht werden. Mikroemulsionen sind thermodynamisch stabile, transparente und isotrope Mischungen von Wasser und Öl, die durch einen Emulgator stabilisiert sind. Sie können eine Vielzahl verschiedener Mikrostrukturen bilden. Die Kenntnis der einer Mikroemulsion zugrunde liegenden Struktur und Dynamik ist daher von außerordentlicher Bedeutung, um ein gewähltes System potentiell als Templatphase zur Nanopartikelherstellung einsetzen zu können. In der vorliegenden Arbeit wurden komplexe Mehrkomponentensysteme auf der Basis einer natürlich vorkommenden Sojabohnenlecithin-Mischung, eines gereinigten Lecithins und eines Sulfobetains als Emulgatoren mit Hilfe der diffusionsgewichteten 1H-NMR-Spektroskopie unter Verwendung gepulster Feldgradienten (PFG) in Abhängigkeit des Zusatzes des Polykations Poly-(diallyl-dimethyl-ammoniumchlorid) (PDADMAC) untersucht. Der zentrale Gegenstand dieser Untersuchungen war die strukturelle und dynamische Charakterisierung der verwendeten Mikroemulsionen hinsichtlich ihrer potentiellen Anwendbarkeit als Templatphasen für die Herstellung möglichst kleiner Nanopartikel. Die konzentrations- und zeit-abhängige NMR-Diffusionsmessung stellte sich dabei als hervorragend geeignete und genaue Methode zur Untersuchung der Mikrostruktur und Dynamik in den vorliegenden Systemen heraus. Die beobachtete geschlossene Wasser-in-Öl- (W/O-) Mikrostruktur der Mikroemulsionen zeigt deutlich deren potentielle Anwendbarkeit in der Nanopartikelsynthese. Das Gesamtdiffusionsverhalten des Tensides wird durch variierende Anteile aus der Verschiebung gesamter Aggregate, der Monomerdiffusion im Medium bzw. der medium-vermittelten Oberflächendiffusion bestimmt. Dies resultierte in einigen Fällen in einer anormalen Diffusionscharakteristik. In allen Systemen liegen hydrodynamische und direkte Wechselwirkungen zwischen den Tensidaggregaten vor. Der Zusatz von PDADMAC zu den Mikroemulsionen resultiert in einer Stabilisierung der flüssigen Grenzfläche der Tensidaggregate aufgrund der Adsorption des Polykations auf den entgegengesetzt geladenen Tensidfilm und kann potentiell zu Nanopartikeln mit kleineren Dimensionen und schmaleren Größenverteilungen führen.
This thesis aimed to investigate several fundamental and perplexing questions relating to the phloem loading and transport mechanisms of Cucurbita maxima, by combining metabolomic analysis with cell biological techniques. This putative symplastic loading species has long been used for experiments on phloem anatomy, phloem biochemistry, phloem transport physiology and phloem signalling. Symplastic loading species have been proposed to use a polymer trapping mechanism to accumulate RFO (raffinose family oligosaccharides) sugars to build up high osmotic pressure in minor veins which sustains a concentration gradient that drives mass flow. However, extensive evidence indicating a low sugar concentration in their phloem exudates is a long-known problem that conflicts with this hypothesis. Previous metabolomic analysis shows the concentration of many small molecules in phloem exudates is higher than that of leaf tissues, which indicates an active apoplastic loading step. Therefore, in the view of the phloem metabolome, a symplastic loading mechanism cannot explain how small molecules other than RFO sugars are loaded into phloem. Most studies of phloem physiology using cucurbits have neglected the possible functions of vascular architecture in phloem transport. It is well known that there are two phloem systems in cucurbits with distinctly different anatomical features: central phloem and extrafascicular phloem. However, mistaken conclusions on sources of cucurbit phloem exudation from previous reports have hindered consideration of the idea that there may be important differences between these two phloem systems. The major results are summarized as below: 1) O-linked glycans in C.maxima were structurally identified as beta-1,3 linked glucose polymers, and the composition of glycans in cucurbits was found to be species-specific. Inter-species grafting experiments proved that these glycans are phloem mobile and transported uni-directionally from scion to stock. 2) As indicated by stable isotopic labelling experiments, a considerable amount of carbon is incorporated into small metabolites in phloem exudates. However, the incorporation of carbon into RFO sugars is much faster than for other metabolites. 3) Both CO2 labelling experiments and comparative metabolomic analysis of phloem exudates and leaf tissues indicated that metabolic processes other than RFO sugar metabolism play an important role in cucurbit phloem physiology. 4) The underlying assumption that the central phloem of cucurbits continuously releases exudates after physical incision was proved wrong by rigorous experiments including direct observation by normal microscopy and combined multiple-microscopic methods. Errors in previous experimental confirmation of phloem exudation in cucurbits are critically discussed. 5) Extrafascicular phloem was proved to be functional, as indicated by phloem-mobile carboxyfluorescein tracer studies. Commissural sieve tubes interconnect phloem bundles into a complete super-symplastic network. 6) Extrafascicular phloem represents the main source of exudates following physical incision. The major transported metabolites by these extrafacicular phloem are non-sugar compounds including amino acids, O-glycans, amines. 7) Central phloem contains almost exclusively RFO sugars, the estimated amount of which is up to 1 to 2 molar. The major RFO sugar present in central phloem is stachyose. 8) Cucurbits utilize two structurally different phloem systems for transporting different group of metabolites (RFO sugars and non-RFO sugar compounds). This implies that cucurbits may use spatially separated loading mechanisms (apoplastic loading for extrafascicular phloem and symplastic loading for central phloem) for supply of nutrients to sinks. 9) Along the transport systems, RFO sugars were mainly distributed within central phloem tissues. There were only small amounts of RFO sugars present in xylem tissues (millimolar range) and trace amounts of RFO sugars in cortex and pith. The composition of small molecules in external central phloem is very different from that in internal central phloem. 10) Aggregated P-proteins were manually dissected from central phloem and analysed by both SDS-PAGE and mass spectrometry. Partial sequences of peptides were obtained by QTOF de novo sequencing from trypsin digests of three SDS-PAGE bands. None of these partial sequences shows significant homology to known cucurbit phloem proteins or other plant proteins. This proves that these central phloem proteins are a completely new group of proteins different from those in extrafascicular phloem. The extensively analysed P-proteins reported in literature to date are therefore now shown to arise from extrafascicular phloem and not central phloem, and therefore do not appear to be involved in the occlusion processes in central phloem.
In der vorliegenden Arbeit werden die Eigenschaften geschlossener fluider Membranen, sogenannter Vesikeln, bei endlichen Temperaturen untersucht. Dies beinhaltet Betrachtungen zur Form freier Vesikeln, eine Untersuchung des Adhäsionsverhaltens von Vesikeln an planaren Substraten sowie eine Untersuchung der Eigenschaften fluider Vesikeln in eingeschränkten Geometrien. Diese Untersuchungen fanden mit Hilfe von Monte-Carlo-Simulationen einer triangulierten Vesikeloberfläche statt. Die statistischen Eigenschaften der fluktuierenden fluiden Vesikeln wurden zum Teil mittels Freier-Energie-Profile analysiert. In diesem Zusammenhang wurde eine neuartige Histogrammethode entwickelt.<BR> Die Form für eine freie fluide Vesikel mit frei veränderlichem Volumen, die das Konfigurationsenergie-Funktional minimiert, ist im Falle verschwindender Temperatur eine Kugel. Mit Hilfe von Monte-Carlo-Simulationen sowie einem analytisch behandelbaren Modellsystem konnte gezeigt werden, daß sich dieses Ergebnis nicht auf endliche Temperaturen verallgemeinern lässt und statt dessen leicht prolate und oblate Vesikelformen gegenüber der Kugelgestalt überwiegen. Dabei ist die Wahrscheinlichkeit für eine prolate Form ein wenig gröoßer als für eine oblate. Diese spontane Asphärizität ist entropischen Ursprungs und tritt nicht bei zweidimensionalen Vesikeln auf. Durch osmotische Drücke in der Vesikel, die größer sind als in der umgebenden Flüssigkeit, lässt sich die Asphärizität reduzieren oder sogar kompensieren. Die Übergänge zwischen den beobachteten prolaten und oblaten Formen erfolgen im Bereich von Millisekunden in Abwesenheit osmotisch aktiver Partikel. Bei Vorhandensein derartiger Partikel ergeben sich Übergangszeiten im Bereich von Sekunden. Im Rahmen der Untersuchung des Adhäsionsverhaltens fluider Vesikeln an planaren, homogenen Substraten konnte mit Hilfe von Monte-Carlo-Simulationen festgestellt werden, dass die Eigenschaften der Kontaktfläche der Vesikeln stark davon abhängen, welche Kräfte den Kontakt bewirken. Für eine dominierende attraktive Wechselwirkung zwischen Substrat und Vesikelmembran sowie im Falle eines Massendichteunterschieds der Flüssigkeiten innerhalb und außerhalb der Vesikel, der die Vesikel auf das Substrat sinken lässt, fndet man innerhalb der Kontakt ache eine ortsunabhangige Verteilung des Abstands zwischen Vesikelmembran und Substrat. Drückt die Vesikel ohne Berücksichtigung osmotischer Effekte auf Grund einer Differenz der Massendichten der Membran und der umgebenden Flüssigkeit gegen das Substrat, so erhält man eine Abstandsverteilung zwischen Vesikelmembran und Substrat, die mit dem Abstand vom Rand der Kontaktfläche variiert. Dieser Effekt ist zudem temperaturabhängig. Ferner wurde die Adhäsion fluider Vesikeln an chemisch strukturierten planaren Substraten untersucht. Durch das Wechselspiel von entropischen Effekten und Konfigurationsenergien entsteht eine komplexe Abhängigkeit der Vesikelform von Biegesteifigkeit, osmotischen Bedingungen und der Geometrie der attraktiven Domänen. Für die Bestimmung der Biegesteifigkeit der Vesikelmembranen liefern die existierenden Verfahren stark voneinander abweichende Ergebnisse. In der vorliegenden Arbeit konnte mittels Monte-Carlo-Simulationen zur Bestimmung der Biegesteifigkeit anhand des Mikropipettenverfahrens von Evans gezeigt werden, dass dieses Verfahren die a priori für die Simulation vorgegebene Biegesteifigkeit im wesentlichen reproduzieren kann. Im Hinblick auf medizinisch-pharmazeutische Anwendungen ist der Durchgang fluider Vesikeln durch enge Poren relevant. In Monte-Carlo-Simulationen konnte gezeigt werden, dass ein spontaner Transport der Vesikel durch ein Konzentrationsgefälle osmotisch aktiver Substanzen, das den physiologischen Bedingungen entspricht, induziert werden kann. Es konnten die hierfür notwendigen osmotischen Bedingungen sowie die charakteristischen Zeitskalen abgeschätzt werden. Im realen Experiment sind Eindringzeiten in eine enge Pore im Bereich weniger Minuten zu erwarten. Ferner konnte beobachtet werden, dass bei Vesikeln mit einer homogenen, positiven spontanen Krümmung Deformationen hin zu prolaten Formen leichter erfolgen als bei Vesikeln ohne spontane Krümmung. Mit diesem Effekt ist eine Verringerung der Energiebarriere für das Eindringen in eine Pore verbunden, deren Radius nur wenig kleiner als der Vesikelradius ist.
Moderne Softwaresysteme sind komplexe Gebilde, welche häufig im Verbund mit anderen technischen und betriebswirtschaftlichen Systemen eingesetzt werden. Für die Hersteller solcher Systeme stellt es oft eine große Herausforderung dar, den oft weit reichenden Anforderungen bezüglich der Anpassbarkeit solcher Systeme gerecht zu werden. Zur Erfüllung dieser Anforderungen hat es sich vielfach bewährt, eine virtuelle Maschine in das betreffende System zu integrieren. Die Dissertation richtet sich insbesondere an Personen, die vor der Aufgabe der Integration virtueller Maschinen in bestehende Systeme stehen und zielt darauf ab, solche für die Entscheidung über Integrationsfragen wichtigen Zusammenhänge klar darzustellen. Typischerweise treten bei der Integration einer virtuellen Maschine in ein System eine Reihe unterschiedlicher Problemstellungen auf. Da diese Problemstellungen oft eng miteinander verzahnt sind, ist eine isolierte Betrachtung meist nicht sinnvoll. Daher werden die Problemstellungen anhand eines zentral gewählten, sehr umfangreichen Beispiels aus der industriellen Praxis eingeführt. Dieses Beispiel hat die Integration der "Java Virtual Machine" in den SAP R/3 Application Server zum Gegenstand. Im Anschluss an dieses Praxisbeispiel wird die Diskussion der Integrationsproblematik unter Bezug auf eine Auswahl weiterer, in der Literatur beschriebener Integrationsbeispiele vertieft. Das Hauptproblem bei der Behandlung der Integrationsproblematik bestand darin, dass die vorgefundenen Beschreibungen, der als Beispiel herangezogenen Systeme, nur bedingt als Basis für die Auseinandersetzung mit der Integrationsproblematik geeignet waren. Zur Schaffung einer verwertbaren Diskussionsgrundlage war es daher erforderlich, eine homogene, durchgängige Modellierung dieser Systeme vorzunehmen. Die Modellierung der Systeme erfolgte dabei unter Verwendung der "Fundamental Modeling Concepts (FMC)". Die erstellten Modelle sowie die auf Basis dieser Modelle durchgeführte Gegenüberstellung der unterschiedlichen Ansätze zur LÖsung typischer Integrationsprobleme bilden den Hauptbeitrag der Dissertation. Im Zusammenhang mit der Integration virtueller Maschinen in bestehende Systeme besteht häufig der Bedarf, zeitgleich mehrere "Programme" durch die integrierte virtuelle Maschine ausführen zu lassen. Angesichts der Konstruktionsmerkmale vieler heute verbreiteter virtueller Maschinen stellt die Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" eine große Herausforderung dar. Die Darstellung des Spektrums an Maßnahmen zur Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" bildet einen zweiten wesentlichen Beitrag der Dissertation.
Polymere sind zweifelsohne der Werkstoff in unserer Zeit. Ein bedeutender Anteil der heute industriell produzierten Polymere wird durch Emulsionspolymerisation hergestellt. Obwohl die Emulsionspolymerisation breite Anwendung findet, sind die involvierten Mechanismen von Teilchenbildung und -wachstum noch heute Gegenstand heftiger Kontroversen. Ein Spezialfall der Emulsionspolymerisation ist die emulgatorfreie Emulsionspolymerisation. Hierbei handelt es sich um ein scheinbar einfacheres System der Emulsionspolymerisation, weil diese Methode ohne Zusatz von Emulgatoren auskommt. Die Teilchenbildung ist ein fundamentaler Vorgang im Verlauf der Emulsionspolymerisation, da sie zur Ausbildung der polymeren Latexphase führt. Detaillierte Kenntnisse zum Mechanismus der Nukleierung ermöglichen eine bessere Kontrolle des Reaktionsverlaufes und damit der Eigenschaften des Endproduktes der Emulsionspolymerisation, dem Polymer-Latex. Wie bereits vorangegangene Arbeiten auf dem Gebiet der emulgatorfreien Emulsionspolymerisation von Styrol sowie Methylmethacrylat und Vinylacetat zeigen konnten, verläuft die Teilchenbildung in diesen Systemen über den Mechanismus der aggregativen Nukleierung. Im Zusammenhang mit den Ergebnissen der genannten Arbeiten tauchte dabei immer wieder ein interessanter Effekt im Bereich der Partikelnukleierung auf. Dieses als JUMBO-Effekt bezeichnete Phänomen zeigte sich reproduzierbar in einem Anstieg der Transmission im Bereich der Teilchenbildung von emulgatorfreien Emulsionspolymerisationen von Styrol, MMA und VAc. Nach der Initiierung der Polymerisation in einer wässrigen Monomerlösung durch Kaliumperoxodisulfat steigt die Durchlässigkeit bei 546 nm auf über 100 % an. Für diese „Abnahme der optischen Dichte“ wurden verschiedene Erklärungsmöglichkeiten vorgeschlagen, jedoch blieb ein Nachweis der Ursache für den JUMBO-Effekt bisher aus. Dieser Mangel an Aufklärung eines offenbar grundlegenden Phänomens in der emulgatorfreien Emulsionspolymerisation bildet den „Nukleus“ für die vorlie¬gende Arbeit. Durch die vorliegende Dissertation konnte das Verständnis für Phänomene der Teilchenbildung in der emulgatorfreien Emulsionspolymerisation von Styrol mit KPS erweitert werden. In diesem Rahmen wurde das Online-Monitoring des Polymerisationsvorganges verbessert und um verschiedene Methoden erweitert: Zur simultanen Erfassung von Trübungsdaten bei verschiedenen Wellenlängen konnte ein modernes Spektrometer in Kombination mit einer Lichtleitersonde in die Reaktionsapparatur integriert werden. Es wurde ein verbesserter Algorithmus zur Datenbearbeitung für die Partikelgrößenbestimmung mittels faseroptischer dynamischer Lichtstreuung entwickelt. Es wurden Online-Partikelgrößenanalysen mittels statischer Vielwinkellichtstreuung bei Polymerisationen direkt in entsprechenden Lichtstreuküvetten durchgeführt. Diese zur Beschreibung des untersuchten Systems eingeführten Methoden sowie ein zeitlich vollständiges Monitoring des gesamten Polymerisationsverlaufes, beginnend mit der Zugabe von Monomer zu Wasser, führten zu neuen Erkenntnissen zur emulgatorfreien Emulsionspolymerisation. Es wurden große Monomeraggregate, die sog. Nanotröpfchen, in wässriger Lösung (emulgatorfrei) nachgewiesen. Diese Aggregate bilden sich spontan und treten verstärkt in entgastem Wasser auf. Die Existenz von Nanotröpfchen in Verbindung mit Trübungs- und gaschromatografischen Messungen lässt auf eine molekular gelöste „Wirkkonzentration“ von Styrol in Wasser schließen, die bedeutend geringer ist als die absolute Sättigungskonzentration. Es konnten Hinweise auf eine Reaktion höherer Ordnung im System Wasser/Styrol/KPS gefunden werden. Es konnte gezeigt werden, dass eine präzise Einstellung der Nukleierungsdauer über die Zeit der Equilibrierung von Wasser mit Styrol möglich ist. Der JUMBO-Effekt, dem in dieser Arbeit ein besonderes Interesse galt, konnte in gewisser Weise entmystifiziert werden. Es konnte gezeigt werden, dass die Durchlässigkeit der Reaktionsmischung bereits beim Lösen von Styrol in Wasser durch Bildung von Styrolaggregaten abnimmt. Der darauf folgende kurzzeitige Transmissionsanstieg im Zusammenhang mit der Nukleierung erreicht dabei nicht mehr 100 % des Referenzwertes von reinem Wasser. Alle experimentellen Daten sprechen für die Nanotröpfchen als Ursache des JUMBO-Effekts. Wie die Ergebnisse dieser Arbeit zeigen, ist selbst das relativ „einfache“ System der emulgatorfreien Emulsionspolymerisation komplizierter als angenommen. Die Existenz von großen Styrolaggregaten in wässriger Lösung erfordert eine neue Betrachtungsweise des Reaktionssystems, in die auch der Lösungszustand des Monomers mit einbezogen werden muss.
Auf der Grundlage psycholinguistischer, deutsch-didaktischer und linguistischer Forschungsergebnisse wurde ein Lesetraining auf Silbenbasis entwickelt, in dem Kindern mit Leseschwierigkeiten explizit Strategien zur visuellen Gliederung von Wörtern in größere funktionale Einheiten (Silben, einzelne Wörter (bei Zusammensetzungen), Präfixe) vermittelt werden. Es wird davon ausgegangen, dass Kinder mit Leseschwierigkeiten Wörter in zu kleinen linguistischen Einheiten erlesen. Das Training basiert linguistisch auf der Schreibsilbe als funktionaler Einheit beim Lesen. Basis des Lesetrainings ist ein von Scheerer-Neumann (1981) durchgeführtes Training zur Verbesserung der Lesegenauigkeit von Grundschulkindern. Die empirische Überprüfung des Lesetrainings hatte zum einen das Ziel, die Wirksamkeit des Trainingsprogramms als solches zu überprüfen und zum anderen, ob das Training zu einer deutlich verbesserten Lesegeschwindigkeit und -genauigkeit bei Grundschulkindern der 3. und 4. Klassen führt. Das Training wurde von der Autorin ohne den Einsatz von Hilfskräften mit einer relativ kleinen Zahl von Kindern (N=11) durchgeführt, um so intensiv auf die Bedürfnisse der einzelnen Kinder eingehen und gegebenenfalls flexibel reagieren zu können. Aus organisatorischen und ethischen Gründen wurde auf eine Kontrollgruppe verzichtet. Die Wirksamkeit des Trainings wurde als Prätest-Training-Posttest-Follow-up Test-Design überprüft. Das Training umfasst 18 Einheiten (je 45 Minuten) und fand zweimal wöchentlich statt. Trainingsgruppen bestanden aus einer Dreiergruppe und einer Zweiergruppe; die anderen sechs Kinder wurden einzeln trainiert. Der Posttest nach Abschluss des Trainings zeigte deutliche Verbesserungen der Lesegeschwindigkeit und -genauigkeit, die zum Teil auch signifikant waren. Der Follow-up Test drei Monate nach Ende des Trainings zeigte weitere Verbesserungen, die ebenfalls zum Teil signifikant waren. Die Befunde sprechen dafür, dass das Trainingsprogramm geeignet ist, die Lesefähigkeit von leseschwachen Grundschulkindern der dritten und vierten Klasse zu verbessern. Die Teilnehmerzahl ist allerdings relativ gering, so dass die Ergebnisse nicht ohne weiteres auf die allgemeine Population von Kindern mit Leseschwierigkeiten übertragen werden können. Eine erneute Durchführung des Trainingsprogramms mit einer größeren Stichprobe und einer parallelisierten Kontrollgruppe, bei der die Kinder der Experimentalgruppe in größeren Gruppen trainiert werden, erscheint deshalb sinnvoll.
Thema dieser Arbeit sind echtzeitfähige 3D-Renderingverfahren, die 3D-Geometrie mit über der Standarddarstellung hinausgehenden Qualitäts- und Gestaltungsmerkmalen rendern können. Beispiele sind Verfahren zur Darstellung von Schatten, Reflexionen oder Transparenz. Mit heutigen computergraphischen Software-Basissystemen ist ihre Integration in 3D-Anwendungssysteme sehr aufwändig: Dies liegt einerseits an der technischen, algorithmischen Komplexität der Einzelverfahren, andererseits an Ressourcenkonflikten und Seiteneffekten bei der Kombination mehrerer Verfahren. Szenengraphsysteme, intendiert als computergraphische Softwareschicht zur Abstraktion von der Graphikhardware, stellen derzeit keine Mechanismen zur Nutzung dieser Renderingverfahren zur Verfügung. Ziel dieser Arbeit ist es, eine Software-Architektur für ein Szenengraphsystem zu konzipieren und umzusetzen, die echtzeitfähige 3D-Renderingverfahren als Komponenten modelliert und es damit erlaubt, diese Verfahren innerhalb des Szenengraphsystems für die Anwendungsentwicklung effektiv zu nutzen. Ein Entwickler, der ein solches Szenengraphsystem nutzt, steuert diese Komponenten durch Elemente in der Szenenbeschreibung an, die die sichtbare Wirkung eines Renderingverfahrens auf die Geometrie in der Szene angeben, aber keine Hinweise auf die algorithmische Implementierung des Verfahrens enthalten. Damit werden Renderingverfahren in 3D-Anwendungssystemen nutzbar, ohne dass ein Entwickler detaillierte Kenntnisse über sie benötigt, so dass der Aufwand für ihre Entwicklung drastisch reduziert wird. Ein besonderer Augenmerk der Arbeit liegt darauf, auf diese Weise auch verschiedene Renderingverfahren in einer Szene kombiniert einsetzen zu können. Hierzu ist eine Unterteilung der Renderingverfahren in mehrere Kategorien erforderlich, die mit Hilfe unterschiedlicher Ansätze ausgewertet werden. Dies erlaubt die Abstimmung verschiedener Komponenten für Renderingverfahren und ihrer verwendeten Ressourcen. Die Zusammenarbeit mehrerer Renderingverfahren hat dort ihre Grenzen, wo die Kombination von Renderingverfahren graphisch nicht sinnvoll ist oder fundamentale technische Beschränkungen der Verfahren eine gleichzeitige Verwendung unmöglich machen. Die in dieser Arbeit vorgestellte Software-Architektur kann diese Grenzen nicht verschieben, aber sie ermöglicht den gleichzeitigen Einsatz vieler Verfahren, bei denen eine Kombination aufgrund der hohen Komplexität der Implementierung bislang nicht erreicht wurde. Das Vermögen zur Zusammenarbeit ist dabei allerdings von der Art eines Einzelverfahrens abhängig: Verfahren zur Darstellung transparenter Geometrie beispielsweise erfordern bei der Kombination mit anderen Verfahren in der Regel vollständig neuentwickelte Renderingverfahren; entsprechende Komponenten für das Szenengraphsystem können daher nur eingeschränkt mit Komponenten für andere Renderingverfahren verwendet werden. Das in dieser Arbeit entwickelte System integriert und kombiniert Verfahren zur Darstellung von Bumpmapping, verschiedene Schatten- und Reflexionsverfahren sowie bildbasiertes CSG-Rendering. Damit stehen wesentliche Renderingverfahren in einem Szenengraphsystem erstmalig komponentenbasiert und auf einem hohen Abstraktionsniveau zur Verfügung. Das System ist trotz des zusätzlichen Verwaltungsaufwandes in der Lage, die Renderingverfahren einzeln und in Kombination grundsätzlich in Echtzeit auszuführen.
The multidrug and toxic compounds extrusion (MATE) family includes hundreds of functionally uncharacterised proteins from bacteria and all eukaryotic kingdoms except the animal kingdom, that function as drug/toxin::Na<sup>+ or H<sup>+ antiporters. In Arabidopsis thaliana the MATE family comprises 56 members, one of which is NIC2 (Novel Ion Carrier 2). Using heterologous expression systems including Escherichia coli and Saccharomyces cerevisiae, and the homologous expression system of Arabidopsis thaliana, the functional characterisation of NIC2 was performed. It has been demonstrated that NIC2 confers resistance of E. coli towards the chemically diverse compounds such as tetraethylammonium chloride (TEACl), tetramethylammonium chloride (TMACl) and a toxic analogue of indole-3-acetic acid, 5-fluoro-indole-acetic acid (F-IAA). Therefore, NIC2 may be able to transport a broad range of drug and toxic compounds. In wild-type yeast the expression of NIC2 increased the tolerance towards lithium and sodium, but not towards potassium and calcium. In A. thaliana, the overexpression of NIC2 led to strong phenotypic changes. Under normal growth condtions overexpression caused an extremely bushy phenotype with no apical dominance but an enhanced number of lateral flowering shoots. The amount of rossette leaves and flowers with accompanying siliques were also much higher than in wild-type plants and the senescence occurred earlier in the transgenic plants. In contrast, RNA interference (RNAi) used to silence NIC2 expression, induced early flower stalk development and flowering compared with wild-type plants. In additon, the main flower stalks were not able to grow vertically, but instead had a strong tendency to bend towards the ground. While NIC2 RNAi seedlings produced many lateral roots outgrowing from the primary root and the root-shoot junction, NIC2 overexpression seedlings displayed longer primary roots that were characterised by a 2 to 4 h delay in the gravitropic response. In addition, these lines exhibited an enhanced resistance to exogenously applied auxins, i.e. indole-3-acetic acid (IAA) and indole-3-butyric acid (IBA) when compared with the wild-type roots. Based on these results, it is suggested that the NIC2 overexpression and NIC2 RNAi phenotypes were due to decreased or increased levels of auxin, respectively. The ProNIC2:GUS fusion gene revealed that NIC2 is expressed in the stele of the elongation zone, in the lateral root cap, in new lateral root primordia, and in pericycle cells of the root system. In the vascular tissue of rosette leaves and inflorescence stems, the expression was observed in the xylem parenchyma cells, while in siliques it was also in vascular tissue, but as well in the dehiscence and abscission zones. The organ- and tissue-specific expression sites of NIC2 correlate with the sites of auxin action in mature Arabidopsis plants. Further experiments using ProNIC2:GUS indicated that NIC2 is an auxin-inducible gene. Additionally, during the gravitropic response when an endogenous auxin gradient across the root tip forms, the GUS activity pattern of the ProNIC2:GUS fusion gene markedly changed at the upper side of the root tip, while at the lower side stayed unchanged. Finally, at the subcellular level NIC2-GFP fusion protein localised in the peroxisomes of Nicotana tabacum BY2 protoplasts. Considering the experimental results, it is proposed that the hypothetical function of NIC2 is the efflux transport which takes part in the auxin homeostasis in plant tissues probably by removing auxin conjugates from the cytoplasm into peroxisomes.
During this PhD project three technical platforms were either improved or newly established in order to identify interesting genes involved in SNF, validate their expression and functionally characterise them. An existing 5.6K cDNA array (Colebatch et al., 2004) was extended to produce the 9.6K LjNEST array, while a second array, the 11.6K LjKDRI array, was also produced. Furthermore, the protocol for array hybridisation was substantially improved (Ott et al., in press). After functional classification of all clones according to the MIPS database and annotation of their corresponding tentative consensus sequence (TIGR) these cDNA arrays were used by several international collaborators and by our group (Krusell et al., 2005; in press). To confirm results obtained from the cDNA array analysis different sets of cDNA pools were generated that facilitate rapid qRT-PCR analysis of candidate gene expression. As stable transformation of Lotus japonicus takes several months, an Agrobacterium rhizogenes transformation system was established in the lab and growth conditions for screening transformants for symbiotic phenotypes were improved. These platforms enable us to identify genes, validate their expression and functionally characterise them in the minimum of time. The resources that I helped to establish, were used in collaboration with other people to characterise several genes like the potassium transporter LjKup and the sulphate transporter LjSst1, that were transcriptionally induced in nodules compared to uninfected roots, in more detail (Desbrosses et al., 2004; Krusell et al., 2005). Another gene that was studied in detail was LjAox1. This gene was identified during cDNA array experiments and detailed expression analysis revealed a strong and early induction of the gene during nodulation with high expression in young nodules which declines with the age of the nodule. Therefore, LjAox1 is an early nodulin. Promoter:gus fusions revealed an LjAox1 expression around the nodule endodermis. The physiological role of LjAox1 is currently being persued via RNAi. Using RNA interference, the synthesis of all symbiotic leghemoglobins was silenced simultaneously in Lotus japonicus. As a result, growth of LbRNAi lines was severely inhibited compared to wild-type plants when plants were grown under symbiotic conditions in the absence of mineral nitrogen. The nodules of these plants were arrested in growth 14 post inoculation and lacked the characteristic pinkish colour. Growing these transgenic plants in conditions where reduced nitrogen is available for the plant led to normal plant growth and development. This demonstrates that leghemoglobins are not required for plant development per se, and proves for the first time that leghemoglobins are indispensable for symbiotic nitrogen fixation. Absence of leghemoglobins in LbRNAi nodules led to significant increases in free-oxygen concentrations throughout the nodules, a decrease in energy status as reflected by the ATP/ADP ratio, and an absence of the bacterial nitrogenase protein. The bacterial population within nodules of LbRNAi plants was slightly reduced. Alterations of plant nitrogen and carbon metabolism in LbRNAi nodules was reflected in changes in amino acid composition and starch deposition (Ott et al., 2005). These data provide strong evidence that nodule leghemoglobins function as oxygen transporters that facilitate high flux rates of oxygen to the sites of respiration at low free oxygen concentrations within the infected cells.
Arabidopsis thaliana trichomes exhibit strong birefringence under polarized light, a characteristic of cell walls containing large amounts of highly ordered cellulose microfibrils. The tbr1 mutant of Arabidopsis lacks trichome birefringence and is deficient in secondary cell wall cellulose synthesis (Potikha and Delmer, 1995). The TBR gene was identified by recombinational mapping, candidate gene sequencing and molecular complementation using genomic cosmid clones, as well as a p35S:TBR genomic DNA construct, fully rescuing the mutant phenotype in both cases. The only mutant allele available (tbr-1) carries a substitution (G to E) in a conserved aminoacid domain of the protein. TBR gene structure was proved to have a longer size than the one found to be annotated at the time of identification in the data-base. A full cDNA clone containing the full transcript was available and also complementation experiments using different gene fragments (annotated and suggested) leaded to the result that TBR gene is indeed, longer. TBR encodes a novel plant-specific protein with predicted plasma membrane localization, therefore being consistent with idea that is required for-, or is a novel component of a functional cellulose synthase complex. TBR is part of an Arabidopsis gene/protein family, (TBL-trichome birefringence like) which, depending on homology, comprises up to 20 members, none of which has a biological or biochemical function attributed. T-DNA insertion lines in TBR gene and two close homologues have been screened by PCR, but no homozygous were found and no trichomes phenotype was identified. Promoter-GUS lines were produced for TBR, as well as for its two closest homologues (one being a segmentally duplicated gene on chromosome III), using 1.6-2 kb of promoter sequence upstream of the annotated start codons. The TBR promoter was the only one of the three that yielded trichome expression, this probably explaining the phenotype of the TBR mutant. Moreover, TBR is expressed in leaves, in growing lateral roots, and in vascular tissues of young Arabidopsis seedlings and plantlets. Later on, the expression appears in inflorescens, stems, flowers and green siliques. This expression pattern is largely overlapping with those of the two analyzed homologues and it corresponds with data of RT-PCR expression profiling performed for TBR and the two analyzed homologues in different tissues, at different developmental stages. Biochemical analysis of cell wall (leaves and trichomes), as GC and MALDI-TOF, were performed, but revealed no major differences between tbr1 and wild type plants. Scanning electron microscopy analysis and cell wall polysaccharides antibody labeling showed a clear difference in the trichomes cell wall structure between mutant plant and wild type.
Durch die anthropogene Nutzung sind viele Auen in Mitteleuropa verändert worden, wobei insbesondere die Retentionsflächen stark verringert wurden. Während Auen seit längerem im Fokus der wissenschaftlichen Bearbeitung stehen, gibt es bisher große Wissensdefizite in der Frage der Auenreaktivierungen. Zum einen sind derartige Projekte bisher kaum verwirklicht und zum anderen ist ein langfristiges Monitoring notwendig, um die Anpassung von Biozönosen an die veränderten Standortbedingungen beobachten zu können. Um die Folgen derartiger Eingriffe zu analysieren, bieten sich computergestützte Modellierungen der Landschaftsentwicklung an, wie sie in der vorliegenden Arbeit verwirklicht wurden. Ziel der Arbeit war, mit Hilfe eines Geografischen Informationssystems (GIS) das Entwicklungspotenzial der Landschaft bei verschiedenen Rückdeichungsvarianten auf der Ebene der Biotoptypen darzustellen. Dabei ging es nicht um die Erstellung eines allgemein gültigen Auenmodells sondern um die Erarbeitung eines Modells für einen konkreten Anwendungsfall. Der erarbeitete Ansatz sollte zudem für die landschaftsplanerische Praxis geeignet sein. Als Beispielgebiete wurden Flächen an der Mittleren Elbe bei Rogätz und Sandau, beide im nördlichen Teil von Sachsen-Anhalt, ausgewählt. Die vorliegende Arbeit gliedert sich in zwei Teile. Im ersten Teil werden Erhebungen und Auswertungen als Grundlage der Modellentwicklung dargestellt. Dazu wurden die Biotoptypen der Beispielgebiete flächendeckend erhoben und mit punktuellen Vegetationserhebungen ergänzt. Aus dem Forschungsprojekt "Rückgewinnung von Retentionsflächen und Altauenreaktivierung an der Mittleren Elbe in Sachsen-Anhalt" des Bundesministeriums für Bildung und Forschung (BMBF) standen standortökologische Daten der Hydrologie und Bodenkunde zur Verfügung. Ziel der Auswertung war, Schlüsselfaktoren für Hydrologie und Bodenbedingungen innerhalb der rezenten Aue zu identifizieren, die zur Ausprägung bestimmter Biotoptypen führen. Im zweiten Teil der Arbeit wurde ein Modell für Biotoptypenpotenziale auf den geplanten Rück–deichungsflächen entwickelt. Das Modell bearbeitet die Datenbank der verwendeten GIS-Dateien, die auf Daten zum Bestand beruht und um solche der Prognose der Standortökologie (Hydrologie und Boden) im Rückdeichungsfalle aus dem BMBF-Projekt erweitert wurde. Weitere Voraussetzung für die Modellierung war die Erarbeitung von Leitbildern, in denen unterschiedliche Nutzungsszenarios für die Landschaft nach Deichrückverlegung hypothetisch festgelegt wurden. Insbesondere die Nutzungsintensität wurde variiert, von einer Variante intensiver land- und forstwirtschaftlicher Nutzung über sogenannte integrierte Entwicklungsziele aus dem BMBF-Projekt bis hin zu einer Variante der Naturschutznutzung. Zusätzlich wurde eine zukünftige Potentielle Natürliche Vegetation modelliert. Eine Überprüfung des Modell fand für den Raum der rezenten Aue in der intensiven Nutzungsvariante statt, die der gegenwärtigen Nutzung am nächsten kommt. Werden Informationen des Bestandsbiotoptyps als Korrekturgröße in das Modell einbezogen, konnte für viele Biotoptypen eine Trefferquote von über 90 % erreicht werden. Bei flächenmäßig weniger bedeutenden Bio–toptypen lag dieser Wert aufgrund der schmaleren Datenbasis zwischen 20 und 40 %. Als Ergebnis liegt für unterschiedliche Deichvarianten und Leitbilder in den Beispielgebieten die Landschaftsentwicklung als Biotoppotenzial vor. Als eine vereinfachte Regionalisierung der punktuellen Vegetationsdaten wurde im Modell geprüft, inwieweit die modellierten Biotopflächen der Charakteristik der pflanzensoziologischen Aufnahmen aus der rezenten Aue entsprechen. In dem Falle wurde die Pflanzengesellschaft der jeweiligen ökologisch im Rahmen der Untersuchung einheitlichen Flächeneinheit zugeordnet. Anteilig lässt sich damit die Biotopprognosefläche pflanzensoziologisch konkretisieren. Die vorliegende Arbeit gehört zu den bisher wenigen Arbeiten, die sich mit den Folgen von Auenreaktivierung auf die Entwicklung der Landschaft auseinandersetzen. Sie zeigt eine Möglichkeit auf, Prognosemodelle für Biotoptypen und Vegetation anhand begrenzter Felduntersuchungen zu entwerfen. Derartige Modelle können zum Verständnis von Eingriffen in den Naturhaushalt, wie sie die Deichrückverlegungen darstellen, beitragen und eine Folgenabschätzung unterstützen.
In einer Zeit, in der eine Zunahme von ernährungsbedingten Erkrankungen in steigendem Maße zu beobachten ist, wird dem Getreide als Grundlage der menschlichen Ernährung erhöhte Aufmerksamkeit gewidmet. Ein hoher Verzehr von Ballaststoffen ist ein wesentlicher Aspekt in der präventiv-medizinischen Ernährung. Die von der Deutschen Gesellschaft für Ernährung vorgeschlagene tägliche Ballaststoffzufuhr liegt bei 30 g. Die Aufnahme von Ballaststoffen ist jedoch in Deutschland deutlich unterhalb dieser empfohlenen Menge. Getreideprodukte, besonders vom Vollkorntyp, sind die wichtigste Quelle für Ballaststoffe. Deshalb sollten im Rahmen dieser Arbeit direkt verzehrsfähige, Ballaststoff-angereicherte Haferprodukte (vorwiegend Extrudate) mit hohen Gehalten an b-Glucanen und resistenter Stärke hergestellt, analysiert und nachfolgend auf relevante ernährungsphysiologische Wirkungen geprüft werden. Als Basis für die Produkte wurden Hafermehl und Haferkleie eingesetzt. Der erste Teil der Arbeit beschäftigte sich mit der Analyse der Haferprodukte. Diese wiesen eine hohe Wasserbindungskapazität auf. Bei den Untersuchungen am Tiermodell wurde gezeigt, dass im Dünndarm eine größere Menge an Wasser durch die Haferprodukte gebunden wurde, was zu einem höheren Feuchtigkeitsanteil der gastrointestinalen Inhalte der Tiere führte, die ballaststoffreiches Futter erhielten. Trotz der hydrothermischen Behandlung während der Extrusion wurden Produkte gewonnen, deren β-Glucane im hochmolekularen Zustand erhalten blieben und somit eine hohe Viskosität in wässrigen Lösungen beibehielten. In rheologischen Untersuchungen wurde bestätigt, dass die aus Haferprodukten isolierten β-Glucane ein pseudoplastisches Fließverhalten besitzen. Demgegenüber führte ein Autoklavieren der Produkte zu einer starken Depolymerisation der b-Glucane, was sich in einer Änderung der funktionellen Eigenschaften der b-Glucane widerspiegelte. Im Mittelpunkt der Untersuchungen standen ernährungsphysiologische In-vitro- und In-vivo-Experimente mit Extrudaten und Proben auf der Basis von Hafer, die einen erhöhten Anteil an Ballaststoffen, speziell an b-Glucan und an resistenter Stärke, besaßen und die direkt verzehrbar sind. Diese Haferprodukte zeigten eine Reihe von ernährungsphysiologisch vorteilhaften und protektiven Wirkungen in In-vitro-Experimenten. So traten sie mit Gallensäuren unter den Bedingungen des Dünndarms in Wechselwirkung und waren gut mit Faecesflora vom Menschen fermentierbar. Die In-vitro-Verdauung von Maisstärke durch Pankreatin, wurde durch die ballaststoffreichen Haferprodukte partiell gehemmt. Dieser Befund lässt eine Abschwächung des postprandialen Glukoseanstieges erwarten. In einem sechswöchigen Fütterungsversuch erhielten Ratten Diäten, die zu 50 % aus ballaststoffreichen Haferprodukten bestanden. Diese Haferprodukte bewirkten einen erhöhten Transport von Gallensäuren und neutralen Sterolen in den unteren Intestinaltrakt sowie deren verstärkte Ausscheidung. Durch den Verzehr der ballaststoffreichen Haferprodukte kam es zu Veränderungen in der Mikroflora, wobei sich besonders die coliformen Keime verminderten und die Keimzahlen der Lactobacillen sowie die Bifidobakterien erhöhten. Die Fermentation der Ballaststoffe führte zur erhöhten Bildung von kurzkettigen Fettsäuren einschließlich von Butyrat. Die Bildung der kurzkettigen Fettsäuren geht mit einer pH-Wert-Absenkung im Caecum und Colon einher, die wiederum für eine geringere Bildung von sekundären Gallensäuren verantwortlich ist. Die Ergebnisse des Fütterungsversuchs an Ratten wurden prinzipiell durch eine vierwöchige Pilotstudie am Menschen, in der Probanden täglich 100 g Haferextrudat erhielten, bestätigt. Das Extrudat wurde von den Probanden gut akzeptiert. In der 4. Woche wurden eine geringe Abnahme der Cholesterolfraktionen im Serum, höhere Keimzahlen für Lactobacillen, Bifidobacterien und Bacteroides, geringere pH-Werte und Trockenmassegehalte in den Faeces, eine Zunahme der individuellen und Gesamt-SCFA sowie des Butyratanteils in den Faeces, eine erhöhte Ausscheidung an Steroiden, eine Zunahme der primären Gallensäuren und eine Abnahme des prozentualen Anteils an sekundären Gallensäuren sowie der Cholesterol-Metaboliten gefunden. Diese Parameter gingen 2 Wochen nach Beendigung der Intervention mit dem Haferextrudat wieder in Richtung der Ausgangswerte (0. Woche) zurück. Die untersuchten Haferprodukte erwiesen sich als gut fermentierbare Substrate für die intestinale Mikroflora und können deshalb als ein Präbiotikum mit Ballaststoffcharakter eingeschätzt werden. Diese Produkte, die mit einem erhöhten Anteil an resistenter Stärke und wertvollen Haferballaststoffen hergestellt wurden, können dazu beitragen, die Ballaststofflücke in unserer Ernährung zu schließen und positive ernährungsphysiologische Effekte zu bewirken.
Der Adhäsionsprozess an Cellulosefasern sollte bis hin zur molekularen Ebene aufgeklärt werden. Zuerst wurde eine definierte Celluloseoberfläche durch Aufschleudern hergestellt und eingehend charakterisiert wurde. Die Beschaffenheit der Oberfläche ist stark abhängig von der Konzentration Celluloselösung, die für das Aufschleudern benutzt wurde. Für geringe Konzentrationen bildete sich ein Netzwerk von Cellulosefibrillen über die Siliziumoberfläche aus. In einem mittleren Bereich wurden geschlossene Filme mit Dicken zwischen 1,5 und ca. 10 nm erhalten. Diese Filme wiesen eine Rauhigkeit unter 2 nm auf, was der Größe eines Cellulosemoleküls entspräche. Mit höheren Konzentrationen wurden die Filme dicker und auch rauer. Die molekular glatten Cellulosefilme wurden zur Untersuchung der Adhäsionseigenschaften zwischen Celluloseoberflächen und ihrer Modifikation durch den Einfluss von Haftvermittlern (Polyelektrolyte) eingesetzt. Dafür wurde das Haftungsvermögen von Celluloseperlen auf der glatten Celluloseoberfläche analysiert. Die Adhäsion der Celluloseperlen hängt dabei von der Menge und von der Art des adsorbierten Polyelektrolyts ab. Geringe Polyelektrolytkonzentrationen ermöglichen wegen der teilweisen Bedeckung der Celluloseoberflächen eine Verstärkung der Haftvermittlung (Adhäsion). Höhere Konzentrationen an Polyelektrolyten bedecken die Celluloseoberfläche komplett, so dass die Symmetrie der Polyelektrolytadsorption entscheidend wird. Wenn Celluloseperlen und glatte Celluloseoberfläche gleichzeitig mit Polyelektrolyten beschichtet werden verringert sich bei hohen Konzentrationen die Adhäsion erheblich. Ein hohes Maß an Adhäsion wird dagegen erreicht, wenn nur eine der beiden gegenüberliegende Celluloseoberflächen separat beschichtet und dann in Kontakt mit der anderen gebracht Oberfläche wurde. Der Einfluss einer äußeren Kraft auf die haftenden Celluloseperlen wurde untersucht, um eine Aussage über die auftretenden Adhäsionskräfte machen zu können. Dafür wurde eine spezielle Strömungszelle entwickelt, mit der die Bewegung von Celluloseperlen beobachtet werden kann. Je nach Ausrichtung der Strömungszelle bewegten sich die Celluloseperlen unterschiedlich schnell. War die Strömungszelle horizontal ausgerichtet, wirkte zusätzlich zur Adhäsionskraft noch die Gravitation auf die Oberfläche, so dass hier eine wesentlich langsamere Durchschnittsgeschwindigkeit ermittelt wurde als für die Messungen in vertikaler Ausrichtung. Die Zugabe von verschiedenen Polyelektrolyten bei den Messungen mit der Strömungszelle hatte einen erheblichen Einfluss auf die Beweglichkeit der haftenden Celluloseperlen. Bei geringen Polyelektrolytkonzentrationen wurde das Potential der einzelnen Polyelektrolyten zur effektiven Haftvermittlung durch eine signifikant geringere Durchschnittsgeschwindigkeit der rollenden Celluloseperlen sichtbar. Aus der kritischen Anfangsgeschwindigkeit der rollenden Celluloseperlen wurde die Adhäsionsarbeit errechnet, die für die Bewegung nötig ist.
Die Entwicklung von Dickdarmkrebs wird durch eine Reihe von Lebens- und Essgewohnheiten sowie Umweltfaktoren begünstigt. Den letzteren beiden sind Substanzen zuzurechnen, die bei der Zubereitung der Nahrung entstehen und mit ihr aufgenommen werden. Zu diesen Verbindungen gehört das 2-Amino-1-methyl-6-phenylimidazo[4,5-b]pyridin (PhIP) aus der Substanzklasse der heterozyklischen aromatischen Amine. Es entsteht bei der Erhitzung zahlreicher proteinhaltiger Nahrungsmittel und die Zielorgane in Nagerstudien stimmen mit der Häufung von Krebsinzidenzen in westlichen Industrienationen überein. Dieser Zusammenhang konnte jedoch bis heute nicht endgültig bewiesen werden. Fütterungsversuche mit Ratten wurden mit Konzentrationen der Substanz durchgeführt, die weit über der menschlichen Exposition liegen. Durch das Verfüttern einer humanrelevanten Dosis PhIP sollte geklärt werden, ob auch geringe Konzentrationen dickdarmkrebstypische Mutationen, präneoplastische Läsionen oder Tumore induzierten. Die mit humanrelevanten Dosen gefütterten Tiere wiesen weniger Läsionen als die Hoch-Dosis-PhIP-Gruppe auf, in der allerdings keinerlei maligne Tumoren des Dickdarms auftraten. Hinweise auf dickdarmkrebstypische Mutationen fanden sich ebenfalls in beiden Gruppen, wobei hier keine Dosisabhängigkeit beobachtet werden konnte. Die Sequenzierung ergab ein deutlich von Literaturdaten abweichendes Spektrum. In Bezug auf das verwendete Tiermodell wurden erhebliche Abweichungen in der Empfindlichkeit der Tiere gegenüber der Substanz im Vergleich zu ähnlichen Studien festgestellt. Beide Fütterungsgruppen zeigten deutlich weniger Läsionen; als mögliche Gründe wurden Unterschiede in der Futterzusammensetzung und –zubereitung sowie in der Tierhaltung und –herkunft ausgemacht. Es konnte erstmalig ein Zusammenhang zwischen PhIP in niedrigen Dosen in der Nahrung und der Induktion von Entzündungen gezeigt werden. Diese waren sowohl makroskopisch als auch histologisch sichtbar, der genaue Mechanismus ihrer Entstehung ist jedoch unbekannt. Die zusammenfassende Betrachtung aller Ergebnisse lässt vermuten, dass PhIP allein über lange Zeiträume aber in geringen Dosen verabreicht nicht für die hohe Zahl an Krebserkrankungen in westlichen Industrienationen ursächlich ist.
The major aim of this work was the identification of new phloem sap proteins and a metabolic characterisation of this transport fluid. The experiments were performed on the three plant species C. sativus, C. maxima and B. napus. To characterise the phloem samples from B. napus, a new model plant for phloem analysis, western blot tests together with metabolite profiling were performed. GC-MS metabolite profiling and enzyme assays were used for measuring metabolites in the phloem of B. napus. Results from the phloem sap measurements showed, as expected, a typical sugar distribution for apoplasmic phloem loaders with sucrose being the predominant sugar. In stem extracts, the most abundant sugar was glucose with much lower fructose and sucrose levels. With the GC-MS approach it was possible to identify a number of metabolites which showed a differential distribution when phloem and stem tissue extracts were compared. For protein identification, two different approaches were employed (i) screening expression libraries with total phloem protein specific antisera and (ii) protein separation on 2 DE gels followed by ESI-MS/MS sequence analyses. For the first approach, three different phloem protein-specific antisera were produced and expression libraries were constructed. Phloem protein antisera were tested for specificity and some attempts to estimate specific epitopes were undertaken. Screening of the libraries resulted in the identification of 14 different proteins from all investigated species. Analyses of B. napus phloem sap proteins from 2 DE with ESI-MS/MS resulted in the identification of 5 different proteins. The phloem localisation of the identified proteins was additionally confirmed by western blot tests using specific antibodies. In order to functionally characterise some selected phloem proteins from B. napus, the group of potential calcium-binding polypeptides was analysed for functional Ca<sup>+2 binding properties and several Ca<sup>+2–binding proteins could be isolated. However, their sequences could as yet not be determined. Another approach used for functional protein characterisation was the analysis of Arabidopsis T-DNA insertion mutants. Four available mutants with insertions in phloem protein-specific genes were chosen from the SALK and GABI-Kat collections and selected homozygous lines were tested for the presence of the investigated proteins. In order to verify if the product of one of the mutated gene (GRP 7) is transported through the phloem, grafting experiments were performed followed by western blot analyses. Although the employed antiserum against GRP 7 protein did not allow distinguishing between the mutant and the wild type plants, successful Arabidopsis grafting could be established as a promising method for further studies on protein translocation through the phloem.
We present an application of imprecise probability theory to the quantification of uncertainty in the integrated assessment of climate change. Our work is motivated by the fact that uncertainty about climate change is pervasive, and therefore requires a thorough treatment in the integrated assessment process. Classical probability theory faces some severe difficulties in this respect, since it cannot capture very poor states of information in a satisfactory manner. A more general framework is provided by imprecise probability theory, which offers a similarly firm evidential and behavioural foundation, while at the same time allowing to capture more diverse states of information. An imprecise probability describes the information in terms of lower and upper bounds on probability. For the purpose of our imprecise probability analysis, we construct a diffusion ocean energy balance climate model that parameterises the global mean temperature response to secular trends in the radiative forcing in terms of climate sensitivity and effective vertical ocean heat diffusivity. We compare the model behaviour to the 20th century temperature record in order to derive a likelihood function for these two parameters and the forcing strength of anthropogenic sulphate aerosols. Results show a strong positive correlation between climate sensitivity and ocean heat diffusivity, and between climate sensitivity and absolute strength of the sulphate forcing. We identify two suitable imprecise probability classes for an efficient representation of the uncertainty about the climate model parameters and provide an algorithm to construct a belief function for the prior parameter uncertainty from a set of probability constraints that can be deduced from the literature or observational data. For the purpose of updating the prior with the likelihood function, we establish a methodological framework that allows us to perform the updating procedure efficiently for two different updating rules: Dempster's rule of conditioning and the Generalised Bayes' rule. Dempster's rule yields a posterior belief function in good qualitative agreement with previous studies that tried to constrain climate sensitivity and sulphate aerosol cooling. In contrast, we are not able to produce meaningful imprecise posterior probability bounds from the application of the Generalised Bayes' Rule. We can attribute this result mainly to our choice of representing the prior uncertainty by a belief function. We project the Dempster-updated belief function for the climate model parameters onto estimates of future global mean temperature change under several emissions scenarios for the 21st century, and several long-term stabilisation policies. Within the limitations of our analysis we find that it requires a stringent stabilisation level of around 450 ppm carbon dioxide equivalent concentration to obtain a non-negligible lower probability of limiting the warming to 2 degrees Celsius. We discuss several frameworks of decision-making under ambiguity and show that they can lead to a variety of, possibly imprecise, climate policy recommendations. We find, however, that poor states of information do not necessarily impede a useful policy advice. We conclude that imprecise probabilities constitute indeed a promising candidate for the adequate treatment of uncertainty in the integrated assessment of climate change. We have constructed prior belief functions that allow much weaker assumptions on the prior state of information than a prior probability would require and, nevertheless, can be propagated through the entire assessment process. As a caveat, the updating issue needs further investigation. Belief functions constitute only a sensible choice for the prior uncertainty representation if more restrictive updating rules than the Generalised Bayes'Rule are available.
In an experimental study the attempt was made to examine the effects of the Reciprocal Teaching method on measures of metacognition and try to identify the effective features of this method that are necessary for the learning gains to occur. Reciprocal Teaching, originally developed by Palincsar and Brown (1984), is a very successful training program which was designed to improve student's reading comprehension skills by teaching them reading strategies. In the present study the tasks and responsibilities assumed by 5thgrade elementary students (N = 55) participating in a 16-session reading strategy training were varied systematically. Not only the students who participated in the training program in one of the three experimental conditions were compared with respect to knowledge and performance measures, but there was also a comparison to their control classmates who did not participate in strategy training (N = 86). Detailed analyses of video-taped sessions provided additional information. The strategy training was most beneficial for measures of knowledge and performance more closely related to the content of the training program, namely knowledge about specific reading strategies taught in training and application of those strategies. No significant effects were observed for more distal measures (general strategy knowledge, reading comprehension). As for the features of the program, it could be shown that students of the two experimental conditions where the students were responsible for giving each other feedback on performance (with respect to both content and strategy application) and guiding the correction of the answer outperformed both the experimental condition in which the trainer was responsible for those tasks and the control group. It is concluded that it is not merely the application of strategies, but the combination of strategy application with concurrent teaching and learning of metacognitive acquisition procedures (analysis, monitoring, evaluation, and regulation) in an inter-individual way as the precedent of these processes occurring intra-individually that seems to be an efficient way of acquiring metacognitive knowledge and skills. It was also shown that strategy training does not necessarily have to include the precise kind of interaction that characterizes the Reciprocal Teaching method. Instead, the tasks of monitoring, evaluating, and regulating other children's learning processes - i.e., tasks associated with the "teacher role" - are the ones that promote the acquisition of metacognitive knowledge and skills. Generally, any strategy training program that not only provides children with plentiful opportunities for practice, but also prompts them to engage in these kinds of metacognitive processes, may help children to acquire metacognitive knowledge and skills.
In silico identification of genes regulated by abscisic acid in Arabidopsis thaliana (L.) Heynh.
(2005)
Abscisic acid (ABA) is a major plant hormone that plays an important role during plant growth and development. During vegetative growth ABA mediates (in part) responses to various environmental stresses such as cold, drought and high salinity. The response triggered by ABA includes changes in the transcript level of genes involved in stress tolerance. The aim of this project was the In silico identification of genes putatively regulated by ABA in A. thaliana. In silico predictions were combined with experimental data in order to evaluate the reliability of computational predictions. Taking advantage of the genome sequence of A. thaliana publicly available since 2000, 1 kb upstream sequences were screened for combinations of cis-elements known to be involved in the regulation of ABA-responsive genes. It was found that around 10 to 20 percent of the genes of A. thaliana might be regulated by ABA. Further analyses of the predictions revealed that certain combinations of cis-elements that confer ABA-responsiveness were significantly over-represented compared with results in random sequences and with random expectations. In addition, it was observed that other combinations that confer ABA-responsiveness in monocotyledonous species might not be functional in A. thaliana. It is proposed that ABA-responsive genes in A. thaliana show pairs of ABRE (abscisic acid responsive element) with MYB binding sites, DRE (dehydration responsive element) or with itself. The analysis of the distances between pairs of cis-elements suggested that pairs of ABREs are bound by homodimers of ABRE binding proteins. In contrast, pairs between MYB binding sites and ABRE, or DRE and ABRE showed a distance between cis-elements that suggested that the binding proteins interact through protein complexes and not directly. The comparison of computational predictions with experimental data confirmed that the regulatory mechanisms leading to the induction or repression of genes by ABA is very incompletely understood. It became evident that besides the cis-elements proposed in this study to be present in ABA-responsive genes, other known and unknown cis-elements might play an important role in the transcriptional regulation of ABA-responsive genes. For example, auxin-related cis elements, or the cis-elements recognized by the NAM-family of transcription factors (Non-Apical meristem). This work documents the use of computational and experimental approaches to analyse possible interactions between cis-elements involved in the regulation of ABA-responsive genes. The computational predictions allowed the distinction between putatively relevant combinations of cis-elements from irrelevant combinations of cis-elements in ABA-responsive genes. The comparison with experimental data allowed to identify certain cis-elements that have not been previously associated to the ABA-mediated transcriptional regulation, but that might be present in ABA-responsive genes (e.g. auxin responsive elements). Moreover, the efforts to unravel the gene regulatory network associated with the ABA-signalling pathway revealed that NAM-transcription factors and their corresponding binding sequences are important components of this network.
The scope of this study is to investigate the environmental change in the German part of the Elbe river basin, whereby the focus is on two water related problems: having too little water and having water of poor quality. The Elbe region is representative of humid to semi-humid landscapes in central Europe, where water availability during the summer season is the limiting factor for plant growth and crop yields, especially in the loess areas, where the annual precipitation is lower than 500 mm. It is most likely that water quantity problems will accelerate in future, because both the observed and the projected climate trend show an increase in temperature and a decrease in annual precipitation, especially in the summer. Another problem is nutrient pollution of rivers and lakes. In the early 1990s, the Elbe was one of the most heavily polluted rivers in Europe. Even though nutrient emissions from point sources have notably decreased in the basin due to reduction of industrial sources and introduction of new and improved sewage treatment facilities, the diffuse sources of pollution are still not sufficiently controlled. The investigations have been done using the eco-hydrological model SWIM (Soil and Water Integrated Model), which has been embedded in a model framework of climate and agro-economic models. A global scenario of climate and agro-economic change has been regionalized to generate transient climate forcing data and land use boundary conditions for the model. The model was used to transform the climate and land use changes into altered evapotranspiration, groundwater recharge, crop yields and river discharge, and to investigate the development of water quality in the river basin. Particular emphasis was given to assessing the significance of the impacts on the hydrology, taking into account in the analysis the inherent uncertainty of the regional climate change as well as the uncertainty in the results of the model. The average trend of the regional climate change scenario indicates a decrease in mean annual precipitation up to 2055 of about 1.5 %, but with high uncertainty (covering the range from -15.3 % to +14.8 %), and a less uncertain increase in temperature of approximately 1.4 K. The relatively small change in precipitation in conjunction with the change in temperature leads to severe impacts on groundwater recharge and river flow. Increasing temperature induces longer vegetation periods, and the seasonality of the flow regime changes towards longer low flow spells in summer. As a results the water availability will decrease on average of the scenario simulations by approximately 15 %. The increase in temperatures will improve the growth conditions for temperature limited crops like maize. The uncertainty of the climate trend is particularly high in regions where the change is the highest. The simulation results for the Nuthe subbasin of the Elbe indicate that retention processes in groundwater, wetlands and riparian zones have a high potential to reduce the nitrate concentrations of rivers and lakes in the basin, because they are located at the interface between catchment area and surface water bodies, where they are controlling the diffuse nutrient inputs. The relatively high retention of nitrate in the Nuthe basin is due to the long residence time of water in the subsurface (about 40 years), with good conditions for denitrification, and due to nitrate retention and plant uptake in wetlands and riparian zones. The concluding result of the study is that the natural environment and communities in parts of Central Europe will have considerably lower water resources under scenario conditions. The water quality will improve, but due to the long residence time of water and nutrients in the subsurface, this improvement will be slower in areas where the conditions for nutrient turn-over in the subsurface are poor.
Durch die Stilllegung der Kali-Gewinnung und -Produktion zwischen 1990 und 1993 sowie die begonnene Rekultivierung der Kali-Rückstandshalden haben sich die Salzfrachteintragsbedingungen für die Fließgwewässer im "Südharz-Kalirevier" in Thüringen zum Teil deutlich verändert. Aufgrund erheblich geringerer Salzeinträge in die Vorfluter Wipper und Bode ist es möglich geworden, zu einer ökologisch verträglichen Salzfrachtsteuerung überzugehen. Die Komplexität der zugrunde liegenden Stofftransportprozesse im Einzugsgebiet der Wipper macht es jedoch unumgänglich, den Steuerungsvorgang nicht nur durch reine Bilanzierungsvorgänge auf der betrachteten Steuerstrecke zu erfassen (so wie bisher praktiziert), sondern auch die Abflussdynamik im Fließgewässer und den Wasserhaushalt im Gebiet mit einzubeziehen. Die Ergebnisse dieser Arbeit dienen zum einen einer Vertiefung der Prozessverständnisse und der Interaktion von Wasserhaushalt, Abflussbildung sowie Stofftransport in bergbaubeeinflussten Einzugsgebieten am Beispiel der Unstrut bzw. ihrer relevanten Nebenflüsse. Zum anderen sollen sie zur Analyse und Bewertung eines Bewirtschaftungsplanes für die genannten Fließgewässer herangezogen werden können. Ziel dieser Arbeit ist die Erstellung eines prognosetauglichen Steuerungsinstrumentes, das für die Bewirtschaftung von Flusseinzugsgebieten unterschiedlicher Größe genutzt und unter den Rahmenbedingungen der bergbaubedingten salinaren Einträge effektiv zur Steuerung der anthropogenen Frachten eingesetzt werden kann. Die Quellen der anthropogen eingeleiteten Salzfracht sind vor allem die Rückstandshalden der stillgelegten Kaliwerke. Durch Niederschläge entstehen salzhaltige Haldenabwässer, die zum Teil ungesteuert über oberflächennahe Ausbreitungsvorgänge direkt in die Vorfluter gelangen, ein anderer Teil wird über die Speichereinrichtungen gefasst und gezielt abgestoßen. Durch Undichtigkeiten des Laugenstapelbeckens in Wipperdorf gelangen ebenfalls ungesteuerte Frachteinträge in die Wipper. Ein weiterer Eintragspfad ist zudem die geogene Belastung. Mit Hilfe detaillierter Angaben zu den oben genannten Eintragspfaden konnten Modellrechnungen im Zeitraum von 1992 bis 2003 durchgeführt werden. Durch die Ausarbeitung eines neuartigen Steuerungskonzeptes für das Laugenstapelbecken Wipperdorf, war es nun möglich, die gefasste Haldenlauge entsprechend der aktuellen Abflusssituation gezielt abstoßen zu können. Neben der modelltechnischen Erfassung der aktuellen hydrologischen Situation und der Vorgabe eines Chlorid-Konzentrationssteuerzieles für den Pegel Hachelbich, mussten dabei weitere Randbedingungen (Beckenkapazität, Beckenfüllstand, Mindestfüllstand, Kapazität des Ableitungskanals, usw.) berücksichtigt werden. Es zeigte sich, dass unter Anwendung des Steuerungskonzeptes die Schwankungsbreite der Chloridkonzentration insgesamt gesehen deutlich verringert werden konnte. Die Überschreitungshäufigkeiten bezüglich eines Grenzwertes von 2 g Chlorid/l am Pegel Hachelbich fielen deutlich, und auch die maximale Dauer einer solchen Periode konnte stark verkürzt werden. Kritische Situationen bei der modelltechnischen Frachtzusteuerung traten nur dann auf, wenn Niedrigwasserverhältnisse durch die Simulationsberechnungen noch unterschätzt wurden. Dies hatte deutliche Überschreitungen der Zielvorgaben für den Pegel Hachelbich zur Folge. Mit Hilfe des Steuerungsalgorithmus konnten desweiteren auch Szenarienberechnungen durchgeführt werden, um die Auswirkungen zukünftig zu erwartender Salzfrachten näher spezifizieren zu können. Dabei konnte festgestellt werden, dass Abdichtungsmaßnahmen der Haldenkörper sich direkt positiv auf die Entwicklung der Konzentration in Hachelbich auswirkten. Durch zusätzlich durchgeführte Langzeitszenarien konnte darüber hinaus nachgewiesen werden, dass langfristig eine Grenzwertfestlegung auf 1,5 g Chlorid/l in Hachelbich möglich ist, und die Stapelkapazitäten dazu ausreichend bemessen sind.
Origin and symmetry of the observed global magnetic fields in galaxies are not fully understood. We intend to clarify the question of the magnetic field origin and investigate the global action of the magneto-rotational instability (MRI) in galactic disks with the help of 3D global magneto-hydrodynamical (MHD) simulations. The calculations were done with the time-stepping ZEUS 3D code using massive parallelization. The alpha-Omega dynamo is known to be one of the most efficient mechanisms to reproduce the observed global galactic fields. The presence of strong turbulence is a pre-requisite for the alpha-Omega dynamo generation of the regular magnetic fields. The observed magnitude and spatial distribution of turbulence in galaxies present unsolved problems to theoreticians. The MRI is known to be a fast and powerful mechanism to generate MHD turbulence and to amplify magnetic fields. We find that the critical wavelength increases with the increasing of magnetic fields during the simulation, transporting the energy from critical to larger scales. The final structure, if not disrupted by supernovae explosions, is the structure of `thin layers' of thickness of about 100 pcs. An important outcome of all simulations is the magnitude of the horizontal components of the Reynolds and Maxwell stresses. The result is that the MRI-driven turbulence is magnetic-dominated: its magnetic energy exceeds the kinetic energy by a factor of 4. The Reynolds stress is small and less than 1% of the Maxwell stress. The angular momentum transport is thus completely dominated by the magnetic field fluctuations. The volume-averaged pitch angle is always negative with a magnitude of about -30. The non-saturated MRI regime is lasting sufficiently long to fill the time between the galactic encounters, independently of strength and geometry of the initial field. Therefore, we may claim the observed pitch angles can be due to MRI action in the gaseous galactic disks. The MRI is also shown to be a very fast instability with e-folding time proportional to the time of one rotation. Steep rotation curves imply a stronger growth for the magnetic energy due to MRI. The global e-folding time is from 44 Myr to 100 Myr depending on the rotation profile. Therefore, MRI can explain the existence of rather large magnetic field in very young galaxies. We also have reproduced the observed rms values of velocities in the interstellar turbulence as it was observed in NGC 1058. We have shown with the simulations that the averaged velocity dispersion of about 5 km/s is a typical number for the MRI-driven turbulence in galaxies, which agrees with observations. The dispersion increases outside of the disk plane, whereas supernovae-driven turbulence is found to be concentrated within the disk. In our simulations the velocity dispersion increases a few times with the heights. An additional support to the dynamo alpha-effect in the galaxies is the ability of the MRI to produce a mix of quadrupole and dipole symmetries from the purely vertical seed fields, so it also solves the seed-fields problem of the galactic dynamo theory. The interaction of magneto-rotational instability and random supernovae explosions remains an open question. It would be desirable to run the simulation with the supernovae explosions included. They would disrupt the calm ring structure produced by global MRI, may be even to the level when we can no longer blame MRI to be responsible for the turbulence.
Investigation of tropospheric arctic aerosol and mixed-phase clouds using airborne lidar technique
(2005)
An Airborne Mobile Aerosol Lidar (AMALi) was constructed and built at Alfred-Wegener-Institute for Polar and Marine Research (AWI) in Potsdam, Germany for the lower tropospheric aerosol and cloud research under tough arctic conditions. The system was successfully used during two AWI airborne field campaigns, ASTAR 2004 and SVALEX 2005, performed in vicinity of Spitsbergen in the Arctic. The novel evaluation schemes, the Two-Stream Inversion and the Iterative Airborne Inversion, were applied to the obtained lidar data. Thereby, calculation of the particle extinction and backscatter coefficient profiles with corresponding lidar ratio profiles characteristic for the arctic air was possible. The comparison of these lidar results with the results of other in-situ and remote instrumentation (ground based Koldewey Aerosol Raman Lidar (KARL), sunphotometer, radiosounding, satellite imagery) allowed to provided clean contra polluted (Arctic Haze) characteristics of the arctic aerosols. Moreover, the data interpretation by means of the ECMWF Operational Analyses and small-scale dispersion model EULAG allowed studying the effects of the Spitsbergens orography on the aerosol load in the Planetary Boundary Layer. With respect to the cloud studies a new methodology of alternated remote AMALi measurements with the airborne in-situ cloud optical and microphysical parameters measurements was proved feasible for the low density mixed-phase cloud studies. An example of such approach during observation of the natural cloud seeding (feeder-seeder phenomenon) with ice crystals precipitating into the lower supercooled stratocumulus deck were discussed in terms of the lidar signal intensity profiles and corresponding depolarisation ratio profiles. For parts of the cloud system characterised by almost negligible multiple scattering the calculation of the particle backscatter coefficient profiles was possible using the lidar ratio information obtained from the in-situ measurements in ice-crystal cloud and water cloud.
Diagenetic studies of carbonate rocks focused for a long time on photozoan carbonate assemblages deposited in tropical climates. The results of these investigations were taken as models for the diagenetic evolution of many fossil carbonates. Only in recent years the importance of heterozoan carbonates, generally formed out of the tropics or in deeper waters, was realized. Diagenetic studies focusing on this kind of rocks are still scarce, but indicate that the diagenetic evolution of these rocks might be a better model for many fossil carbonate settings ("calcite-sea" carbonates) than the photozoan model used before. This study deals with the determination of the diagenetic pathways and environments in such shallow-water heterozoan carbonate assemblages. Special emphasis is put on the identification of early, near-seafloor diagenetic processes and on the evaluation of the amount of constructive diagenesis in form of cementation in this diagenetic environment. As study area the Central Mediterranean, the Maltese Islands and Sicily, was chosen. Here two sections were logged in Olio-Miocene shallow-water carbonates consisting of different kinds of heterozoan assemblages. The study area is very suitable for the investigation of constructive early diagenetic processes, as the rocks were never deeply buried and burial diagenetic pressure solution and cementation as cause of lithification could be ruled out. Nevertheless, the carbonate rocks are well lithified and form steep cliffs, implying cementation/lithification in another, shallower diagenetic environment. To determine the diagenetic pathways and environments, detailed transmitted light and cathodoluminescence petrography was carried out on thin sections. Furthermore the stable isotope (δ<sup>18O and δ<sup>13C) composition of the bulk rock, single biota and single cement phases was determined, as well as the major and trace element composition of the single cement phases. Petrographically three (Sicily) to four (Maltese Islands) cementation phases, two phases of fabric selective and one of non-fabric selective dissolution, one phase of neomorphism and one of chemical compaction could be distinguished. The stable isotope measurements of the single cement phases pointed to cement precipitation from marine, marine-derived and meteoric waters. The trace element analysis indicated precipitation under reducing conditions, (A) in an open system with low rock-water interaction on the Maltese Islands and (B) in a closed system with high rock-water interaction on Sicily. For the closed systems case, aragonite as cement source could be concluded because its chemical composition was preserved in the newly formed cements. By integrating these results, diagenetic pathways and environments for the investigated locations were established, and the cement source(s) in the different environments were determined. The diagenetic evolution started in the marine environment with the precipitation of fibrous/fibrous-bladed and epitaxial cement I. These cements formed as High Mg Calcite (HMC) directly out of marine waters. The paleoenvironmentally shallowest part of the section on the Maltese Islands was also exposed to meteoric diagenetic fluids. This meteoric influence lead to the dissolution of aragonitic and HMC skeletons, which sourced the cementation by Low Mg Calcitic (LMC) epitaxial cement II in this part of the Maltese section. Entering the burial-marine environment the main part of dissolution, cementation and neomorphism started to take place. The elevated CO2 content in this environment, caused by the decay of organic matter, lead to the dissolution of aragonitic skeletons, which sourced the cementation by LMC epitaxial cement II, bladed and blocky cements. The earlier precipitated HMC cement phases were either partly dissolved (epitaxial cement I) or neomorphosed to LMC (fibrous/fibrous-bladed and epitaxial cement I). In the burial environment weak chemical compaction took place without sourcing significant amounts of cementation. In a last phase the rocks entered the meteoric realm by uplift, which caused non-fabric selective dissolution. This study shows that early diagenetic processes, taking place at or just below the sediment-water-interface, are very important for the mineralogical stabilization of heterozoan carbonate strata. The main amount of constructive diagenesis in form of cementation takes place in this environment, sourced by dissolution of aragonitic and, to a lesser degree, of HMC skeletons. The results of this study imply that the primary amount of aragonitic skeletons in heterozoan carbonate sediments must be carefully assessed, as they are the main early diagenetic cement source. In fossil heterozoan carbonate rocks, aragonitic skeletons might be the cement source even when no relict structures like micritic envelops or biomolds are preserved. In general, the diagenetic evolution of heterozoan carbonate rocks is a good model for the diagenesis of "calcite-sea" time carbonate rocks.
Ziel dieser Arbeit war die Entwicklung neuer Substanzen für die Gentherapie. Diese beinhaltet die Behebung von erblich bedingten Krankheiten wie z.B. Mucoviscidose. Dabei werden im Zellkern defekte Gene durch normale, gesunde DNA-Sequenzen ersetzt. Zur Einschleusung des Genmaterials in die Zellen (Transfektion) werden geeignete Transport-Systeme bzw. Methoden benötigt, die dort die Freisetzung der neu einzubauenden Gene (Genexpression ausgedrückt in Transfektionseffizienzen) gestatten. Hierfür wurden neue Polykation-DNA-Komplexe (Vektoren) auf Basis kationischer Polymere wie Poly(ethylenimin) (PEI) hergestellt, charakterisiert und nachfolgend in Transfektionsversuchen an verschiedenen Zelllinien eingesetzt. Sowohl das kationische Ausgangspolymer PEI als auch das Pfropfcopolymer PEI-g-PEO (PEO-Seitenketten zur Erhöhung der Biokompatibilität) wurden mit Rezeptorliganden modifiziert, um eine verbesserte und spezifische Transfektion an ausgesuchten Zellen zu erreichen. Als Liganden wurden Folsäure (Transfektion an HeLa-Zellen), Triiod-L-thyronin (HepG2-Zellen) und die Uronsäuren der Galactose, Mannose, Glucose sowie die Lactobionsäure (HeLa-, HepG2- und 16HBE-Zellen) verwendet. Das PEI, die Pfropfcopolymere PEI-g-PEO und die Ligand-funktionalisierten Copolymere wurden hinsichtlich ihrer chemischen Zusammensetzung und molekularen Parameter charakterisiert. Die Molmassenuntersuchungen mittels Größenausschlusschromatographie zeigten, dass nach der Synthese unterschiedliche Polymerfraktionen mit nicht einheitlicher chemischer Zusammensetzung vorlagen. Die anschließenden Transfektionsversuche wurden mit Hilfe einer speziellen DNA (Luciferase) an den Zelllinien HepG2 (Leberkrebszellen), HeLa (Gebärmutterhalskrebszellen) und 16HBE (Atemwegsepithelzellen) durchgeführt. Die T3(Triiod-L-thyronin)-Vektoren zeigten in Abhängigkeit vom eingesetzten Komplexverhältnis Polykation/DNA ein Maximum in der Transfektion an HepG2-Zellen. Die Hypothese der rezeptorvermittelten Endozytose ließ sich durch entsprechende T3-Überschuss-Experimente und Fluoreszenzmikroskopie-Untersuchungen bestätigen. Dagegen konnte bei den Folsäure-Vektoren keine rezeptorvermittelte Endozytose beobachtet werden. Bei den Vektoren mit Mannuronsäure-Ligand (Man) konnte an allen drei Zelllinien (HepG2, HeLa, 16HBE) eine konstante, hohe Transfereffizienz nachgewiesen werden. Sie waren bei allen eingesetzten Polymer-DNA-Verhältnissen effizienter als der Vergleichsvektor PEI. Dieses Transfektionsverhalten ließ sich durch Blockierung der Zuckerstruktur unterbinden. In Transfektionsexperimenten mit einem Überschuss an freier Mannuronsäure und fluoreszenzmikroskopischen Untersuchungen konnte eine rezeptorvermittelte Endozytose der Man-Vektoren an den o.g. Zelllinien nachgewiesen werden. Die anderen Uronsäure-Konjugate zeigten keine signifikanten Abweichungen im Transfektionsverhalten im Vergleich zum PEI-Vektor.
Die effektive Erzeugung von Wissen ist eine der zentralen Herausforderungen des 21. Jahrhunderts. Informations- und Kommunikationstechnologien, wie die Neuen Medien, durchdringen alle Bereiche des täglichen Lebens. Sie ermöglichen den Zugriff auf gigantische Datenmengen, die die Grundvoraussetzung für die Generierung von Wissen darstellen, aber gleichzeitig eine Datenflut bedeuten, der wir ohnmächtig gegenüberstehen. Innerhalb der raumwissenschaftlichen Fachdisziplinen spielen die Neuen Medien für die Kommunikation von Sachinformation eine wichtige Rolle. Die internetbasierte Distribution von Karten, angereichert mit zusätzlichen Informationen in Form von Audiosequenzen oder Filmausschnitten, spiegelt diese Entwicklung wieder. Vor diesem Hintergrund erfolgt die Untersuchung der Frage, ob Neue Medien dazu genutzt werden können, raumwissenschaftliche Fachinhalte zu vermitteln. Von besonderem Interesse ist dabei die Frage, ob durch den Einsatz Neuer Medien in der Lehre ein Mehrwert für die Benutzer entsteht. Der Ausgangspunkt dieser Forschungsfrage besteht in der herausragenden Bedeutung von Visualisierung zur leicht verständlichen Darstellung komplexer Sachverhalte, sowie der entsprechenden Werkzeug- und Methodenkompetenz für die Nutzung Neuer Medien in den raumwissen-schaftlichen Disziplinen. Die Grundlage für die Entwicklung von mehrwertigen Lernangeboten ist die Betrachtung von Lernen als Kommunikationsprozess zur Konstruktion von Wissen, was bedeutet, dass der Entwickler derartiger Angebote über Möglichkeiten zur Optimierung dieses Kommunikationsprozesses verfügt. Auf dieser Basis erfolgt eine Erweiterung des in den raumwissenschaftlichen Disziplinen verwendeten Kommunikationsbegriffs um den Aspekt der Lehre von Fachinhalten. Als relevante Ansatzpunkte für die Optimierung der Kommunikation von Fachinhalten werden die didaktische und die mediale Aufbereitung identifiziert. Diese können zum einen die Motivation der Lernenden positiv beeinflussen und zum anderen durch Wirkung auf die Wahrnehmung der Lernenden zu einem vereinfachten Verständnis beitragen. Im Mittelpunkt der didaktischen Aufbereitung steht die problemorientierte Vermittlung der Inhalte, d.h. sie werden anhand konkreter Problemsituationen aus der Praxis vermittelt und gelten deshalb als besonders anschaulich und anwendungsorientiert. Bei der medialen Aufbereitung steht die Verwendung einer Kombination aus Text und Graphik/Animation im Mittelpunkt, die darauf abzielt, das Verstehen komplexer Sachverhalte zu erleichtern. Zur Überprüfung der Forschungsfrage haben Studierende raumwissenschaftlicher Studiengänge der Universität Potsdam das Lernangebot ausprobiert und anhand eines Fragebogens verschiedene Aspekte bewertet. Themenschwerpunkt dieser Evaluation waren die Akzeptanz, die Bedienbarkeit, die didak-tische und mediale Aufbereitung der Inhalte, die Auswahl und Verständlichkeit der Inhalte sowie die Praxistauglichkeit. Ein Großteil der Befragten hat dem Lernangebot einen Mehrwert gegenüber konventionellen Bildungsangeboten bescheinigt. Als Aspekte dieses Mehrwertes haben sich vor allem die Praxisnähe, die Unabhängigkeit von Zeit und Ort bei der Nutzung und die Vermittlung der Inhalte auf der Grundlage einer Kombination aus Text und interaktiven Animationen herauskristallisiert.
Die Tailspike Proteine (TSP) der Bakteriophagen P22, Sf6 und HK620 dienen der Erkennung von Kohlenhydratstrukturen auf ihren gram-negativen Wirtsbakterien und zeigen, von den ersten 110 Aminosäuren des N-Terminus abgesehen, keine Sequenzübereinstimmung. Mit Röntgenkristallstrukturanalyse konnte gezeigt werden, dass HK620TSP und Sf6TSP ebenfalls zu einer parallelen, rechtsgängigen beta-Helix falten, wie dies schon für P22TSP bekannt war. Die Kohlenhydratbindestelle ist bei Sf6TSP im Vergleich zu P22TSP zwischen die Untereinheiten verschoben.
Am Beispiel der Orgelpfeife wurde der Einfluss der Wandungsgeometrie des akustischen Wellenleiters auf die Schallabstrahlung untersucht. Für verschiedene Metalllegierungen wurden unterschiedliche Profile der Orgelpfeifenwandung verglichen: ein konisches Wandungsprofil mit zur Mündung hin abnehmender Wandungsstärke und ein paralleles Wandungsprofil mit konstanter Wandungsstärke. Für eine hohe statistische Sicherheit der Ergebnisse wurden sämtliche Untersuchungen an vier mal zehn Testpfeifen durchgeführt. Mit Ausnahme der beschriebenen Unterschiede sind die Pfeifen von gleichen Abmessungen und auf gleichen Klang intoniert. Die Überprüfung der Wandungseinflüsse auf den Klang besteht aus drei verschiedenen Untersuchungen: Erstens, einer subjektiven Hinterfragung der Wahrnehmbarkeit in einem Hörtest. Zweitens wurde der abgestrahlte Luftschall objektiv gemessen und das Spektrum der Pfeifen in seinen Komponenten (Teiltöne, Grundfrequenz) verglichen. Drittens wurde mit einer neuartigen Messtechnik die Oszillation des Pfeifenkörpers (ein einem akustischen Monopol entsprechendes "Atmen" des Querschnitts) untersucht. Die Ergebnisse belegen die Wahrnehmbarkeit unterschiedlicher Wandungsprofile als auch klare objektive Differenzen zwischen den emittierten Schallspektren. Ein Atmen mit guter Korrelation zur inneren Druckanregung bestätigt den Einfluss wandungsprofilabhängiger Oszillationen auf den Klang der Orgelpfeife. Schließlich wurde die Interaktion zweier in Abstand und Grundfrequenz nah beieinander liegender Orgelpfeifen überprüft. Als Ursache des dabei wahrnehmbaren Oktavsprung des Orgeltons konnte eine gegenphasiger Oszillation des Grundtons beider Pfeifen nachgewiesen werden.
Statistik Lernen im Rahmen des Psychologiestudiums wurde als Untersuchungsgegenstand zur empirischen Überprüfung der angenommenen Wirkung volitionaler Handlungsregulation herangezogen. Neben fähigkeitsbezogenen und motivationalen Faktoren sollten bei dieser von vielen Studierenden aversiv erlebten Tätigkeit die Aspekte der volitionalen Handlungsregulation entscheidend sein. Nur Personen, die sich trotz des aversiven Tätigkeitserlebens zum Statistik Lernen "zwingen" können, sollten erfolgreich sein. Auf dem Hintergrund des Prozessmodells der Lernmotivation wurden die angenommenen Wirkungen der volitionalen Faktoren denen der motivationalen Einflussgrößen zugeordnet und in einem längsschnittlichen Design an zwei aufeinander folgenden Wintersemestern an der Universität Potsdam und an der TU Berlin empirisch überprüft (N = 273). Die Annahmen zu den fähigkeits- und motivationsrelevanten Faktoren des analyseleitenden Prozessmodells der Lernmotivation konnten weitgehend bestätigt werden. Die Personenmerkmale (fähigkeitsbezogene Merkmale, Leistungsmotiv und Commitment für das Psychologiestudium) bedingen zu einem wesentlichen Teil die Aspekte der aktuellen Motivation für das Statistik Lernen. Letztere wurde durch die Komponenten des Erweiterten Kognitiven Motivationsmodells (EKM) und anhand der Lernintentionen erfasst. Dabei zeigt sich, dass die aktuelle Motivation für das Statistik Lernen insgesamt günstig ausgeprägt ist. Die Aspekte der aktuellen Motivation beeinflussen wiederum Prozessvariablen wie den Lernaufwand, das emotionale Erleben und den Funktionszustand während des Lernens. Der Lernaufwand und das Flow-Erleben (als Indikator für den Funktionszustand) sowie deren Interaktion sagen die Klausurleistung am Ende des Semesters vorher (dies auch, wenn fähigkeitsbezogene Merkmale mit berücksichtigt werden). Vor dem Hintergrund des insgesamt theoriekonsistenten Gesamtbildes ergeben sich dennoch einige Abweichungen von den theoretischen Annahmen. Diese werden eingehend diskutiert. Entgegen der zentralen Annahme, tragen die dem Prozessmodell der Lernmotivation zugeordneten volitionalen Faktoren insgesamt betrachtet kaum zu einem weitergehenden Verständnis des Lernprozesses bei. Die theoretischen Annahmen können weitgehend nicht bestätigt werden. So sagen die volitionalen Faktoren nicht, wie angenommen, bei hoher instrumenteller Handlungsveranlassung und gleichzeitig aversivem Tätigkeitserleben Prozessmerkmale des Lernens vorher. Ausführlich diskutiert wird, inwieweit dies auf falsche theoretische Annahmen oder auf eine mangelnde Operationalisierung und Auswertung zurück geht. Zusätzlich zum Prozessmodell der Lernmotivation wurden weitergehende Annahmen zur Wirkung des impliziten und expliziten Leistungsmotivs überprüft. Dabei zeigt sich erwartungsgemäß, dass sich das implizite Leistungsmotiv beim Statistik Lernen bei einer individuellen Bezugsnorm förderlich auswirkt. Die moderierende Wirkung der sozialen Bezugsnorm für das explizite Leistungsmotiv kann anhand der vorliegenden Daten nicht bestätigt werden. Für das implizite Leistungsmotiv zeigt sich über die Annahmen hinaus eine förderliche Wirkung auf die Klausurteilnahme. Für Personen mit einem hohen impliziten Leistungsmotiv findet sich eine höhere Wahrscheinlichkeit, die Klausur mitzuschreiben. Dieser Befund macht den in der Leistungsmotivationsforschung gefundenen Zusammenhang zwischen Leistungsmotiv und Karriereerfolg "im Kleinen" verständlich. Theoretische Arbeiten legen nahe, dass die volitionale Handlungssteuerung nicht eine unabhängige, sondern eine zum Teil von dem Zusammenwirken der impliziten und expliziten Motivsysteme abhängige Größe darstellt. Für das Leistungsmotiv konnte dies bestätigt werden. So wirkt sich eine hohe Ausprägung des expliziten Leistungsmotivs dann positiv auf die volitionale Handlungssteuerung aus, wenn das implizite Leistungsmotiv hoch ausgeprägt ist. Die Ergebnisse bei den Machtmotivsystemen zeigen, dass nicht immer eine Übereinstimmung der Motive förderlich ist. Eine funktionale Perspektive scheint hier angemessen und weiterführend. Die Arbeit schließt mit der Frage, welche Motivkonstellationen im Sinne einer volitionalen Handlungssteuerung ideal sind. Dabei wird postuliert, dass das Wissen über implizite Vorlieben einer Person helfen sollte, für sie passende Situationen aktiv aufzusuchen oder herzustellen und dadurch eine volitionale Handlungssteuerung besser gelingt sowie diese Art der Steuerung weniger nötig macht.
Die Beeinflussung optischer Eigenschaften durch Bestrahlung stellt eine Grundlage für die Herstellung anisotroper optischer Komponenten dar. In dünnen Schichten von Azobenzen-Polymeren kann optische Anisotropie durch linear polarisierte Bestrahlung induziert oder modifiziert werden. Ziel der Arbeit war es, wesentliche Struktur-Eigenschafts-Beziehungen zum Prozess der Photoorientierung zu erarbeiten, um so eine Optimierung der Materialien für verschiedene Anwendungen ermöglichen. In isotropen Schichten flüssigkristalliner und amorpher Azobenzen-Polymeren wird das Ausmaß der induzierten optischen Anisotropie günstig durch eine Donor/Akzeptor-Substitution in 4,4'-Position beeinflusst. Die Induktionsgeschwindigkeit ist in Schichten flüssigkristalliner Polymeren deutlich geringer, jedoch lassen sich höhere Werte der Doppelbrechung und des Dichroismus erreichen. In Copolymeren bewirkt die Photoorientierung der Azobenzen-Seitengruppen eine kooperative Orientierung von formanisotropen Seitengruppen. Die Mesogenität der nicht-photochromen Seitengruppen erhöht das Ausmaß der induzierten optischen Anisotropie. Die Stabilität der induzierten Doppelbrechung und des Dichroismus wird durch diese Gruppen gesteigert. In Schichten flüssigkristalliner Polymeren wird die induzierte optische Anisotropie beim Tempern im Bereich der Mesophasen erheblich verstärkt. Dabei reicht ein geringes Maß an induzierter Anisotropie aus, um Doppelbrechungs- und Dichroismuswerte zu erzielen, wie sie für LC-Domänen typisch sind. In orientierten Schichten von Azobenzen-Polymeren wird das Resultat der linear polarisierten Bestrahlung durch die Stärke der anisotropen Wechselwirkungen in den flüssigkristallinen Domänen oder den LB-Multilayern bestimmt. Eine lichtinduzierte Reorientierung kann nur erreicht werden, wenn diese Wechselwirkungen überwunden werden können. Erfolgt eine Photoreorientierung in den orientierten Polymerschichten, werden in Copolymeren formanisotrope Seitengruppen ebenfalls kooperativ reorientiert. Eine vorgelagerte UV-Bestrahlung kann durch Erzeugung eines hohen Anteils an nicht-mesogenen Z-Isomeren die anisotropen Wechselwirkungen stark schwächen und so die Seitengruppen entkoppeln. Aus diesem Zustand erfolgt die Photoreorientierung mit einer der Photoorientierung in isotropen Schichten vergleichbaren Effizienz. Die erarbeiteten Struktur-Eigenschafts-Beziehungen liefern einen Beitrag zur Optimierung derartiger Materialien für Anwendungen in den Bereichen optischer Funktionsschichten, holographischer Datenspeicherung oder der Generierung von Oberflächenreliefgittern.
Mesoporous organosilica materials with amine functions : surface characteristics and chirality
(2005)
In this work mesoporous organisilica materials are synthesized through the silica sol-gel process. For this a new class of precursors which are also surfactant are synthesized and self-assembled. This leads to a high surface area functionality which is analysized with copper (II) and water adsorption.
Bei konventionellen Mikroarray-Experimenten zur Genexpressionsanalyse wird fluoreszenz- oder radioaktiv-markierte cDNA oder RNA mit immobilisierten Proben hybridisiert. Für ein gut detektierbares und auswertbares Ergebnis werden jedoch pro Array mindestens 15 - 20 µg Hybridisierungstarget benötigt. Dazu müssen entweder 15 - 20 µg RNA direkt durch Reverse Transkription in markierte cDNA umgeschrieben werden oder bei Vorhandensein von weniger Startmaterial die RNA amplifiziert werden (Standard- Affymetrix-Protokolle, Klur et al. 2004). Oft sind damit zeit- und kostenintensive Probenpräparationen verbunden und das Ergebnis ist nicht immer reproduzierbar. Obwohl es inzwischen einige Protokolle gibt, die dieses Problem zu lösen versuchen (Zhang et al. 2001, Iscove et al. 2002, McClintick et al. 2003, Stirewalt et al. 2004), eine optimale, leicht handbare und reproduzierbare Methode gibt es weiterhin nicht, weshalb in dieser Arbeit ein weiterer Lösungsansatz gesucht wurde. In der vorgestellten Arbeit werden zwei einfache Methoden beschrieben, mit denen Gene aus geringen RNA-Mengen nachgewiesen werden können: erstens die On Chip- RT-PCR mit cDNA als Matrize und zweitens diese Methode als One-Step-Reaktion mit RNA als Matrize. Beide Methoden beruhen auf dem Prinzip der PCR an immobilisierten Primern auf einer Chipoberfläche. Diese Möglichkeit der exponentiellen Amplifikation ist reproduzierbar und sensitiv. In Experimenten zur Etablierung des On-Chip-PCR-Systems wurden für die Immobilisierung der Primer verschiedene Kopplungsmethoden verwendet. Die affine Kopplung über Biotin- Streptavidin erwies sich als geeignet. Die On-Chip-Reaktion an kovalent gebundenen Primern wurde für amino-modifizierte Primer auf Epoxy-Oberflächen sowie für EDC-Kopplung auf silanisierten Oberflächen gezeigt. Für die letztgenannte Methode wurde die On-Chip-PCR optimiert, dass Spottingkonzentrationen der Primer von 5 - 10µM schon ausreichend sind. Der Einsatz von fluoreszenz-markierten Primern während der PCR ermöglicht eine unmittelbare Auswertung nach der Synthese ohne zusätzliche Detektionsschritte. In dieser Arbeit konnte außerdem mit der vorgestellten Methode der simultane Nachweis zweier Gene gezeigt werden. Die Methode kann noch als Multiplex-Analyse ausgebaut werden, um so mehrere Gene in gleichzeitig einem Ansatz nachweisen zu können. Die Ergebnisse der Versuche mit Matrizen aus unterschiedlichen Zelltypen deuten darauf hin, dass die On-Chip-RT-PCR eine weitere optimale Methode für den Nachweis von gering exprimierten Genen bietet.
The interactions between peptides and lipids are of fundamental importance in the functioning of numerous membrane-mediated biochemical processes including antimicrobial peptide action, hormone-receptor interactions, drug bioavailability across the blood-brain barrier and viral fusion processes. Alteration of peptide structure could be a cause of many diseases. Biological membranes are complex systems, therefore simplified models may be introduced in order to understand processes occurring in nature. The lipid monolayers at the air/water interface are suitable model systems to mimic biological membranes since many parameters can be easily controlled. In the present work the lipid monolayers were used as a model membrane and their interactions with two different peptides B18 and Amyloid beta (1-40) peptide were investigated. B18 is a synthetic peptide that binds to lipid membranes that leads to the membrane fusion. It was demonstrated that it adopts different structures in the aqueous solutions and in the membrane interior. It is unstructured in solutions and forms alpha-helix at the air/water interface or in the membrane bound state. The peptide has affinity to the negatively charged lipids and even can fold into beta-sheet structure in the vicinity of charged membranes at high peptide to lipid ratio. It was elucidated that in the absence of electrostatic interactions B18 does not influence on the lipid structure, whereas it provides partial liquidization of the negatively charged lipids. The understanding of mechanism of the peptide action in model system may help to develop the new type of antimicrobial peptides as well as it can shed light on the general mechanisms of peptide/membrane binding. The other studied peptide - Amyloid beta (1-40) peptide, which is the major component of amyloid plaques found in the brain of patients with Alzheimer's disease. Normally the peptide is soluble and is not toxic. During aging or as a result of the disease it aggregates and shows a pronounced neurotoxicity. The peptide aggregation involves the conformational transition from a random coil or alpha-helix to beta-sheets. Recently it was demonstrated that the membrane can play a crucial role for the peptide aggregation and even more the peptide can cause the change in the cell membranes that leads to a neuron death. In the present studies the structure of the membrane bound Amyloid beta peptide was elucidated. It was found that the peptide adopts the beta-sheet structure at the air/water interface or being adsorbed on lipid monolayers, while it can form alpha-helical structure in the presence of the negatively charged vesicles. The difference between the monolayer system and the bulk system with vesicles is the peptide to lipid ratio. The peptide adopts the helical structure at low peptide to lipid ratio and folds into beta-sheet at high ratio. Apparently, Abeta peptide accumulation in the brain is concentration driven. Increasing concentration leads to a change in the lipid to peptide ratio that induces the beta-sheet formation. The negatively charged lipids can act as seeds in the plaque formation, the peptide accumulates on the membrane and when the peptide to lipid ratio increases it the peptide forms toxic beta-sheet containing aggregates.
Mit zunehmender Komplexität technischer Softwaresysteme ist die Nachfrage an produktiveren Methoden und Werkzeugen auch im sicherheitskritischen Umfeld gewachsen. Da insbesondere objektorientierte und modellbasierte Ansätze und Methoden ausgezeichnete Eigenschaften zur Entwicklung großer und komplexer Systeme besitzen, ist zu erwarten, dass diese in naher Zukunft selbst bis in sicherheitskritische Bereiche der Softwareentwicklung vordringen. Mit der Unified Modeling Language Real-Time (UML-RT) wird eine Softwareentwicklungsmethode für technische Systeme durch die Object Management Group (OMG) propagiert. Für den praktischen Einsatz im technischen und sicherheitskritischen Umfeld muss diese Methode nicht nur bestimmte technische Eigenschaften, beispielsweise temporale Analysierbarkeit, besitzen, sondern auch in einen bestehenden Qualitätssicherungsprozess integrierbar sein. Ein wichtiger Aspekt der Integration der UML-RT in ein qualitätsorientiertes Prozessmodell, beispielsweise in das V-Modell, ist die Verfügbarkeit von ausgereiften Konzepten und Methoden für einen systematischen Modultest. Der Modultest dient als erste Qualititätssicherungsphase nach der Implementierung der Fehlerfindung und dem Qualitätsnachweis für jede separat prüfbare Softwarekomponente eines Systems. Während dieser Phase stellt die Durchführung von systematischen Tests die wichtigste Qualitätssicherungsmaßnahme dar. Während zum jetzigen Zeitpunkt zwar ausgereifte Methoden und Werkzeuge für die modellbasierte Softwareentwicklung zur Verfügung stehen, existieren nur wenig überzeugende Lösungen für eine systematische modellbasierte Modulprüfung. Die durchgängige Verwendung ausführbarer Modelle und Codegenerierung stellen wesentliche Konzepte der modellbasierten Softwareentwicklung dar. Sie dienen der konstruktiven Fehlerreduktion durch Automatisierung ansonsten fehlerträchtiger, manueller Vorgänge. Im Rahmen einer modellbasierten Qualitätssicherung sollten diese Konzepte konsequenterweise in die späteren Qualitätssicherungsphasen transportiert werden. Daher ist eine wesentliche Forderung an ein Verfahren zur modellbasierten Modulprüfung ein möglichst hoher Grad an Automatisierung. In aktuellen Entwicklungen hat sich für die Generierung von Testfällen auf Basis von Zustandsautomaten die Verwendung von Model Checking als effiziente und an die vielfältigsten Testprobleme anpassbare Methode bewährt. Der Ansatz des Model Checking stammt ursprünglich aus dem Entwurf von Kommunikationsprotokollen und wurde bereits erfolgreich auf verschiedene Probleme der Modellierung technischer Software angewendet. Insbesondere in der Gegenwart ausführbarer, automatenbasierter Modelle erscheint die Verwendung von Model Checking sinnvoll, das die Existenz einer formalen, zustandsbasierten Spezifikation voraussetzt. Ein ausführbares, zustandsbasiertes Modell erfüllt diese Anforderungen in der Regel. Aus diesen Gründen ist die Wahl eines Model Checking Ansatzes für die Generierung von Testfällen im Rahmen eines modellbasierten Modultestverfahrens eine logische Konsequenz. Obwohl in der aktuellen Spezifikation der UML-RT keine eindeutigen Aussagen über den zur Verhaltensbeschreibung zu verwendenden Formalismus gemacht werden, ist es wahrscheinlich, dass es sich bei der UML-RT um eine zu Real-Time Object-Oriented Modeling (ROOM) kompatible Methode handelt. Alle in dieser Arbeit präsentierten Methoden und Ergebnisse sind somit auf die kommende UML-RT übertragbar und von sehr aktueller Bedeutung. Aus den genannten Gründen verfolgt diese Arbeit das Ziel, die analytische Qualitätssicherung in der modellbasierten Softwareentwicklung mittels einer modellbasierten Methode für den Modultest zu verbessern. Zu diesem Zweck wird eine neuartige Testmethode präsentiert, die auf automatenbasierten Verhaltensmodellen und CTL Model Checking basiert. Die Testfallgenerierung kann weitgehend automatisch erfolgen, um Fehler durch menschlichen Einfluss auszuschließen. Das entwickelte Modultestverfahren ist in die technischen Konzepte Model Driven Architecture und ROOM, beziehungsweise UML-RT, sowie in die organisatorischen Konzepte eines qualitätsorientierten Prozessmodells, beispielsweise das V-Modell, integrierbar.
Due to its relevance for global climate, the realistic representation of the Atlantic meridional overturning circulation (AMOC) in ocean models is a key task. In recent years, two paradigms have evolved around what are its driving mechanisms: diapycnal mixing and Southern Ocean winds. This work aims at clarifying what sets the strength of the Atlantic overturning components in an ocean general circulation model and discusses the role of spatially inhomogeneous mixing, numerical diffusion and winds. Furthermore, the relation of the AMOC with a key quantity, the meridional pressure difference is analyzed. Due to the application of a very low diffusive tracer advection scheme, a realistic Atlantic overturning circulation can be obtained that is purely wind driven. On top of the winddriven circulation, changes of density gradients are caused by increasing the parameterized eddy diffusion in the North Atlantic and Southern Ocean. The linear relation between the maximum of the Atlantic overturning and the meridional pressure difference found in previous studies is confirmed and it is shown to be due to one significant pressure gradient between the average pressure over high latitude deep water formation regions and a relatively uniform pressure between 30°N and 30°S, which can directly be related to a zonal flow through geostrophy. Under constant Southern Ocean windstress forcing, a South Atlantic outflow in the range of 6-16 Sv is obtained for a large variety of experiments. Overall, the circulation is winddriven but its strength not uniquely determined by the Southern Ocean windstress. The scaling of the Atlantic overturning components is linear with the background vertical diffusivity, not confirming the 2/3 power law for one-hemisphere models without wind forcing. The pycnocline depth is constant in the coarse resolution model with large vertical grid extends. It suggests the ocean model operates like the Stommel box model with a linear relation of the pressure difference and fixed vertical scale for the volume transport. However, this seems only valid for vertical diffusivities smaller 0.4 cm²/s, when the dominant upwelling within the Atlantic occurs along the boundaries. For larger vertical diffusivities, a significant amount of interior upwelling occurs. It is further shown that any localized vertical mixing in the deep to bottom ocean cannot drive an Atlantic overturning. However, enhanced boundary mixing at thermocline depths is potentially important. The numerical diffusion is shown to have a large impact on the representation of the Atlantic overturning in the model. While the horizontal numerical diffusion tends to destabilize the Atlantic overturning the verital numerical diffusion denotes an amplifying mechanism.
Die Honigbiene Apis mellifera gilt seit langem als Modell-Organismus zur Untersuchung von Lern- und Gedächtnisvorgängen sowie zum Studium des Sozialverhaltens und der Arbeitsteilung. Bei der Steuerung und Regulation dieser Verhaltensweisen spielt das Indolalkylamin Serotonin eine wesentliche Rolle. Serotonin entfaltet seine Wirkung durch die Bindung an G-Protein-gekoppelte Rezeptoren (GPCRs). In der vorliegenden Arbeit wird der erste Serotonin-Rezeptor aus der Honigbiene molekular charakterisiert. Durch die Anwendung zwei verschiedener Klonierungsstrategien konnten drei cDNA-Sequenzen isoliert werden, die für potentielle Serotonin-Rezeptoren kodieren. Die Sequenzen weisen die größte Ähnlichkeit zu dem 5-HT7- und 5-HT2-Rezeptor von Drosophila melanogaster bzw. dem 5-HT1-Rezeptor von Panulirus interruptus auf. Die isolierten Serotonin-Rezeptoren der Honigbiene wurden dementsprechend Am(Apis mellifera)5-HT1, Am5-HT2 und Am5-HT7 benannt. Das Hydropathieprofil des Am5-HT1-, Am5-HT2- und Am5-HT7-Rezeptors deutet auf das Vorhandensein des charakteristischen heptahelikalen Aufbaus G-Protein-gekoppelter Rezeptoren hin. Die abgeleiteten Aminosäuresequenzen zeigen typische Merkmale biogener Amin-Rezeptoren. Aminosäuren, die eine Bedeutung bei der Bildung der Liganden-Bindungstasche, der Rezeptor-Aktivierung und der Kopplung eines G-Proteins an den Rezeptor haben, sind in allen drei Rezeptoren konserviert. Interessanterweise ist jedoch das in den meisten biogenen Amin-Rezeptoren vorhandene DRY-Motiv in dem Am5-HT2- und Am5-HT7-Rezeptor nicht konserviert. Das Vorhandensein einer PDZ-Domäne in dem Am5-HT1- und Am5-HT7-Rezeptor lässt vermuten, dass diese Rezeptoren als Adapterproteine fungieren, die Signalmoleküle zu einem Signaltransduktionskomplex vereinigen. RT-PCR-Experimente zeigen die Expression der Rezeptoren in verschiedenen Geweben der Honigbiene. Auffallend ist die hohe Expression im Zentralgehirn. Des Weiteren konnte die Expression der Serotonin-Rezeptoren in den optischen Loben, Antennalloben sowie in der Peripherie, d.h. in der Flugmuskulatur und den Malpighischen Gefäßen nachgewiesen werden. Durch in situ Hybridisierungen wurde die Expression in Gefrierschnitten von Gehirnen adulter Sammlerinnen im Detail untersucht. Transkripte der Rezeptoren sind in den Somata von intrinsischen Pilzkörperzellen, Neuronen der optischen Loben und Neuronen der Antennalloben vorhanden. In einem heterologen Expressionssystem wurde der intrazelluläre Signalweg des Am5-HT7-Rezeptors untersucht. Die Aktivierung des stabil exprimierten Rezeptors durch Serotonin führt zur Bildung von cAMP. Der 5-HT7-Rezeptor spezifische Agonist 5-CT zeigt eine mit Serotonin vergleichbare Fähigkeit, die intrazelluläre cAMP-Konzentration zu erhöhen. Am5-HT7 gehört daher funktionell zu der Gruppe der 5-HT7-Rezeptoren. Der EC50-Wert von 1,06~nM (5-HT), ist im Vergleich zu anderen 5-HT7-Rezeptoren äußert niedrig. Des Weiteren wurde gezeigt, dass das basale cAMP-Niveau in den transfizierten Zellen im Vergleich zu nicht transfizierten Zellen deutlich erhöht ist. Das heißt, dass der Rezeptor auch in der Abwesenheit eines Liganden aktiv ist. Diese konstitutive Aktivität ist auch von anderen biogenen Amin-Rezeptoren bekannt. Methiothepin wurde als wirksamer inverser Agonist des Am5-HT7-Rezeptors identifiziert, da es in der Lage ist, der konstitutiven Aktivität entgegenzuwirken. Die Ergebnisse der vorliegenden Arbeit deuten darauf hin, dass die Serotonin-Rezeptoren in verschiedenen Regionen des ZNS der Honigbiene an der Informationsverarbeitung beteiligt sind. Es kann eine Beeinflussung von Lern- und Gedächtnisprozessen sowie des olfaktorischen und visuellen Systems durch diese Rezeptoren vermutet werden. Mit der Klonierung und funktionellen Charakterisierung des ersten Serotonin-Rezeptors der Honigbiene ist eine Grundlage für die Untersuchung der molekularen Mechanismen der serotonergen Signaltransduktion geschaffen worden.
Die vorliegende Arbeit beschäftigte sich mit zwei Themengebieten. Es ging zum einen um die mechanischen Eigenschaften von Polyelektrolythohlkapseln und zum anderen um die Adhäsion von Polyelektrolythohlkapseln. Die mechanischen Eigenschaften wurden mit der AFM „colloidal probe” Technik untersucht. Dabei zeigte sich, dass die Kraftdeformationskurven für kleine Deformationen den nach der Schalentheorie vorhergesagten linearen Verlauf haben. Ebenso wurde die quadratische Abhängigkeit der Federkonstanten von der Dicke bestätigt. Für PAH/PSS findet man einen E-Modul von 0.25 GPa. Zusammen mit der Tatsache, dass die Deformationskurven unabhängig von der Geschwindigkeit sind und praktisch keine Hysterese zeigen, sowie der Möglichkeit die Kapseln plastisch zu deformieren, kann man schließen, dass das System in einem glasartigen Zustand vorliegt. <pt>Erwartungsgemäß zeigte der pH einen starken Einfluss auf die PEM. Während in einem pH-Bereich zwischen 2 und 11.5 keine morphologischen Änderungen festgestellt werden konnten, vergrößerte sich der Radius bei pH = 12 um bis zu 50 %. Diese Radienänderung war reversibel und ging einher mit einem sichtbaren Weicherwerden der Kapseln. Eine Abnahme des E-Moduls um mindestens drei Größenordungen wurde durch Kraftdeformationsmessungen bestätigt. Die Kraftdeformationskurven zeigen eine starke Hysterese. Das System befindet sich nun nicht mehr in einem glasartigen Zustand, sondern ist viskos bis gummiartig geworden. Messungen an Kapseln, die mit Glutardialdehyd behandelt wurden, zeigten, dass die Behandlung das pH-abhängige Verhalten verändert. Dies kann darauf zurückgeführt werden, dass das PAH durch den Glutardialdehyd quervernetzt wird. Bei einem hohen Quervernetzungsgrad, zeigen die Kapseln keine Änderung des mechanischen Verhaltens bei pH = 12. Schwach quervernetzte Kapseln werden immer noch signifikant weicher bei pH = 12, jedoch ändert sich der Radius nicht. Außerdem wurden Multilagenkapseln untersucht, deren Stabilität nicht auf elektrostatischen Wechselwirkungen sondern auf Wasserstoffbrückenbindungen beruhte. Diese Kapseln zeigten eine deutlich höhere Steifigkeit mit E-Modulen bis zu 1 GPa. Es wurde gefunden, dass auch dieses System für kleine Deformationen ein lineares Kraft-Deformationsverhalten zeigt, und dass die Federkonstante quadratisch von der Dicke abhängt. Die Kapseln lösen sich praktisch sofort bei pH = 6.5 auf. In der Nähe dieses pHs konnte das Abnehmen der Federkonstanten verfolgt werden. Außerdem wurde das Adhäsionsverhalten von PAH/PSS Kapseln auf mit PEI-beschichtetem Glas untersucht. Die Adhäsionsflächen waren zu einem großen Teil rund und ließen sich quantitativ auswerten. Der Adhäsionsradius nimmt mit dem Kapselradius zu und mit der Dicke ab. Das Verhalten konnte mit zwei Modellen, einem für die große und einem für die kleine Deformation beschrieben werden. Das große Deformationsmodell liefert um eine Größenordung niedrigere Adhäsionsenergien als das kleine Deformationsmodell, welches mit Werten von ‑0.2 mJ/m<sup>2 Werte in einem plausiblen Bereich liefert. Es wurde gefunden, dass bei einem Verhältnis von Dicke zu Deformation von etwa eins "buckling" auftritt. Dieser Punkt markierte zugleich den Übergang von der großen zur kleinen Deformation.
Neolignans, dehydrodimers of phenylpropenes, are natural products that exhibit different biological activities. 8,5’-Neolignans containing a trans- dihydrobenzofuran skeleton are the most abundant neolignans in nature. The published syntheses of trans-dihydrobenzofurans are multistep procedures that are time consuming and provide the product in low yield. Furthermore, all dimerisation reactions either in the presence of enzymes or mediated by metal salts are yielding dimers consisting of two units of the same phenylpropene compound, narrowing substantially the substitution pattern. Two different general synthetic approaches were examined. The first strategy was the enantioselective deprotonation at the α-carbon of the ο-alkyl phenols in the presence of a chiral diamine and sBuLi. Synthesis of several new phosphorous-based directed ortho-metalation groups was studied. The examined compounds having these new groups decomposed even under very mild reaction conditions and are not suitable for the application in the synthesis. The second strategy was to examine one [3+2] cycloaddition reaction, transition metal catalysed Heck oxyarylation reaction, in the synthetic approach to compounds having trans-dihydrobenzofuran skeleton. Palladium catalysed Heck oxyarylation reaction with halogenophenols or ortho-diazonium phenols as the starting material allowed the trans-dihydrobenzofuran compounds as the major products in acceptable yield and in one step. The products were formed under ligand free condition, as well as in the presence of some strong coordinating ligands (Ph3P). The experiments with several chiral ligands, showed that the obtained trans-dihydrobenzofurans were racemic mixtures. This result suggests formation of an achiral intermediate along the reaction pathway, which causes the lack of stereoselectivity in the products. Initially formed trans-dihydrobenzofuran compounds are the key precursors of many naturally occurring neolignans, and can be easily converted to 8,5’-neolignan derivatives.
Unter atmosphärischen Zirkulationsregimen versteht man bevorzugte quasi-stationäre Zustände der atmosphärischen Zirkulation auf der planetaren Skala, die für eine bis mehrere Wochen persistieren können. Klimaänderungen, ob natürlich entstanden oder anthropogen verursacht, äußern sich in erster Linie durch Änderungen der Auftrittswahrscheinlichkeiten der natürlichen Regime. In der vorliegenden Arbeit wurden dynamische Mechanismen des Regimeverhaltens und der dekadischen Klimavariabilität der Atmosphäre bei Abwesenheit zeitlich veränderlicher externer Einflussfaktoren untersucht. Das Hauptwerkzeug dafür war ein quasi-geostrophisches Dreischichtenmodell der winterlichen atmosphärischen Zirkulation auf der Nordhemisphäre, das eine spektrale T21-Auflösung, einen orographischen und einen zeitlich konstanten thermischen Antrieb mit nicht-zonalen Anteilen besitzt. Ein solches Modell vermag großskalige atmosphärische Strömungsvorgänge außerhalb der Tropen mit einiger Genauigkeit zu simulieren. Nicht berücksichtigt werden Feuchteprozesse, die Wechselwirkung der Atmosphäre mit anderen Teilen des Klimasystems sowie anthropogene Einflüsse. Für das Dreischichtenmodell wurde ein automatisiertes, iteratives Verfahren zur Anpassung des thermischen Modellantriebs neu entwickelt. Jede Iteration des Verfahrens besteht aus einer Testintegration des Modells, ihrer Auswertung, dem Vergleich der Ergebnisse mit den NCEP-NCAR-Reanalysedaten aus den Wintermonaten Dezember, Januar und Februar sowie einer auf diesem Vergleich basierenden Antriebskorrektur. Nach Konvergenz des Verfahrens stimmt das Modell sowohl bezüglich des zonal gemittelten Klimazustandes als auch bezüglich der zeitgemittelten nicht-zonalen außertropischen diabatischen Erwärmung nahezu perfekt mit den wintergemittelten Reanalysedaten überein. In einer 1000-jährigen Simulation wurden die beobachtete mittlere Zirkulation im Winter sowie ihre Variabilität realitätsnah reproduziert, insbesondere die Arktische Oszillation (AO) und ihre vertikale Ausdehnung. Der AO-Index des Modells weist deutliche dekadische Schwankungen auf, die allein durch die interne Modelldynamik bedingt sind. Darüber hinaus zeigt das Modell ein Regimeverhalten, das gut mit den Beobachtungsdaten übereintimmt. Es besitzt ein Regime, das in etwa der negativen Phase der Nordatlantischen Oszillation (NAO) entspricht und eines, das der positiven Phase der AO ähnelt. Eine weit verbreitete Hypothese ist die näherungsweise Übereinstimmung zwischen Regimen und stationären Lösungen der Bewegungsgleichungen. In der vorliegenden Arbeit wurde diese Hypothese für das Dreischichtenmodell überprüft, mit negativem Resultat. Es wurden mittels eines Funktionalminimierungsverfahrens sechs verschiedene stationäre Zustände gefunden. Diese sind allesamt durch eine äußerst unrealistische Zirkulation gekennzeichnet und sind daher weit vom Modellattraktor entfernt. Fünf der sechs Zustände zeichnen sich durch einen extrem starken subtropischen Jet in der mittleren und obereren Modellschicht aus. Da die Ursache des Regimeverhaltens des Dreischichtenmodells nach wie vor unklar war, wurde auf ein einfacheres Modell, nämlich ein barotropes Modell mit T21-Auflösung zurückgegriffen. Für die Anpassung des Oberflächenantriebs wurde eine modifizierte Form der iterativen Prozedur verwendet. Die zeitgemittelte Zirkulation des barotropen Modells stimmt sehr gut mit der zeitlich und vertikal gemittelten Zirkulation des Dreischichtenmodells überein. Das dominierende räumliche Muster der Variabilität besitzt eine AO-ähnliche Struktur. Zudem besitzt das barotrope Modell zwei Regime, die näherungsweise der positiven und negativen Phase der AO entsprechen und somit auch den Regimen des Dreischichtenmodells ähneln. Im Verlauf der Justierung des Oberflächenantriebs konnte beobachtet werden, dass die zwei Regime des barotropen Modells durch die Vereinigung zweier koexistierender Attraktoren entstanden. Der wahrscheinliche Mechanismus der Attraktorvereinigung ist eine Randkrise eines der beiden Attraktoren, gefolgt von einer explosiven Bifurkation des anderen Attraktors. Es wird die Hypothese aufgestellt, dass der beim barotropen Modell vorgefundene Mechanismus der Regimeentstehung für atmosphärische Zirkulationsmodelle mit realitätsnahem Regimeverhalten Allgemeingültigkeit besitzt. Gestützt wird die Hypothese durch vier Experimente mit dem Dreischichtenmodell, bei denen jeweils der Parameter der Bodenreibung verringert und die Antriebsanpassung wiederholt wurde. Bei diesen Experimenten erhöhte sich die Persistenz und die Separiertheit der Regime bei abnehmender Reibung drastisch und damit auch der Anteil dekadischer Zeitskalen an der Variabilität. Die Zunahme der Persistenz der Regime ist charakteristisch für die Annäherung an eine inverse innere Krise, deren Existenz aber nicht nachgewiesen werden konnte.
Die trainingswissenschaftliche Diagnostik in den Kernbereichen Training, Wettkampf und Leistungsfähigkeit ist durch einen hohen Praxisbezug, eine ausgeprägte strukturelle Komplexität und vielseitige Wechselwirkungen der sportwissenschaftlichen Teilgebiete geprägt. Diese Eigenschaften haben in der Vergangenheit dazu geführt, dass zentrale Fragestellungen, wie beispielsweise die Maximierung der sportlichen Leistungsfähigkeit, eine ökonomische Trainingsgestaltung, eine effektive Talentauswahl und -sichtung oder die Modellbildung noch nicht vollständig gelöst werden konnten. Neben den bereits vorhandenen linearen Lösungsansätzen werden in dieser Arbeit Methoden aus dem Bereich der Neuronalen Netzwerke eingesetzt. Diese nichtlinearen Diagnoseverfahren sind besonders geeignet für die Analyse von Prozessabläufen, wie sie beispielsweise im Training vorliegen. Im theoretischen Teil werden zunächst Gemeinsamkeiten, Abhängigkeiten und Unterschiede in den Bereichen Training, Wettkampf und Leistungsfähigkeit untersucht sowie die Brücke zwischen trainingswissenschaftlicher Diagnostik und nichtlinearen Verfahren über die Begriffe der Interdisziplinarität und Integrativität geschlagen. Angelehnt an die Theorie der Neuronalen Netze werden anschließend die Grundlagenmodelle Perzeptron, Multilayer-Perzeptron und Selbstorganisierende Karten theoretisch erläutert. Im empirischen Teil stehen dann die nichtlineare Analyse von personalen Anforderungsstrukturen, Zustände der sportlichen Form und die Prognose sportlichen Talents - allesamt bei jugendlichen Leistungsschwimmerinnen und -schwimmern - im Mittelpunkt. Die nichtlinearen Methoden werden dabei einerseits auf ihre wissenschaftliche Aussagekraft überprüft, andererseits untereinander sowie mit linearen Verfahren verglichen.
In this work, the nonaqueous synthesis of binary and ternary metal oxide nanoparticles is investigated for a number of technologically important materials. A strong focus was put on studying the reaction mechanisms leading to particle formation upon solvothermal treatment of the precursors, as an understanding of the formation processes is expected to be crucial for a better control of the systems, offering the potential to tailor particle size and morphology. The synthesis of BaTiO3 was achieved by solvothermal reaction of metallic barium and titanium isopropoxide in organic solvents. Phase-pure, highly crystalline particles about 6 nm in size resulted in benzyl alcohol, whereas larger particles could be obtained in ketones such as acetone or acetophenone. In benzyl alcohol, a novel mechanism was found to lead to BaTiO3, involving a C–C coupling step between the isopropoxide ligand and the benzylic carbon of the solvent. The resulting coupling product, 4-phenyl-2-butanol, is found in almost stoichiometric yield. The particle formation in ketones proceeds via a Ti-mediated aldol condensation of the solvent, involving formal elimination of water which induces formation of the oxide. These processes also occurred when reacting solely the titanium alkoxide with ketones or aldehydes, leading to highly crystalline anatase nanoparticles for all tested solvents. In ketones, also the synthesis of nanopowders of lead zirconate titanate (PZT) was achieved, which were initially amorphous but could be crystallized by calcination at moderate temperatures. Additionally, PZT films were prepared by simply casting a suspension of the powder onto Si substrates followed by calcination.Solvothermal synthesis however is not restricted to alkoxides as precursors but is also achieved from metal acetylacetonates. The use of benzylamine as solvent proved particularly versatile, making possible the synthesis of nanocrystalline In2O3, Ga2O3, ZnO and iron oxide from the respective acetylacetonates. During the synthesis, the acetylacetonate ligand undergoes a solvolysis under C–C cleavage, resulting in metal-bound enolate ligands which, in analogy to the synthesis in ketones, induce ketimine and aldol condensation reactions. In the last section of this work, surface functionalization of anatase nanoparticles is explored. The particles were first capped with various organic ligands via a facile in situ route, which resulted in altered properties such as enhanced dispersibility in various solvents. In a second step, short functional oligopeptide segments were attached to the particles by means of a catechol linker to achieve advanced self-assembly properties.
Nitrogen is an essential macronutrient for plants and nitrogen fertilizers are indispensable for modern agriculture. Unfortunately, we know too little about how plants regulate their use of soil nitrogen, to maximize fertilizers-N use by crops and pastures. This project took a dual approach, involving forward and reverse genetics, to identify N-regulators in plants, which may prove useful in the future to improve nitrogen-use efficiency in agriculture. To identify nitrogen-regulated transcription factor genes in Arabidopsis that may control N-use efficiency we developed a unique resource for qRT-PCR measurements on all Arabidpsis transcription factor genes. Using closely spaced, gene-specific primer pairs and SYBR® Green to monitor amplification of double-stranded DNA, transcript levels of 83% of all target genes could be measured in roots or shoots of young Arabidopsis wild-type plants. Only 4% of reactions produced non-specific PCR products, and 13% of TF transcripts were undetectable in these organs. Measurements of transcript abundance were quantitative over six orders of magnitude, with a detection limit equivalent to one transcript molecule in 1000 cells. Transcript levels for different TF genes ranged between 0.001-100 copies per cell. Real-time RT-PCR revealed 26 root-specific and 39 shoot-specific TF genes, most of which have not been identified as organ-specific previously. An enlarged and improved version of the TF qRT-PCR platform contains now primer pairs for 2256 Arabidopsis TF genes, representing 53 gene families and sub-families arrayed on six 384-well plates. Set-up of real-time PCR reactions is now fully robotized. One researcher is able to measure expression of all 2256 TF genes in a single biological sample in a just one working day. The Arabidopsis qRT-PCT platform was successfully used to identify 37 TF genes which transcriptionaly responded at the transcriptional level to N-deprivation or to nitrate per se. Most of these genes have not been characterized previously. Further selection of TF genes based on the responses of selected candidates to other macronutrients and abiotic stresses allowed to distinguish between TFs regulated (i) specifically by nitrogen (29 genes) (ii) regulated by general macronutrient or by salt and osmotic stress (6 genes), and (iii) responding to all major macronutrients and to abiotic stresses. Most of the N-regulated TF genes were also regulated by carbon. Further characterization of sixteen selected TF genes, revealed: (i) lack of transcriptional response to organic nitrogen, (ii) two major types of kinetics of induction by nitrate, (iii) specific responses for the majority of the genes to nitrate but not downstream products of nitrate assimilation. All sixteen TF genes were cloned into binary vectors for constitutive and ethanol inducible over expression, and the first generation of transgenic plants were obtained for almost all of them. Some of the plants constitutively over expressing TF genes under control of the 35S promoter revealed visible phenotypes in T1 generation. Homozygous T-DNA knock out lines were also obtained for many of the candidate TF genes. So far, one knock out line revealed a visible phenotype: retardation of flowering time. A forward genetic approach using an Arabidopsis ATNRT2.1 promoter : Luciferase reporter line, resulted in identification of eleven EMS mutant reporter lines affected in induction of ATNRT2.1 expression by nitrate. These lines could by divided in the following classes according to expression of other genes involved in primary nitrogen and carbon metabolism: (i) lines affected exclusively in nitrate transport, (ii) those affected in nitrate transport, acquisition, but also in glycolysis and oxidative pentose pathway, (iii) mutants affected moderately in nitrate transport, oxidative pentose pathway and glycolysis but not in primary nitrate assimilation. Thus, several different N-regulatory genes may have been mutated in this set of mutants. Map-based cloning has begun to identify the genes affected in these mutants.
In the present work, we discuss two subjects related to the nonequilibrium dynamics of polymers or biological filaments adsorbed to two-dimensional substrates. The first part is dedicated to thermally activated dynamics of polymers on structured substrates in the presence or absence of a driving force. The structured substrate is represented by double-well or periodic potentials. We consider both homogeneous and point driving forces. Point-like driving forces can be realized in single molecule manipulation by atomic force microscopy tips. Uniform driving forces can be generated by hydrodynamic flow or by electric fields for charged polymers. In the second part, we consider collective filament motion in motility assays for motor proteins, where filaments glide over a motor-coated substrate. The model for the simulation of the filament dynamics contains interactive deformable filaments that move under the influence of forces from molecular motors and thermal noise. Motor tails are attached to the substrate and modeled as flexible polymers (entropic springs), motor heads perform a directed walk with a given force-velocity relation. We study the collective filament dynamics and pattern formation as a function of the motor and filament density, the force-velocity characteristics, the detachment rate of motor proteins and the filament interaction. In particular, the formation and statistics of filament patterns such as nematic ordering due to motor activity or clusters due to blocking effects are investigated. Our results are experimentally accessible and possible experimental realizations are discussed.
The Reversible Addition Fragmentation Chain Transfer (RAFT) process using the new RAFT agent benzyldithiophenyl acetate is shown to be a powerful polymerization tool to synthesize novel well-defined amphiphilic diblock copolymers composed of the constant hydrophobic block poly(butyl acrylate) and of 6 different hydrophilic blocks with various polarities, namely a series of non-ionic, non-ionic comb-like, anionic and cationic hydrophilic blocks. The controlled character of the polymerizations was supported by the linear increase of the molar masses with conversion, monomodal molar mass distributions with low polydispersities and high degrees of end-group functionalization. The new macro-surfactants form micelles in water, whose size and geometry strongly depend on their composition, according to dynamic and static light scattering measurements. The micellization is shown to be thermodynamically favored, due to the high incompatibility of the blocks as indicated by thermal analysis of the block copolymers in bulk. The thermodynamic state in solution is found to be in the strong or super strong segregation limit. Nevertheless, due to the low glass transition temperature of the core-forming block, unimer exchange occurs between the micelles. Despite the dynamic character of the polymeric micellar systems, the aggregation behavior is strongly dependent on the history of the sample, i.e., on the preparation conditions. The aqueous micelles exhibit high stability upon temperature cycles, except for an irreversibly precipitating block copolymer containing a hydrophilic block exhibiting a lower critical solution temperature (LCST). Their exceptional stability upon dilution indicates very low critical micelle concentrations (CMC) (below 4∙10<sup>-4 g∙L<sup>-1). All non-ionic copolymers with sufficiently long solvophobic blocks aggregated into direct micelles in DMSO, too. Additionally, a new low-toxic highly hydrophilic sulfoxide block enables the formation of inverse micelles in organic solvents. The high potential of the new polymeric surfactants for many applications is demonstrated, in comparison to reference surfactants. The diblock copolymers are weakly surface-active, as indicated by the graduate decrease of the surface tension of their aqueous solutions with increasing concentration. No CMC could be detected. Their surface properties at the air/water interface confer anti-foaming properties. The macro-surfactants synthesized are surface-active at the interface between two liquid phases, too, since they are able to stabilize emulsions. The polymeric micelles are shown to exhibit a high ability to solubilize hydrophobic substances in water.
In recent years, the aim of supramolecular syntheses is not only the creation of particular structures but also the introduction of specific functions in these supramolecules. The present work describes the use of the ionic self-assembly (ISA) route to generate nanostructured materials with integrated functionality. Since the ISA strategy has proved to be a facile method for the production of liquid-crystalline materials, we investigated the phase behaviour, physical properties and function of a variety of ISA materials comprising a perylene derivative as the employed oligoelectrolyte. Functionality was introduced into the materials through the use of functional surfactants. In order to meet the requirements to produce functional ISA materials through the use of functional surfactants, we designed and synthesized pyrrole-derived monomers as surfactant building blocks. Owing to the presence of the pyrrole moiety, these surfactants are not only polymerizable but are also potentially conductive when polymerized. We adopted single-tailed and double-tailed N-substituted pyrrole monomers as target molecules. Since routine characterization analysis of the double-tailed pyrrole-containing surfactant indicated very interesting, complex phase behaviour, a comprehensive investigation of its interfacial properties and mesophase behavior was conducted. The synthesized pyrrole-derived surfactants were then employed in the synthesis of ISA complexes. The self-assembled materials were characterized and subsequently polymerized by both chemical and electrochemical methods. The changes in the structure and properties of the materials caused by the in-situ polymerization were addressed. In the second part of this work, the motif investigated was a property rather than a function. Since chiral superstructures have obtained much attention during the last few years, we investigated the possibility of chiral ISA materials through the use of chiral surfactants. Thus, the work involved synthesis of novel chiral surfactants and their incorporation in ISA materials with the aim of obtaining ionically self-assembled chiral superstructures. The results and insights presented here suggest that the presented synthesis strategy can be easily extended to incorporate any kind of charged tectonic unit with desired optical, electrical, or magnetic properties into supramolecular assemblies for practical applications.
Als Resultat überhöhter Energieaufnahme und zu geringen Energieverbrauchs beobachten wir eine über das normale Maß hinausgehende Akkumulation von Fettgewebe, die sich als Adipositas manifestiert. Sie gilt als einer der Hauptrisikofaktoren für Krankheiten des metabolischen Syndroms. Im Rahmen von Prävention, Diagnose und Therapie der Adipositas, muss ihr wesentliches Charakteristikum; der individuelle Körperfettanteil; einer Messung zugänglich gemacht werden. Eine direkte Bestimmung der Körperzusammensetzung erlauben die Neutronenaktivierungsanalyse und die chemische Analyse. Beide Verfahren sind sehr genau, aber aufwendig und kostenintensiv und darüber hinaus die chemische Analyse nur am menschlichen Cadaver praktizierbar. Um dennoch die Körperzusammensetzung hinreichend genau bestimmen zu können, wurden zahlreiche indirekte Messverfahren entwickelt. Man kann sie in Labor- und Feldmethoden untergliedern. Die Labormethoden bestechen durch hohe Genauigkeit und Reproduzierbarkeit, sind aber zumeist aufwendig und teuer. Feldmethoden sind im Gegensatz dazu leicht anwendbar, transportabel und preiswert, weisen aber eine weniger hohe Genauigkeit und Reproduzierbarkeit auf. In der vorgestellten Arbeit wird über eine jüngere Entwicklung, die das Prinzip der unterschiedlichen Leitfähigkeit für den elektrischen Strom durch die verschiedenen Gewebe des Körpers nutzt, berichtet. Der Prototyp eines Gerätes wurde innerhalb eines von der EU geförderten multizentrischen Projekts entwickelt und auf seine Einsatzfähigkeit und Qualität hin geprüft. Der Schwerpunkt der Arbeit liegt auf der Einschätzung der Körperzusammensetzung normal- und übergewichtiger Probanden mit der neu entwickelten Technik. Das vorliegende Studiendesign diente nicht nur der Beurteilung der neuen Technik die Körperzusammensetzung und Veränderungen dieser zu erfassen, sondern darüber hinaus, etablierte Methoden hinsichtlich ihrer Genauigkeit zu bewerten. Bezüglich ihrer Anwendbarkeit und Reproduzierbarkeit hat die neue Methode Hoffnung geweckt, sich als eine Feldmethode zu etablieren. Auf der anderen Seite zeigte sich in Abhängigkeit der Gesamtkörperfettmasse eine Überschätzung der Zielgröße im Vergleich zur Referenzmethode (dual energy x ray absorptiometry (DXA)). Die Abweichungen waren dabei gerade für das einzelne Individuum sehr groß. Technische Verbesserungen und die Entwicklung spezifischer Regressionsgleichungen könnten in Zukunft zu einer wesentlichen Verbesserung der neuen Methode beitragen. Die Labormethode "Air Displacement Plethysmography" konnte durch die guten Übereinstimmungen der Ergebnisse mit denen der Referenzmethode DXA und die einfache Anwendung überzeugen. Sie stellt eine durchaus konkurrenzfähige Alternative zur Hydrodensitometrie dar, die noch heute als "goldener Standard" zur Erfassung der Körperzusammensetzung akzeptiert wird. Im Verlauf der durchgeführten Studie stellte sich heraus, dass die Hydrodensitometrie sehr hohe Anforderungen an den Probanden stellt. Das Untertauchen des gesamten Körpers unter Wasser in Kombination mit einer maximalen Ausatmung erwies sich als sehr problematisch. Die dabei auftretenden Fehler schlugen sich in der Berechnung der Gesamtkörperfettmasse des einzelnen Individuums wieder und führten zu zum Teil erheblichen Abweichungen der Ergebnisse von denen der Referenzmethode. Die Feldmethoden bioelektrische Impedanzanalyse und Hautfaltendickenmessung erwiesen sich als kostengünstige und leicht anwendbare Methoden. Die Ergebnisse beider Methoden stimmten im Mittel gut mit den Ergebnissen der Referenzmethoden überein. Dennoch zeigte die BIA größere Abstriche in der Beurteilung der Gesamtkörperfettmasse des einzelnen Individuums und bei der Dokumentation von Veränderungen der Gesamtkörperfettmasse. Die Hautfaltendickenmessung stellt – wendet man sie korrekt an – eine Methode dar, die sowohl die Gesamtkörperfettmasse als auch Veränderungen dieser gut erfassen kann. In Abhängigkeit der geforderten Genauigkeit kann diese Methode für die Erfassung der Körperzusammensetzung empfohlen werden. Demnach bleibt die Frage unbeantwortet, inwieweit die indirekten Methoden in der Lage sind, die "wahre" Körperzusammensetzung adäquat zu erfassen. Jede neu entwickelte Methode – die möglichst viele Vorteile in sich vereint – wird wieder vor dem Problem stehen: eine geeignete und dabei praktikable Referenzmethode zu finden, die die wahre Körperzusammensetzung zu bestimmen in der Lage ist. Daher sollte neben dem Streben nach der Entwicklung einer Methode, die genau und leicht anwendbar ist, das Hauptaugenmerk auf die Überarbeitung der zugrunde liegenden Modellvorstellungen und die Verbesserung von Regressionsgleichungen gelegt werden.
Collisions of black holes and neutron stars, named mixed binaries in the following, are interesting because of at least two reasons. Firstly, it is expected that they emit a large amount of energy as gravitational waves, which could be measured by new detectors. The form of those waves is expected to carry information about the internal structure of such systems. Secondly, collisions of such objects are the prime suspects of short gamma ray bursts. The exact mechanism for the energy emission is unknown so far. In the past, Newtonian theory of gravitation and modifications to it were often used for numerical simulations of collisions of mixed binary systems. However, near to such objects, the gravitational forces are so strong, that the use of General Relativity is necessary for accurate predictions. There are a lot of problems in general relativistic simulations. However, systems of two neutron stars and systems of two black holes have been studies extensively in the past and a lot of those problems have been solved. One of the remaining problems so far has been the use of hydrodynamic on excision boundaries. Inside excision regions, no evolution is carried out. Such regions are often used inside black holes to circumvent instabilities of the numerical methods near the singularity. Methods to handle hydrodynamics at such boundaries have been described and tests are shown in this work. One important test and the first application of those methods has been the simulation of a collapsing neutron star to a black hole. The success of these simulations and in particular the performance of the excision methods was an important step towards simulations of mixed binaries. Initial data are necessary for every numerical simulation. However, the creation of such initial data for general relativistic situations is in general very complicated. In this work it is shown how to obtain initial data for mixed binary systems using an already existing method for initial data of two black holes. These initial data have been used for evolutions of such systems and problems encountered are discussed in this work. One of the problems are instabilities due to different methods, which could be solved by dissipation of appropriate strength. Another problem is the expected drift of the black hole towards the neutron star. It is shown, that this can be solved by using special gauge conditions, which prevent the black hole from moving on the computational grid. The methods and simulations shown in this work are only the starting step for a much more detailed study of mixed binary system. Better methods, models and simulations with higher resolution and even better gauge conditions will be focus of future work. It is expected that such detailed studies can give information about the emitted gravitational waves, which is important in view of the newly built gravitational wave detectors. In addition, these simulations could give insight into the processes responsible for short gamma ray bursts.
In this thesis, we give two constructions for Riemannian metrics on Seiberg-Witten moduli spaces. Both these constructions are naturally induced from the L2-metric on the configuration space. The construction of the so called quotient L2-metric is very similar to the one construction of an L2-metric on Yang-Mills moduli spaces as given by Groisser and Parker. To construct a Riemannian metric on the total space of the Seiberg-Witten bundle in a similar way, we define the reduced gauge group as a subgroup of the gauge group. We show, that the quotient of the premoduli space by the reduced gauge group is isomorphic as a U(1)-bundle to the quotient of the premoduli space by the based gauge group. The total space of this new representation of the Seiberg-Witten bundle carries a natural quotient L2-metric, and the bundle projection is a Riemannian submersion with respect to these metrics. We compute explicit formulae for the sectional curvature of the moduli space in terms of Green operators of the elliptic complex associated with a monopole. Further, we construct a Riemannian metric on the cobordism between moduli spaces for different perturbations. The second construction of a Riemannian metric on the moduli space uses a canonical global gauge fixing, which represents the total space of the Seiberg-Witten bundle as a finite dimensional submanifold of the configuration space. We consider the Seiberg-Witten moduli space on a simply connected Käuhler surface. We show that the moduli space (when nonempty) is a complex projective space, if the perturbation does not admit reducible monpoles, and that the moduli space consists of a single point otherwise. The Seiberg-Witten bundle can then be identified with the Hopf fibration. On the complex projective plane with a special Spin-C structure, our Riemannian metrics on the moduli space are Fubini-Study metrics. Correspondingly, the metrics on the total space of the Seiberg-Witten bundle are Berger metrics. We show that the diameter of the moduli space shrinks to 0 when the perturbation approaches the wall of reducible perturbations. Finally we show, that the quotient L2-metric on the Seiberg-Witten moduli space on a Kähler surface is a Kähler metric.
Die Dissertation stellt eine neue Herangehensweise an die Lösung der Aufgabe der funktionalen Diagnostik digitaler Systeme vor. In dieser Arbeit wird eine neue Methode für die Fehlererkennung vorgeschlagen, basierend auf der Logischen Ergänzung und der Verwendung von Berger-Codes und dem 1-aus-3 Code. Die neue Fehlererkennungsmethode der Logischen Ergänzung gestattet einen hohen Optimierungsgrad der benötigten Realisationsfläche der konstruierten Fehlererkennungsschaltungen. Außerdem ist eins der wichtigen in dieser Dissertation gelösten Probleme die Synthese vollständig selbstprüfender Schaltungen.
We investigate the rotational and thermal properties of star-forming molecular clouds using hydrodynamic simulations. Stars form from molecular cloud cores by gravoturbulent fragmentation. Understanding the angular momentum and the thermal evolution of cloud cores thus plays a fundamental role in completing the theoretical picture of star formation. This is true not only for current star formation as observed in regions like the Orion nebula or the ρ-Ophiuchi molecular cloud but also for the formation of stars of the first or second generation in the universe. In this thesis we show how the angular momentum of prestellar and protostellar cores evolves and compare our results with observed quantities. The specific angular momentum of prestellar cores in our models agree remarkably well with observations of cloud cores. Some prestellar cores go into collapse to build up stars and stellar systems. The resulting protostellar objects have specific angular momenta that fall into the range of observed binaries. We find that collapse induced by gravoturbulent fragmentation is accompanied by a substantial loss of specific angular momentum. This eases the "angular momentum problem" in star formation even in the absence of magnetic fields. The distribution of stellar masses at birth (the initial mass function, IMF) is another aspect that any theory of star formation must explain. We focus on the influence of the thermodynamic properties of star-forming gas and address this issue by studying the effects of a piecewise polytropic equation of state on the formation of stellar clusters. We increase the polytropic exponent γ from a value below unity to a value above unity at a certain critical density. The change of the thermodynamic state at the critical density selects a characteristic mass scale for fragmentation, which we relate to the peak of the IMF observed in the solar neighborhood. Our investigation generally supports the idea that the distribution of stellar masses depends mainly on the thermodynamic state of the gas. A common assumption is that the chemical evolution of the star-forming gas can be decoupled from its dynamical evolution, with the former never affecting the latter. Although justified in some circumstances, this assumption is not true in every case. In particular, in low-metallicity gas the timescales for reaching the chemical equilibrium are comparable or larger than the dynamical timescales. In this thesis we take a first approach to combine a chemical network with a hydrodynamical code in order to study the influence of low levels of metal enrichment on the cooling and collapse of ionized gas in small protogalactic halos. Our initial conditions represent protogalaxies forming within a fossil HII region -- a previously ionized HII region which has not yet had time to cool and recombine. We show that in these regions, H2 is the dominant and most effective coolant, and that it is the amount of H2 formed that controls whether or not the gas can collapse and form stars. For metallicities Z <= 10<sup>-3 Zsun, metal line cooling alters the density and temperature evolution of the gas by less than 1% compared to the metal-free case at densities below 1 cm<sup>-3 and temperatures above 2000 K. We also find that an external ultraviolet background delays or suppresses the cooling and collapse of the gas regardless of whether it is metal-enriched or not. Finally, we study the dependence of this process on redshift and mass of the dark matter halo.
Strong damped Lyman alpha absorption (DLA) lines seen spectra of distant quasar are believed to arise when the sight line to the quasar goes trough the disc of a galaxy or a proto galaxy. Most of the neutral matter in the universe is contained in these clouds of neutral hydrogen that cause the absorption lines. Hence these DLAs are reservoirs for the formation of stars and galaxies throughout the universe. Despite intensive efforts over more than two decades only few galaxies responsible for the DLAs have been found. The problem is that the galaxies that harbour the neutral clouds are not necessarily bright, and selecting galaxies based on absorption lines could well select different types of galaxies than found in large surveys. If we are to understand how galaxies form out of neutral gas clouds it is essential to locate the galaxies in which DLAs reside. This thesis explores the use of integral field spectroscopy (IFS) to observe quasars known to have strong absorption lines in their spectra. IFS allows us to obtain a spectrum at many spatial points close to the quasar, thus providing images and spectroscopy simultaneously. From the imaging part, we can directly identify objects, and from the spectroscopy we can calculate the distances to the objects. When the distance of the object found in emission matches the distance to the object that cause the DLA line, we have identified the absorbing galaxy. Using this technique, we have showed that we can successfully recover a few DLA galaxies known previously from the literature. In a survey aimed to increase the number of DLA galaxies we have identified eight new candidate DLA galaxies. The projected distances from the candidates to the quasar sight lines indicate that the DLA galaxies have sizes similar to local disc galaxies. Hence our results suggest that large discs may be present when the universe was just 2 billion years old. We furthermore find no differences between the sizes of the very distant DLA galaxies and those that are not so distant. The large sizes imply that their neutral hydrogen masses are also similar to those in local galaxies, but we argue that the DLA galaxies are not necessarily as luminous as the present day disc galaxies. Taking advantage of the three-dimensional view provided by the IFS data, the second part of this thesis investigates extended emission line regions arising in the quasar neighborhood. We find that extended emission line nebulae are common around quasars, and explore the effects that may be the cause. Some quasars are known to be powerful radio emitters while others are not detected at radio wavelengths. We find that significantly larger and brighter emission line nebulae are found around the quasars which have the brightest radio emission, and in particular those that have large radio jets. The existence of the nebulae can be interpreted as an interaction of the radio jet with the surrounding medium, but we can not rule out a scenario where there are density or temperature differences in the surrounding environment. Only for the brightest object, where additional velocity information can be derived from the IFS data, can we argue for an interaction. In conclusion the use of IFS to search for faint emission lines, both from point sources and extended nebulae provides exciting new results within the scientific areas studied here.
At present, carbon sequestration in terrestrial ecosystems slows the growth rate of atmospheric CO2 concentrations, and thereby reduces the impact of anthropogenic fossil fuel emissions on the climate system. Changes in climate and land use affect terrestrial biosphere structure and functioning at present, and will likely impact on the terrestrial carbon balance during the coming decades - potentially providing a positive feedback to the climate system due to soil carbon releases under a warmer climate. Quantifying changes, and the associated uncertainties, in regional terrestrial carbon budgets resulting from these effects is relevant for the scientific understanding of the Earth system and for long-term climate mitigation strategies. A model describing the relevant processes that govern the terrestrial carbon cycle is a necessary tool to project regional carbon budgets into the future. This study (1) provides an extensive evaluation of the parameter-based uncertainty in model results of a leading terrestrial biosphere model, the Lund-Potsdam-Jena Dynamic Global Vegetation Model (LPJ-DGVM), against a range of observations and under climate change, thereby complementing existing studies on other aspects of model uncertainty; (2) evaluates different hypotheses to explain the age-related decline in forest growth, both from theoretical and experimental evidence, and introduces the most promising hypothesis into the model; (3) demonstrates how forest statistics can be successfully integrated with process-based modelling to provide long-term constraints on regional-scale forest carbon budget estimates for a European forest case-study; and (4) elucidates the combined effects of land-use and climate changes on the present-day and future terrestrial carbon balance over Europe for four illustrative scenarios - implemented by four general circulation models - using a comprehensive description of different land-use types within the framework of LPJ-DGVM. This study presents a way to assess and reduce uncertainty in process-based terrestrial carbon estimates on a regional scale. The results of this study demonstrate that simulated present-day land-atmosphere carbon fluxes are relatively well constrained, despite considerable uncertainty in modelled net primary production. Process-based terrestrial modelling and forest statistics are successfully combined to improve model-based estimates of vegetation carbon stocks and their change over time. Application of the advanced model for 77 European provinces shows that model-based estimates of biomass development with stand age compare favourably with forest inventory-based estimates for different tree species. Driven by historic changes in climate, atmospheric CO2 concentration, forest area and wood demand between 1948 and 2000, the model predicts European-scale, present-day age structure of forests, ratio of biomass removals to increment, and vegetation carbon sequestration rates that are consistent with inventory-based estimates. Alternative scenarios of climate and land-use change in the 21<sup>st century suggest carbon sequestration in the European terrestrial biosphere during the coming decades will likely be on magnitudes relevant to climate mitigation strategies. However, the uptake rates are small in comparison to the European emissions from fossil fuel combustion, and will likely decline towards the end of the century. Uncertainty in climate change projections is a key driver for uncertainty in simulated land-atmosphere carbon fluxes and needs to be accounted for in mitigation studies of the terrestrial biosphere.
Das Superoxidradikal kann mit fast allen Bestandteilen von Zellen reagieren und diese schädigen. Die medizinische Forschung stellte eine Beteiligung des Radikals an Krebs, Herzinfarkten und neuraler Degeneration fest. Ein empfindlicher Superoxidnachweis ist daher zum besseren Verständnis von Krankheitsverläufen wichtig. Dabei stellen die geringen typischen Konzentrationen und seine kurze Lebensdauer große Anforderungen. Ziel dieser Arbeit war es zum einen, zwei neuartige Proteinarchitekturen auf Metallelektroden zu entwickeln und deren elektrochemisches Ansprechverhalten zu charakterisieren. Zum anderen waren diese Elektroden zur empfindlichen quantitativen Superoxiddetektion einzusetzen. Im ersten Teil der Arbeit wurde eine Protein-Multischichtelektrode aus Cytochrom c und dem Polyelektrolyten Poly(anilinsulfonsäure) nach dem Layer-by-layer-Verfahren aufgebaut. Für zwei bis 15 Schichten an Protein wurde eine deutliche Zunahme an elektrodenaktivem Cytochrom c mit jedem zusätzlichen Aufbringungsschritt nachgewiesen. Die Zunahme verlief linear und ergab bei 15 Schichten eine Zunahme der redoxaktiven Proteinmenge um deutlich mehr als eine Größenordnung. Während das formale Potential im Multischichtsystem sich im Vergleich zur Monoschichtelektrode nicht veränderte, wurde für die Kinetik eine Abhängigkeit der Geschwindigkeit des Elektronentransfers von der Zahl der Proteinschichten beobachtet. Mit zunehmender Scangeschwindigkeit trat ein reversibler Kontaktverlust zu den äußeren Schichten auf. Die lineare Zunahme an elektroaktivem Protein mit steigender Zahl an Depositionsschritten unterscheidet sich deutlich von in der Literatur beschriebenen Protein/Polyelektrolyt-Multischichtelektroden, bei denen ab etwa 6-8 Schichten keine Zunahme an elektroaktivem Protein mehr festgestelltwurde. Auch ist bei diesen die Zunahme an kontaktierbaren Proteinmolekülen auf das Zwei- bis Fünffache limitiert. Diese Unterschiede des neu vorgestellten Systems zu bisherigen Multischichtassemblaten erklärt sich aus einem in dieser Arbeit für derartige Systeme erstmals beschriebenen Elektronentransfermechanismus. Der Transport von Elektronen zwischen der Elektrodenoberfläche und den Proteinmolekülen in den Schichten verläuft über einen Protein-Protein-Elektronenaustausch. Dieser Mechanismus beruht auf dem schnellen Selbstaustausch von Cytochrom c-Molekülen und einer verbleibenden Rotationsflexibilität des Proteins im Multischichtsystem. Die Reduzierung des Proteins durch das Superoxidradikal und eine anschließende Reoxidation durch die Elektrode konnten nachgewiesen werden. In einem amperometrischen Messansatz wurde das durch Superoxidradikale hervorgerufene elektrochemische Signal in Abhängigkeit von der Zahl an Proteinschichten gemessen. Ein maximales Ansprechverhalten auf das Radikal wurde mit 6-Schichtelektroden erzielt. Die Empfindlichkeit der 6-Schichtelektroden wurde im Vergleich zum Literaturwert der Monoschichtelektrode um Faktor 14, also mehr als eine Größenordnung, verbessert. Somit konnte eine Elektrode mit 6 Schichten aus Cytochrom c und Poly(anilinsulfonsäure) als neuartiger Superoxidsensor mit einer 14-fachen Verbesserung der Empfindlichkeit im Vergleich zum bislang benutzten System entwickelt werden. Der zweite Teil dieser Arbeit beschreibt die Auswahl, Gewinnung und Charakterisierung von Mutanten des Proteins Cu,Zn-Superoxiddismutase zur elektrochemischen Quantifizierung von Superoxidradikalen. Monomere Mutanten des humanen dimeren Enzyms wurden entworfen, die durch Austausch von Aminosäuren ein oder zwei zusätzliche Cysteinreste besaßen, mit welchem sie direkt auf der Goldelektrodenoberfläche chemisorbieren sollten. 6 derartige Mutanten konnten in ausreichender Menge und Reinheit in aktiver Form gewonnen werden. Die Bindung der Superoxiddismutase-Mutanten an Goldoberflächen konnte durch Oberflächen-plasmonresonanz und Impedanzspektroskopie nachgewiesen werden. Alle Mutanten wiesen einen quasi-reversiblen Elektronentransfer zwischen SOD und Elektrode auf. Durch Untersuchung von kupferfreien SOD-Mutanten sowie des Wildtyps konnte nachgewiesen werden, das die Mutanten über die eingefügten Cysteinreste auf der Elektrode chemisorptiv gebunden wurden und der Elektronentransfer zwischen der Elektrode und dem Kupfer im aktiven Zentrum der SOD erfolgte. Die Superoxiddismutase katalysiert die Zersetzung von Superoxidmolekülen durch Oxidation und durch Reduktion der Radikale. Somit sind beide Teilreaktionen von analytischem Interesse. Zyklovoltammetrisch konnte sowohl die Oxidation als auch die Reduktion des Radikals durch die immobilisierten Superoxiddismutase-Mutanten nachgewiesen werden. In amperometrischen Messanordnungen konnten beide Teilreaktionen zur analytischen Quantifizierung von Superoxidradikalen genutzt werden. Im positiven Potentialfenster wurde die Empfindlichkeit um einen Faktor von etwa 10 gegenüber der Cytochrom c–Monoschichtelektrode verbessert.
One of the most difficult issues when dealing with optical water remote-sensing is its acceptance as a useful application for environmental research. This problem is, on the one hand, concerned with the optical complexity and variability of the investigated natural media, and therefore the question arises as to the plausibility of the parameters derived from remote-sensing techniques. Detailed knowledge about the regional bio- and chemico-optical properties is required for such studies, however such information is seldom available for the sites of interest. On the other hand, the primary advantage of remote-sensing information, which is the provision of a spatial overview, may not be exploited fully by the disciplines that would benefit most from such information. It is often seen in a variety of disciplines that scientists have been primarily trained to look at discrete data sets, and therefore have no experience of incorporating information dealing with spatial heterogeneity. In this thesis, the opportunity was made available to assess the potential of Ocean Colour data to provide spatial and seasonal information about the surface waters of Lake Baikal (Siberia). While discrete limnological field data is available, the spatial extension of Lake Baikal is enormous (ca. 600 km), while the field data are limited to selected sites and expedition time windows. Therefore, this remote-sensing investigation aimed to support a multi-disciplinary limnological investigation within the framework of the paleoclimate EU-project ‘High Resolution CONTINENTal Paleoclimate Record in Lake Baikal, Siberia (CONTINENT)’ using spatial and seasonal information from the SeaWiFS satellite (NASA). From this, the SeaWiFS study evolved to become the first efficient bio-optical satellite study of Lake Baikal. During the course of three years, field work including spectral field measurements and water sampling, was carried out at Lake Baikal in Southern Siberia, and at the Mecklenburg and Brandenburg lake districts in Germany. The first step in processing the SeaWiFS satellite data involved adapting the SeaDAS (NASA) atmospheric-correction processing to match as close as possible the specific conditions of Lake Baikal. Next, various Chl-a algorithms were tested on the atmospherically-corrected optimized SeaWiFS data set (years 2001 to 2002), comparing the CONTINENT pigment ground-truth data with the Chl-a concentrations derived from the satellite data. This showed the high performance of the global Chl-a products OC2 and OC4 for the oligotrophic, transparent waters (bio-optical Case 1) of Lake Baikal. However, considerable Chl-a overestimation prevailed in bio-optical Case 2 areas for the case of discharge events. High-organic terrigenous input into Lake Baikal could be traced and information extracted using the SeaWiFS spectral data. Suspended Particulate Matter (SPM) was quantified by the regression of the SeaDAS attenuation coefficient as the optical parameter with SPM field data. Finally, the Chl-a and terrigenous input maps derived from the remote sensing data were used to assist with analyzing the relationships between the various discrete data obtained during the CONTINENT field work. Hence, plausible spatial and seasonal information describing autochthonous and allochthonous material in Lake Baikal could be provided by satellite data.Lake Baikal, with its bio-optical complexity and its different areas of Case 1 and Case 2 waters, is a very interesting case study for Ocean Colour analyses. Proposals for future Ocean Colour studies of Lake Baikal are discussed, including which bio-optical parameters for analytical models still need to be clarified by field investigations.
The Thesis is focused on the properties of self-organized nanostructures. Atomic and electronic properties of different systems have been investigated using methods of electron diffraction, scanning tunneling microscopy and photoelectron spectroscopy. Implementation of the STM technique (including design, construction, and tuning of the UHV experimental set-up) has been done in the framework of present work. This time-consuming work is reported to greater detail in the experimental part of this Thesis. The scientific part starts from the study of quantum-size effects in the electronic structure of a two-dimensional Ag film on the supporting substrate Ni(111). Distinct quantum well states in the sp-band of Ag were observed in photoelectron spectra. Analysis of thickness- and angle-dependent photoemission supplies novel information on the properties of the interface. For the first time the Ni(111) relative band gap was indirectly probed in the ground-state through the electronic structure of quantum well states in the adlayer. This is particularly important for Ni where valence electrons are strongly correlated. Comparison of the experiment with calculations performed in the formalism of the extended phase accumulation model gives the substrate gap which is fully consistent with the one obtained by ab-initio LDA calculations. It is, however, in controversy to the band structure of Ni measured directly by photoemission. These results lend credit to the simplest view of photoemission from Ni, assigning early observed contradictions between theory and experiments to electron correlation effects in the final state of photoemission. Further, nanosystems of lower dimensionality have been studied. Stepped surfaces W(331) and W(551) were used as one-dimensional model systems and as templates for self-organization of Au nanoclusters. Photon energy dependent photoemission revealed a surface resonance which was never observed before on W(110) which is the base plane of the terrace microsurfaces. The dispersion E(k) of this state measured on stepped W(331) and W(551) with angle-resolved photoelectron spectroscopy is modified by a strong umklapp effect. It appears as two parabolas shifted symmetrically relative to the microsurface normal by half of the Brillouin zone of the step superlattice. The reported results are very important for understanding of the electronic properties of low-dimensional nanostructures. It was also established that W(331) and W(551) can serve as templates for self-organization of metallic nanostructures. A combined study of electronic and atomic properties of sub-monolayer amounts of gold deposited on these templates have shown that if the substrate is slightly pre-oxidized and the temperature is elevated, then Au can alloy with the first monolayer of W. As a result, a nanostructure of uniform clusters of a surface alloy is produced all over the steps. Such clusters feature a novel sp-band in the vicinity of the Fermi level, which appears split into constant energy levels due to effects of lateral quantization. The last and main part of this work is devoted to large-scale reconstructions on surfaces and nanostructures self-assembled on top. The two-dimensional surface carbide W(110)/C-R(15x3) has been extensively investigated. Photoemission studies of quantum size effects in the electronic structure of this reconstruction, combined with an investigation of its surface geometry, lead to an advanced structural model of the carbide overlayer. It was discovered that W(110)/C-R(15x3) can control self-organization of adlayers into nanostructures with extremely different electronic and structural properties. Thus, it was established that at elevated temperature the R(15x3) superstructure controls the self-assembly of sub-monolayer amounts of Au into nm-wide nanostripes. Based on the results of core level photoemission, the R(15x3)-induced surface alloying which takes place between Au and W can be claimed as driving force of self-organization. The observed stripes exhibit a characteristic one-dimensional electronic structure with laterally quantized d-bands. Obviously, these are very important for applications, since dimensions of electronic devices have already stepped into the nm-range, where quantum-size phenomena must undoubtedly be considered. Moreover, formation of perfectly uniform molecular clusters of C60 was demonstrated and described in terms of the van der Waals formalism. It is the first experimental observation of two-dimensional fullerene nanoclusters with "magic numbers". Calculations of the cluster potentials using the static approach have revealed characteristic minima in the interaction energy. They are achieved for 4 and 7 molecules per cluster. The obtained "magic numbers" and the corresponding cluster structures are fully consistent with the results of the STM measurements.
Post-translational redox-regulation is a well-known mechanism to regulate enzymes of the Calvin cycle, oxidative pentose phosphate cycle, NADPH export and ATP synthesis in response to light. The aim of the present thesis was to investigate whether a similar mechanism is also regulating carbon storage in leaves. Previous studies have shown that the key-regulatory enzyme of starch synthesis, ADPglucose pyrophosphorylase (AGPase) is inactivated by formation of an intermolecular disulfide bridge between the two catalytic subunits (AGPB) of the heterotetrameric holoenzyme in potato tubers, but the relevance of this mechanism to regulate starch synthesis in leaves was not investigated. The work presented in this thesis shows that AGPase is subject to post-translational redox-regulation in leaves of pea, potato and Arabidopsis in response to day night changes. Light was shown to trigger posttranslational redox-regulation of AGPase. AGPB was rapidly converted from a dimer to a monomer when isolated pea chloroplasts were illuminated and from a monomer to a dimer when preilluminated leaves were darkened. Conversion of AGPB from dimer to monomer was accompanied by an increase in activity due to changes in the kinetik properties of the enzyme. Studies with pea chloroplast extracts showed that AGPase redox-activation is mediated by thioredoxins f and m from spinach in-vitro. In a further set of experiments it was shown that sugars provide a second input leading to AGPase redox activation and increased starch synthesis and that they can act as a signal which is independent from light. External feeding of sugars such as sucrose or trehalose to Arabidopsis leaves in the dark led to conversion of AGPB from dimer to monomer and to an increase in the rate of starch synthesis, while there were no significant changes in the level of 3PGA, an allosteric activator of the enyzme, and in the NADPH/NADP+ ratio. Experiments with transgenic Arabidopsis plants with altered levels of trehalose 6-phosphate (T6P), the precursor of trehalose synthesis, provided genetic evidence that T6P rather than trehalose is leading to AGPase redox-activation. Compared to Wt, leaves expressing E.coli trehalose-phosphate synthase (TPS) in the cytosol showed increased activation of AGPase and higher starch level during the day, while trehalose-phosphate phosphatase (TPP) overexpressing leaves showed the opposite. These changes occurred independently of changes in sugar and sugar-phosphate levels and NADPH/NADP+ ratio. External supply of sucrose to Wt and TPS-overexpressing leaves led to monomerisation of AGPB, while this response was attenuated in TPP expressing leaves, indicating that T6P is involved in the sucrose-dependent redox-activation of AGPase. To provide biochemical evidence that T6P promotes redox-activation of AGPase independently of cytosolic elements, T6P was fed to intact isolated chloroplasts for 15 min. incubation with concentrations down to 100 µM of T6P, but not with sucrose 6-phosphate, sucrose, trehalose or Pi as controls, significantly and specifically increased AGPB monomerisation and AGPase activity within 15 minutes, implying T6P as a signal reporting the cytosolic sugar status to the chloroplast. The response to T6P did not involve changes in the NADPH/NADP+ ratio consistent with T6P modulating redox-transfer to AGPase independently of changes in plastidial redox-state. Acetyl-CoA carboxylase (ACCase) is known as key-regulatory enzyme of fatty acid and lipid synthesis in plants. At the start of the present thesis there was mainly in vitro evidence in the literature showing redox-regulation of ACCase by DTT, and thioredoxins f and m. In the present thesis the in-vivo relevance of this mechanism to regulate lipid synthesis in leaves was investigated. ACCase activity measurement in leaf tissue collected at the end of the day and night in Arabidopsis leaves revealed a 3-fold higher activation state of the enzyme in the light than in the dark. Redox-activation was accompanied by change in kinetic properties of ACCase, leading to an increase affinity to its substrate acetyl-CoA . In further experiments, DTT as well as sucrose were fed to leaves, and both treatments led to a stimulation in the rate of lipid synthesis accompanied by redox-activation of ACCase and decrease in acetyl-CoA content. In a final approach, comparison of metabolic and transcript profiling after DTT feeding and after sucrose feeding to leaves provided evidence that redox-modification is an important regulatory mechanism in central metabolic pathways such as TCA cycle and amino acid synthesis, which acts independently of transcript levels.
In this thesis the magnetohydrodynamic jet formation and the effects of magnetic diffusion on the formation of axisymmetric protostellar jets have been investigated in three different simulation sets. The time-dependent numerical simulations have been performed, using the magnetohydrodynamic ZEUS-3D code.
Das 1817 erstmals schriftlich erwähnte Selen galt lange Zeit nur als toxisch und sogar als procancerogen, bis es 1957 von Schwarz und Foltz als essentielles Spurenelement erkannt wurde, dessen biologische Funktionen in Säugern durch Selenoproteine vermittelt werden. Die Familie der Glutathionperoxidasen nimmt hierbei eine wichtige Stellung ein. Für diese sind konkrete Funktionen und die dazugehörigen molekularen Mechanismen, welche über die von ihnen katalysierte Hydroperoxidreduktion und damit verbundene antioxidative Kapazität hinausgehen, bislang nur unzureichend beschrieben worden. Die Funktion der gastrointestinalen Glutathionperoxidase (GI-GPx) wird als Barriere gegen eine Hydroperoxidabsorption im Gastrointestinaltrakt definiert. Neuen Erkenntnissen zufolge wird die GI-GPx aber auch in verschiedenen Tumoren verstärkt exprimiert, was weitere, bis dato unbekannte, Funktionen dieses Enzymes wahrscheinlich macht. Um mögliche neue Funktionen der GI-GPx, vor allem während der Cancerogenese, abzuleiten, wurde hier die transkriptionale Regulation der GI-GPx detaillierter untersucht. Die Sequenzanalyse des humanen GI-GPx-Promotors ergab das Vorhandensein von zwei möglichen "antioxidant response elements" (ARE), bei welchen es sich um Erkennungssequenzen des Transkriptionsfaktors Nrf2 handelt. Die meisten der bekannten Nrf2-Zielgene gehören in die Gruppe der Phase-II-Enzyme und verfügen über antioxidative und/oder detoxifizierende Eigenschaften. Sowohl auf Promotorebene als auch auf mRNA- und Proteinebene konnte die Expression der GI-GPx durch typische, in der Nahrung enthaltene, Nrf2-Aktivatoren wie z.B. Sulforaphan oder Curcumin induziert werden. Eine direkte Beteiligung von Nrf2 wurde durch Cotransfektion von Nrf2 selbst bzw. von Keap1, das Nrf2 im Cytoplasma festhält, demonstriert. Somit konnte die GI-GPx eindeutig als Nrf2-Zielgen identifiziert werden. Ob sich die GI-GPx in die Gruppe der antiinflammatorischen und anticancerogenen Phase-II-Enzyme einordnen lässt, bleibt noch zu untersuchen. Die Phospholipidhydroperoxid Glutathionperoxidase (PHGPx) nimmt aufgrund ihres breiten Substratspektrums, ihrer hohen Lipophilie und ihrer Fähigkeit, Thiole zu modifizieren, eine Sonderstellung innerhalb der Familie der Glutathionperoxidasen ein. Mit Hilfe eines PHGPx-überexprimierenden Zellmodells wurden deshalb Beeinflussungen des zellulären Redoxstatus und daraus resultierende Veränderungen in der Aktivität redoxsensitiver Transkriptionsfaktorsysteme und in der Expression atheroskleroserelevanter Adhäsionsmoleküle untersucht. Als Transkriptionsfaktoren wurden NF-kB und Nrf2 ausgewählt. Die Bindung von NF-kB an sein entsprechendes responsives Element in der DNA erfordert das Vorhandensein freier Thiole, wohingegen Nrf2 durch Thiolmodifikation von Keap1 freigesetzt wird und in den Kern transloziert. Eine erhöhte Aktivität der PHGPx resultierte in einer Erhöhung des Verhältnisses von GSH zu GSSG, andererseits aber in einer verminderten Markierbarkeit freier Proteinthiole. PHGPx-Überexpression reduzierte die IL-1-induzierte NF-kB-Aktivität, die sich in einer verminderten NF-kB-DNA-Bindefähigkeit und Transaktivierungsaktivität ausdrückte. Auch war die Proliferationsrate der Zellen vermindert. Die Expression des NF-kB-regulierten vaskulären Zelladhäsionsmoleküls, VCAM-1, war ebenfalls deutlich verringert. Umgekehrt war in PHGPx-überexprimierenden Zellen eine erhöhte Nrf2-Aktivität und Expression der Nrf2-abhängigen Hämoxygenase-1 zu verzeichnen. Letzte kann für die meisten der beobachteten Effekte verantwortlich gemacht werden. Die hier dargestellten Ergebnisse verdeutlichen, dass eine Modifizierung von Proteinthiolen als wichtige Determinante für die Regulation der Expression und Funktion von Glutathionperoxidasen angesehen werden kann. Entgegen früheren Vermutungen, welche oxidative Vorgänge generell mit pathologischen Veränderungen assoziierten, scheint ein moderater oxidativer Stress, bedingt durch eine transiente Thiolmodifikation, durchaus günstige Auswirkungen zu haben, da, wie hier dargelegt, verschiedene, miteinander interagierende, cytoprotektive Mechanismen ausgelöst werden. Hieran wird deutlich, dass sich "antioxidative Wirkung" oder "oxidativer Stress" keineswegs nur auf "gute" oder "schlechte" Vorgänge beschränken lassen, sondern im Zusammenhang mit den beeinflussten (patho)physiologischen Prozessen und dem Ausmaß der "Störung" des physiologischen Redoxgleichgewichtes betrachtet werden müssen.
From its first use in the field of biochemistry, instrumental analysis offered a variety of invaluable tools for the comprehensive description of biological systems. Multi-selective methods that aim to cover as many endogenous compounds as possible in biological samples use different analytical platforms and include methods like gene expression profile and metabolite profile analysis. The enormous amount of data generated in application of profiling methods needs to be evaluated in a manner appropriate to the question under investigation. The new field of system biology rises to the challenge to develop strategies for collecting, processing, interpreting, and archiving this vast amount of data; to make those data available in form of databases, tools, models, and networks to the scientific community. On the background of this development a multi-selective method for the determination of phytohormones was developed and optimised, complementing the profile analyses which are already in use (Chapter I). The general feasibility of a simultaneous analysis of plant metabolites and phytohormones in one sample set-up was tested by studies on the analytical robustness of the metabolite profiling protocol. The recovery of plant metabolites proved to be satisfactory robust against variations in the extraction protocol by using common extraction procedures for phytohormones; a joint extraction of metabolites and hormones from plant tissue seems practicable (Chapter II). Quantification of compounds within the context of profiling methods requires particular scrutiny (Chapter II). In Chapter III, the potential of stable-isotope in vivo labelling as normalisation strategy for profiling data acquired with mass spectrometry is discussed. First promising results were obtained for a reproducible quantification by stable-isotope in vivo labelling, which was applied in metabolomic studies. In-parallel application of metabolite and phytohormone analysis to seedlings of the model plant Arabidopsis thaliana exposed to sulfate limitation was used to investigate the relationship between the endogenous concentration of signal elements and the ‘metabolic phenotype’ of a plant. An automated evaluation strategy was developed to process data of compounds with diverse physiological nature, such as signal elements, genes and metabolites – all which act in vivo in a conditional, time-resolved manner (Chapter IV). Final data analysis focussed on conditionality of signal-metabolome interactions.
Ziel der Studie war die Untersuchung individueller und familialer Faktoren für den sozialen Status eines Kindes in seiner Schulklasse. Durch die Unterscheidung von Akzeptanz und Einfluss als zweier Hauptdimensionen des sozialen Status konnte die Arbeit aufklären, welche Rolle verschiedene Attribute für das Erreichen von Akzeptanz oder Einfluss spielen. 234 Dritt- und Fünftklässler aus Berliner Grundschulen erhielten soziometrische Maße, durch welche der soziale Status erhoben wurde (Akzeptanz und Einfluss). Individuelle und familiale Faktoren wurden mittels Peernominationen über das Verhalten der Kinder (Fremdurteil), Schulnoten (Lehrerangabe)und Maße des sozio-ökonomischen Status der Eltern (Elternangabe)erhoben. Die Ergebnisse zeigen, dass Akzeptanz positiv mit prosozialem und negativ mit aggressivem Verhalten eines Kindes assoziiert ist. Die Zusammenhänge dieser Verhaltensweisen mit Einfluss wiesen in dieselbe Richtung, waren aber deutlich geringer. Ideenreichtum und Humor hingen mit Akzeptanz und Einfluss gleichermaßen positiv zusammen, sowie Traurigsein gleichermaßen negativ mit beiden Statusdimensionen verbunden war. Das Verhalten eines Kindes vermittelte den Zusammenhang zwischen Merkmalen wie Geschlecht, relativem Alter, Schulnoten und der Akzeptanz und dem Einfluss eines Kindes. Zum Beispiel war die positive Beziehung zwischen Schulnoten und dem sozialen Status überwiegend auf die mit(guten)Schulnoten assoziierten Verhaltensweisen Prosozialität und (geringe) Aggressivität zurückzuführen. Die größere Akzeptanz von Mädchen ließ sich ebenso durch deren größere Prosozialität und geringere Aggressivität erklären. Jungen waren im Hinblick auf ihren Einfluss sowohl am oberen als auch am unteren Ende der Hierarchie überrepräsentiert. Sowohl sehr einflussreiche als auch einflusslose Jungen zeichneten sich durch eine erhöhte Aggressivität aus. Komplexere Analysen wiesen daraufhin, dass Jungen negative Auswirkungen von aggressivem Verhalten durch Humor und Ideenreichtum auf ihren Status kompensieren konnten. Der moderate Zusammenhang zwischen dem elterlichen sozioökonomischen Status und dem sozialen Status des Kindes wurde vollständig durch das Verhalten des Kindes mediiert. Das Elternhaus war wichtiger für die Akzeptanz als für den Einfluss eines Kindes. Kinder mit Migrationshintergrund waren sowohl weniger akzeptiert als auch weniger einflussreich in ihrer Klasse. Elterliche Trennung trug nicht zur sozialen Position eines Kindes bei.
Amphiphilic molecules contain a hydrophilic headgroup and a hydrophobic tail. The headgroup is polar or ionic and likes water, the tail is typically an aliphatic chain that cannot be accommodated in a polar environment. The prevailing molecular asymmetry leads to a spontaneous adsorption of amphiphiles at the air/water or oil/water interfaces. As a result, the surface tension and the surface rheology is changed. Amphiphiles are important tools to deliberately modify the interfacial properties of liquid interfaces and enable new phenomena such as foams which cannot be formed in a pure liquid. In this thesis we investigate the static and dynamic properties of adsorption layers of soluble amphiphiles at the air/water interface, the so called Gibbs monolayers. The classical way for an investigation of these systems is based on a thermodynamic analysis of the equilibrium surface tension as a function of the bulk composition in the framework of Gibbs theory. However, thermodynamics does not provide any structural information and several recent publications challenge even fundamental text book concepts. The experimental investigation faces difficulties imposed by the low surface coverage and the presence of dissolved amphiphiles in the adjacent bulk phase. In this thesis we used a suite of techniques with the sensitivity to detect less than a monolayer of molecules at the air-water interface. Some of these techniques are extremely complex such as infrared visible sum frequency generation (IR-VIS SFG) spectroscopy or second harmonic generation (SHG). Others are traditional techniques, such as ellipsometry employed in new ways and pushed to new limits. Each technique probes selectively different parts of the interface and the combination provides a profound picture of the interfacial architecture. The first part of the thesis is dedicated to the distribution of ions at interfaces. Adsorption layers of ionic amphiphiles serve as model systems allowing to produce a defined surface charge. The charge of the monolayer is compensated by the counterions. As a result of a complex zoo of interactions there will be a defined distribution of ions at the interface, however, its experimental determination is a big scientific challenge. We could demonstrate that a combination of linear and nonlinear techniques gives direct insights in the prevailing ion distribution. Our investigations reveal specific ion effects which cannot be described by classical Poisson-Boltzmann mean field type theories. Adsorption layer and bulk phase are in thermodynamic equilibrium, however, it is important to stress that there is a constant molecular exchange between adsorbed and dissolved species. This exchange process is a key element for the understanding of some of the thermodynamic properties. An excellent way to study Gibbs monolayers is to follow the relaxation from a non-equilibrium to an equilibrium state. Upon compression amphiphiles must leave the adsorption layer and dissolve in the adjacent bulk phase. Upon expansion amphiphiles must adsorb at the interface to restore the equilibrium coverage. Obviously the frequency of the expansion and compression cycles must match the molecular exchange processes. At too low frequencies the equilibrium is maintained at all times. If the frequency is too fast the system behaves as a monolayer of insoluble surfactants. In this thesis we describe an unique variant of an oscillating bubble technique that measures precisely the real and imaginary part of the complex dilational modulus E in a frequency range up to 500 Hz. The extension of about two decades in the time domain in comparison to the conventional method of an oscillating drop is a tremendous achievement. The imaginary part of the complex dilational modulus E is a consequence of a dissipative process which is interpreted as an intrinsic surface dilational viscosity. The IR-VIS SFG spectra of the interfacial water provide a molecular interpretation of the underlying dissipative process.
Adhesion of biological cells to their environment is mediated by two-dimensional clusters of specific adhesion molecules which are assembled in the plasma membrane of the cells. Due to the activity of the cells or external influences, these adhesion sites are usually subject to physical forces. In recent years, the influence of such forces on the stability of cellular adhesion clusters was increasingly investigated. In particular, experimental methods that were originally designed for the investigation of single bond rupture under force have been applied to investigate the rupture of adhesion clusters. The transition from single to multiple bonds, however, is not trivial and requires theoretical modelling. Rupture of biological adhesion molecules is a thermally activated, stochastic process. In this work, a stochastic model for the rupture and rebinding dynamics of clusters of parallel adhesion molecules under force is presented. In particular, the influence of (i) a constant force as it may be assumed for cellular adhesion clusters is investigated and (ii) the influence of a linearly increasing force as commonly used in experiments is considered. Special attention is paid to the force-mediated cooperativity of parallel adhesion bonds. Finally, the influence of a finite distance between receptors and ligands on the binding dynamics is investigated. Thereby, the distance can be bridged by polymeric linker molecules which tether the ligands to a substrate.
Stochastic information, to be understood as "information gained by the application of stochastic methods", is proposed as a tool in the assessment of changes in climate. This thesis aims at demonstrating that stochastic information can improve the consideration and reduction of uncertainty in the assessment of changes in climate. The thesis consists of three parts. In part one, an indicator is developed that allows the determination of the proximity to a critical threshold. In part two, the tolerable windows approach (TWA) is extended to a probabilistic TWA. In part three, an integrated assessment of changes in flooding probability due to climate change is conducted within the TWA. The thermohaline circulation (THC) is a circulation system in the North Atlantic, where the circulation may break down in a saddle-node bifurcation under the influence of climate change. Due to uncertainty in ocean models, it is currently very difficult to determine the distance of the THC to the bifurcation point. We propose a new indicator to determine the system's proximity to the bifurcation point by considering the THC as a stochastic system and using the information contained in the fluctuations of the circulation around the mean state. As the system is moved closer to the bifurcation point, the power spectrum of the overturning becomes "redder", i.e. more energy is contained in the low frequencies. Since the spectral changes are a generic property of the saddle-node bifurcation, the method is not limited to the THC, but it could also be applicable to other systems, e.g. transitions in ecosystems. In part two, a probabilistic extension to the tolerable windows approach (TWA) is developed. In the TWA, the aim is to determine the complete set of emission strategies that are compatible with so-called guardrails. Guardrails are limits to impacts of climate change or to climate change itself. Therefore, the TWA determines the "maneuvering space" humanity has, if certain impacts of climate change are to be avoided. Due to uncertainty it is not possible to definitely exclude the impacts of climate change considered, but there will always be a certain probability of violating a guardrail. Therefore the TWA is extended to a probabilistic TWA that is able to consider "probabilistic uncertainty", i.e. uncertainty that can be expressed as a probability distribution or uncertainty that arises through natural variability. As a first application, temperature guardrails are imposed, and the dependence of emission reduction strategies on probability distributions for climate sensitivities is investigated. The analysis suggests that it will be difficult to observe a temperature guardrail of 2°C with high probabilities of actually meeting the target. In part three, an integrated assessment of changes in flooding probability due to climate change is conducted. A simple hydrological model is presented, as well as a downscaling scheme that allows the reconstruction of the spatio-temporal natural variability of temperature and precipitation. These are used to determine a probabilistic climate impact response function (CIRF), a function that allows the assessment of changes in probability of certain flood events under conditions of a changed climate. The assessment of changes in flooding probability is conducted in 83 major river basins. Not all floods can be considered: Events that either happen very fast, or affect only a very small area can not be considered, but large-scale flooding due to strong longer-lasting precipitation events can be considered. Finally, the probabilistic CIRFs obtained are used to determine emission corridors, where the guardrail is a limit to the fraction of world population that is affected by a predefined shift in probability of the 50-year flood event. This latter analysis has two main results. The uncertainty about regional changes in climate is still very high, and even small amounts of further climate change may lead to large changes in flooding probability in some river systems.
Subduction zones are regions of intense earthquake activity up to great depth. Sources are located inside the subducting lithosphere and, as a consequence, seismic radiation from subduction zone earthquakes is strongly affected by the interior slab structure. The wave field of these intraslab events observed in the forearc region is profoundly influenced by a seismically slow layer atop the slab surface. This several kilometer thick low-velocity channel (wave guide) causes the entrapment of seismic energy producing strong guided wave phases that appear in P onsets in certain regions of the forearc. Observations at the Chile-Peru subduction zone presented here, as well as observations at several other circum-pacific subduction zones show such signals. Guided wave analysis contributes details of immense value regarding the processes near the slab surface, such as layering of subducted lithosphere, source locations of intraslab seismicity and most of all, range and manner of mineralogical phase transitions. Seismological data stem from intermediate depth events (depth range 70 km - 300 km) recorded in northern Chile near 21 Grad S during the collaborative research initiative " Deformation Processes in the Andes" (SFB 267). A subset of stations - all located within a slab-parallel transect close to 69 Grad W - show low-frequency first arrivals (2 Hz), sometimes followed by a second high-frequency phase. We employ 2-dimensional finite-difference simulations of complete P-SV wave propagation to explore the parameter space of subduction zone wave guides and explain the observations. Key processes underlying the guided wave propagation are studied: Two distinct mechanisms of decoupling of trapped energy from the wave guide are analyzed - a prerequisite to observe the phases at stations located at large distances from the wave guide (up to 100 km). Variations of guided wave effects perpendicular to the strike of the subduction zone are investigated, such as the influence of phases traveling in the fast slab. Further, the merits and limits of guided wave analysis are assessed. Frequency spectra of the guided wave onsets prove to be a robust quantity that captures guided wave characteristics at subduction zones including higher mode excitation. They facilitate the inference of wave guide structure and source positioning: The peak frequency of the guided wave fundamental mode is associated with a certain combination of layer width and velocity contrast. The excitation strength of the guided wave fundamental mode and higher modes is associated with source position and orientation relative to the low-velocity layer. The guided wave signals at the Chile-Peru subduction zone are caused by energy that leaks from the subduction zone wave guide. On the one hand, the bend shape of the slab allows for leakage at a depth of 100 km. On the other, equalization of velocities between the wave guide and the host rocks causes further energy leakage at the contact zone between continental and oceanic crust (70 km depth). Guided waves bearing information on deep slab structure can therefore be recorded at specific regions in the forearc. These regions are determined based on slab geometry, and their locations coincide with the observations. A number of strong constraints on the structure of the Chile-Peru slab are inferred: The deep wave guide for intraslab events is formed by a layer of 2 km average width that remains seismically slow (7 percent velocity reduction compared to surrounding mantle). This low-velocity layer at the top of the Chile-Peru slab is imaged from a depth of 100 km down to at least 160 km. Intermediate depth events causing the observed phases are located inside the layer or directly beneath it in the slab mantle. The layer is interpreted as partially eclogized lower oceanic crust persisting to depth beyond the volcanic arc.
Adsorption layers of soluble surfactants enable and govern a variety of phenomena in surface and colloidal sciences, such as foams. The ability of a surfactant solution to form wet foam lamellae is governed by the surface dilatational rheology. Only systems having a non-vanishing imaginary part in their surface dilatational modulus, E, are able to form wet foams. The aim of this thesis is to illuminate the dissipative processes that give rise to the imaginary part of the modulus. There are two controversial models discussed in the literature. The reorientation model assumes that the surfactants adsorb in two distinct states, differing in their orientation. This model is able to describe the frequency dependence of the modulus E. However, it assumes reorientation dynamics in the millisecond time regime. In order to assess this model, we designed a SHG pump-probe experiment that addresses the orientation dynamics. Results obtained reveal that the orientation dynamics occur in the picosecond time regime, being in strong contradiction with the two states model. The second model regards the interface as an interphase. The adsorption layer consists of a topmost monolayer and an adjacent sublayer. The dissipative process is due to the molecular exchange between both layers. The assessment of this model required the design of an experiment that discriminates between the surface compositional term and the sublayer contribution. Such an experiment has been successfully designed and results on elastic and viscoelastic surfactant provided evidence for the correctness of the model. Because of its inherent surface specificity, surface SHG is a powerful analytical tool that can be used to gain information on molecular dynamics and reorganization of soluble surfactants. They are central elements of both experiments. However, they impose several structural elements of the model system. During the course of this thesis, a proper model system has been identified and characterized. The combination of several linear and nonlinear optical techniques, allowed for a detailed picture of the interfacial architecture of these surfactants.
The role of feedback between erosional unloading and tectonics controlling the development of the Himalaya is a matter of current debate. The distribution of precipitation is thought to control surface erosion, which in turn results in tectonic exhumation as an isostatic compensation process. Alternatively, subsurface structures can have significant influence in the evolution of this actively growing orogen. Along the southern Himalayan front new 40Ar/39Ar white mica and apatite fission track (AFT) thermochronologic data provide the opportunity to determine the history of rock-uplift and exhumation paths along an approximately 120-km-wide NE-SW transect spanning the greater Sutlej region of the northwest Himalaya, India. 40Ar/39Ar data indicate, consistent with earlier studies that first the High Himalayan Crystalline, and subsequently the Lesser Himalayan Crystalline nappes were exhumed rapidly during Miocene time, while the deformation front propagated to the south. In contrast, new AFT data delineate synchronous exhumation of an elliptically shaped, NE-SW-oriented ~80 x 40 km region spanning both crystalline nappes during Pliocene-Quaternary time. The AFT ages correlate with elevation, but show within the resolution of the method no spatial relationship to preexisting major tectonic structures, such as the Main Central Thrust or the Southern Tibetan Fault System. Assuming constant exhumation rates and geothermal gradient, the rocks of two age vs. elevation transects were exhumed at ~1.4 ±0.2 and ~1.1 ±0.4 mm/a with an average cooling rate of ~50-60 °C/Ma during Pliocene-Quaternary time. The locus of pronounced exhumation defined by the AFT data coincides with a region of enhanced precipitation, high discharge, and sediment flux rates under present conditions. We therefore hypothesize that the distribution of AFT cooling ages might reflect the efficiency of surface processes and fluvial erosion, and thus demonstrate the influence of erosion in localizing rock-uplift and exhumation along southern Himalayan front, rather than encompassing the entire orogen.Despite a possible feedback between erosion and exhumation along the southern Himalayan front, we observe tectonically driven, crustal exhumation within the arid region behind the orographic barrier of the High Himalaya, which might be related to and driven by internal plateau forces. Several metamorphic-igneous gneiss dome complexes have been exhumed between the High Himalaya to the south and Indus-Tsangpo suture zone to the north since the onset of Indian-Eurasian collision ~50 Ma ago. Although the overall tectonic setting is characterized by convergence the exhumation of these domes is accommodated by extensional fault systems.Along the Indian-Tibetan border the poorly described Leo Pargil metamorphic-igneous gneiss dome (31-34°N/77-78°E) is located within the Tethyan Himalaya. New field mapping, structural, and geochronologic data document that the western flank of the Leo Pargil dome was formed by extension along temporally linked normal fault systems. Motion on a major detachment system, referred to as the Leo Pargil detachment zone (LPDZ) has led to the juxtaposition of low-grade metamorphic, sedimentary rocks in the hanging wall and high-grade metamorphic gneisses in the footwall. However, the distribution of new 40Ar/39Ar white mica data indicate a regional cooling event during middle Miocene time. New apatite fission track (AFT) data demonstrate that subsequently more of the footwall was extruded along the LPDZ in a brittle stage between 10 and 2 Ma with a minimum displacement of ~9 km. Additionally, AFT-data indicate a regional accelerated cooling and exhumation episode starting at ~4 Ma. Thus, tectonic processes can affect the entire orogenic system, while potential feedbacks between erosion and tectonics appear to be limited to the windward sides of an orogenic systems.
To investigate eye-movement control in reading, the present thesis examined three phenomena related to the eyes’ landing position within words, (1) the optimal viewing position (OVP), (2) the preferred viewing location (PVL), and (3) the Fixation-Duration Inverted-Optimal Viewing Position (IOVP) Effect. Based on a corpus-analytical approach (Exp. 1), the influence of variables word length, launch site distance, and word frequency was systematically explored. In addition, five experimental manipulations were conducted. First, word center was identified as the OVP, that is the position within a word where refixation probability is minimal. With increasing launch site distance, however, the OVP was found to move towards the word beginning. Several possible causes of refixations were discussed. The issue of refixation saccade programming was extensively investigated, suggesting that pre-planned and directly controlled refixation saccades coexist. Second, PVL curves, that is landing position distributions, show that the eyes are systematically deviated from the OVP, due to visuomotor constraints. By far the largest influence on mean and standard deviation of the Gaussian PVL curve was exhibited by launch site distance. Third, it was investigated how fixation durations vary as a function of landing position. The IOVP effect was replicated: Fixations located at word center are longer than those falling near the edges of a word. The effect of word frequency and/or launch site distance on the IOVP function mainly consisted in a vertical displacement of the curve. The Fixation-Duration IOVP effect is intriguing because word center (the OVP) would appear to be the best place to fixate and process a word. A critical part of the current work was devoted to investigate the origin of the effect. It was suggested that the IOVP effect arises as a consequence of mislocated fixations, i.e. fixations on unintended words, which are caused by saccadic errors. An algorithm for estimating the proportion of mislocated fixations from empirical data was developed, based on extrapolations of landing position distributions beyond word boundaries. As a new central theoretical claim it was suggested that a new saccade program is started immediately if the intended target word is missed. On average, this will lead to decreased durations for mislocated fixations. Because mislocated fixations were shown to be most prevalent at the beginning and end of words, the proposed mechanism generated the inverted U-shape for fixation durations when computed as a function of landing position. The proposed mechanism for generating the effect is generally compatible with both oculomotor and cognitive models of eye-movement control in reading.
Understanding the principles of self-organisation exhibited by block copolymers requires the combination of synthetic and physicochemical knowledge. The ability to synthesise block copolymers with desired architecture facilitates the ability to manipulate their aggregation behaviour, thus providing the key to nanotechnology. Apart from relative block volumes, the size and morphology of the produced nanostructures is controlled by the effective incompatibility between the different blocks. Since polymerisation techniques allowing for the synthesis of well-defined block copolymers are restricted to a limited number of monomers, the ability to tune the incompatibility is very limited. Nevertheless, Polymer Analogue Reactions can offer another possibility for the production of functional block copolymers by chemical modifications of well-defined polymer precursors. Therefore, by applying appropriate modification methods both volume fractions and incompatibility, can be adjusted. Moreover, copolymers with introduced functional units allow utilization of the concept of molecular recognition in the world of synthetic polymers. The present work describes a modular synthetic approach towards functional block copolymers. Radical addition of functional mercaptanes was employed for the introduction of diverse functional groups to polybutadiene-containing block copolymers. Various modifications of 1,2-polybutadiene-poly(ethylene oxide) block copolymer precursors are described in detail. Furthermore, extension of the concept to 1,2-polybutadiene-polystyrene block copolymers is demonstrated. Further investigations involved the self-organisation of the modified block copolymers. Formed aggregates in aqueous solutions of block copolymers with introduced carboxylic acid, amine and hydroxyl groups as well as fluorinated chains were characterised. Study of the aggregation behaviour allowed general conclusions to be drawn regarding the influence of the introduced groups on the self-organisation of the modified copolymers. Finally, possibilities for the formation of complexes, based on electrostatic or hydrogen-bonding interactions in mixtures of block copolymers bearing mutually interacting functional groups, were investigated.
Reversible addition-fragmentation transfer (RAFT) was used as a controlling technique for studying the aqueous heterophase polymerization. The polymerization rates obtained by calorimetric investigation of ab initio emulsion polymerization of styrene revealed the strong influence of the type and combination of the RAFT agent and initiator on the polymerization rate and its profile. The studies in all-glass reactors on the evolution of the characteristic data such as average molecular weight, molecular weight distribution, and average particle size during the polymerization revealed the importance of the peculiarities of the heterophase system such as compartmentalization, swelling, and phase transfer. These results illustrated the important role of the water solubility of the initiator in determining the main loci of polymerization and the crucial role of the hydrophobicity of the RAFT agent for efficient transportation to the polymer particles. For an optimum control during ab-initio batch heterophase polymerization of styrene with RAFT, the RAFT agent must have certain hydrophilicity and the initiator must be water soluble in order to minimize reactions in the monomer phase. An analytical method was developed for the quantitative measurements of the sorption of the RAFT agents to the polymer particles based on the absorption of the visible light by the RAFT agent. Polymer nanoparticles, temperature, and stirring were employed to simulate the conditions of a typical aqueous heterophase polymerization system. The results confirmed the role of the hydrophilicity of the RAFT agent on the effectiveness of the control due to its fast transportation to the polymer particles during the initial period of polymerization after particle nucleation. As the presence of the polymer particles were essential for the transportation of the RAFT agents into the polymer dispersion, it was concluded that in an ab initio emulsion polymerization the transport of the hydrophobic RAFT agent only takes place after the nucleation and formation of the polymer particles. While the polymerization proceeds and the particles grow the rate of the transportation of the RAFT agent increases with conversion until the free monomer phase disappears. The degradation of the RAFT agent by addition of KPS initiator revealed unambigueous evidence on the mechanism of entry in heterophase polymerization. These results showed that even extremely hydrophilic primary radicals, such as sulfate ion radical stemming from the KPS initiator, can enter the polymer particles without necessarily having propagated and reached a certain chain length. Moreover, these results recommend the employment of azo-initiators instead of persulfates for the application in seeded heterophase polymerization with RAFT agents. The significant slower rate of transportation of the RAFT agent to the polymer particles when its solvent (styrene) was replaced with a more hydrophilic monomer (methyl methacrylate) lead to the conclusion that a complicated cooperative and competitive interplay of solubility parameters and interaction parameter with the particles exist, determining an effective transportation of the organic molecules to the polymer particles through the aqueous phase. The choice of proper solutions of even the most hydrophobic organic molecules can provide the opportunity of their sorption into the polymer particles. Examples to support this idea were given by loading the extremely stiff fluorescent molecule, pentacene, and very hydrophobic dye, Sudan IV, into the polymer particles. Finally, the first application of RAFT at room temperature heterophase polymerization is reported. The results show that the RAFT process is effective at ambient temperature; however, the rate of fragmentation is significantly slower. The elevation of the reaction temperature in the presence of the RAFT agent resulted in faster polymerization and higher molar mass, suggesting that the fragmentation rate coefficient and its dependence on the temperature is responsible for the observed retardation.
Die Etablierung der Transkription von kompletten Genen auf planaren Oberflächen soll eine Verbindung zwischen der Mikroarraytechnologie und der Transkriptomforschung herstellen. Darüber hinaus kann mit diesem Verfahren ein Brückenschlag zwischen der Synthese der Gene und ihrer kodierenden Proteine auf einer Oberfläche erfolgen. Alle transkribierten RNAs wurden mittels RT-PCR in cDNA umgeschrieben und in einer genspezifischen PCR amplifiziert. Die PCR-Produkte wurden hierfür entweder per Hand oder maschinell auf die Oberfläche transferiert. Über eine Oberflächen-PCR war es möglich, die Gensequenz des Reportergens EGFP direkt auf der Oberfläche zu synthetisieren und anschließend zu transkribieren. Somit war eine Transkription mit weniger als 1 ng an Matrize möglich. Der Vorteil einer Oberflächen-Transkription gegenüber der in Lösung liegt in der mehrfachen Verwendung der immobilisierten Matrize, wie sie in dieser Arbeit dreimal erfolgreich absolviert wurde. Die Oberflächen-Translation des EGFP-Gens konnte ebenfalls zweimal an einer immobilisierten Matrize gezeigt werden, wobei Zweifel über eine echte Festphasen-Translation nicht ausgeräumt werden konnten. Zusammenfassend kann festgestellt werden, dass die Transkription und Translation von immobilisierten Gensequenzen auf planaren Oberflächen möglich ist, wofür die linearen Matrizen direkt auf der Oberfläche synthetisiert werden können.
Wetting and phase transitions play a very important role our daily life. Molecularly thin films of long-chain alkanes at solid/vapour interfaces (e.g. C30H62 on silicon wafers) are very good model systems for studying the relation between wetting behaviour and (bulk) phase transitions. Immediately above the bulk melting temperature the alkanes wet partially the surface (drops). In this temperature range the substrate surface is covered with a molecularly thin ordered, solid-like alkane film ("surface freezing"). Thus, the alkane melt wets its own solid only partially which is a quite rare phenomenon in nature. The thesis treats about how the alkane melt wets its own solid surface above and below the bulk melting temperature and about the corresponding melting and solidification processes. Liquid alkane drops can be undercooled to few degrees below the bulk melting temperature without immediate solidification. This undercooling behaviour is quite frequent and theoretical quite well understood. In some cases, slightly undercooled drops start to build two-dimensional solid terraces without bulk solidification. The terraces grow radially from the liquid drops on the substrate surface. They consist of few molecular layers with the thickness multiple of all-trans length of the molecule. By analyzing the terrace growth process one can find that, both below and above the melting point, the entire substrate surface is covered with a thin film of mobile alkane molecules. The presence of this film explains how the solid terrace growth is feeded: the alkane molecules flow through it from the undercooled drops to the periphery of the terrace. The study shows for the first time the coexistence of a molecularly thin film ("precursor") with partially wetting bulk phase. The formation and growth of the terraces is observed only in a small temperature interval in which the 2D nucleation of terraces is more likely than the bulk solidification. The nucleation mechanisms for 2D solidification are also analyzed in this work. More surprising is the terrace behaviour above bulk the melting temperature. The terraces can be slightly overheated before they melt. The melting does not occur all over the surface as a single event; instead small drops form at the terrace edge. Subsequently these drops move on the surface "eating" the solid terraces on their way. By this they grow in size leaving behind paths from were the material was collected. Both overheating and droplet movement can be explained by the fact that the alkane melt wets only partially its own solid. For the first time, these results explicitly confirm the supposed connection between the absence of overheating in solid and "surface melting": the solids usually start to melt without an energetic barrier from the surface at temperatures below the bulk melting point. Accordingly, the surface freezing of alkanes give rise of an energetic barrier which leads to overheating.
Das Ziel dieser Arbeit ist die Untersuchung der Wasserhaushaltsprozesse und Stofftransportvorgänge innerhalb der grundwassergeprägten Talauenlandschaften von Tieflandeinzugsgebieten am Beispiel der im Nordostdeutschen Tiefland gelegenen Havel. Die Arbeiten in verschieden skaligen Teileinzugsgebieten der Havel beschäftigen sich dabei zum einen mit der experimentellen Untersuchung und vorrangig qualitativen Beschreibung der Wasserhaushaltsdynamik, zum anderen mit der Entwicklung eines zur quantitativen Analyse von Wasserhaushalts- und Stofftransportprozessen geeigneten Modells und der anschließenden Modellsimulation von Wasserhaushalt und Stickstoffmetabolik im Grundwasser sowie der Simulation von Landnutzungs- und Gewässerstrukturszenarien. Für die experimentelle Untersuchung der Abflussbildung und der Wasserhaushaltsprozesse in den Talauenlandschaften des Haveleinzugsgebiets wurde Einzugsgebiet der ”Unteren Havel Niederung“ ein umfangreiches Messnetz installiert. Dabei wurden an mehreren Messstationen und Pegeln meteorologische Parameter, Bodenfeuchte sowie Grundwasserstände und Abflüsse beobachtet. Die Analyse der Messergebnisse führte zu einem verbesserten Verständnis von Wasserhaushaltsprozessen in der durch das oberflächennahe Grundwasser und die Oberflächengewässerdynamik beeinflussten Talauenzone. Darüber hinaus konnten durch die Implementierung der Messergebnisse konsistente Anfangs- und Randbedingungen für die Wasserhaushalts- und Grundwassermodellierung im Modellkonzept IWAN realisiert werden. Mit dem Modell IWAN (Integrated Modelling of Water Balance and Nutrient Dynamics) wurde ein Werkzeug geschaffen, welches die Berücksichtigung spezifischer hydrologischer Eigenschaften von Tieflandauen, wie z. B. den Einfluss des oberflächennahen Grundwassers bzw. der Dynamik von Oberflächenwasserständen auf den Wasserhaushalt, ermöglicht. Es basiert auf der Kopplung des deterministischen distribuierten hydrologischen Modells WASIM-ETH mit dem dreidimensionalen Finite-Differenzen-basierten Grundwassermodel MODFLOW. Die Modellierung der Stickstoffmetabolik im Grundwasser erfolgt durch das mit Grundwassermodell gekoppelte Stofftransportmodel MT3D. Zur modellbasierten Simulation des Wasserhaushalts der Tieflandauenlandschaften wurde das Modellkonzept IWAN für verschieden skalige Teileinzugsgebiete an der Havel für Simulationszeiträume von 2 Wochen bis zu 13 Jahren angewandt. Dabei wurden die Teilmodelle für Wasserhaushalts- und Grundwassermodellierung in zwei unterschiedlichen Teileinzugsgebieten der ”Unteren Havel Niederung“ kalibriert. Die anschließende Validierung erfolgte für das gesamte Einzugsgebiet der ”Unteren Havel“. Die Unsicherheiten des Modellansatzes sowie die Anwendbarkeit des Modells im Untersuchungsraum wurden geprüft und die Limitierung der Übertragbarkeit auf andere grundwasserbeeinflusste Tieflandeinzugsgebiete analysiert. Die Ergebnisse der Wasserhaushaltssimulationen führen einerseits zum erweiterten Prozessverständnis des Wasserhaushalts in Flachlandeinzugsgebieten, andererseits ermöglichten sie durch die Quantifizierung einzelner Prozessgrößen die Beurteilung der Steuerungsfunktion einzelner Wasserhaushaltsprozesse. Auf der Basis lokaler Simulationsergebnisse sowie geomorphologischer und gewässermorphologischer Analysen wurde ein Algorithmus entwickelt, welcher die Abgrenzung des direkten Eigeneinzugsgebiets der Havel als Raum der direkten Interaktion zwischen Oberflächengewässer und umgebendem Einzugsgebiet beschreibt. Durch Simulation des Wasserhaushalts im Eigeneinzugsgebiet mit dem Modell IWAN konnten die Interaktionsprozesse zwischen Fluss und Talauenlandschaft quantitativ beschrieben werden. Dies ermöglichte eine Bewertung der Abflussanteile aus dem Eigeneinzugsgebiet sowie eine Quantifizierung der zeitlich variablen Retentionskapazität der Auenlandschaft während Hochwasserereignissen. Zur Abschätzung des Einflusses veränderter Landnutzung und angepassten Managements auf den Wasserhaushalt der Talaue wurden Szenarien entwickelt, welche Änderungen der Landnutzung sowie der Gewässergeometrie implizieren. Die Simulation des Wasserhaushalts unter jeweiligen Szenariobedingungen ermöglichte die detaillierte Analyse sich ändernder Randbedingungen auf den Gebietswasserhaushalt und auf die Austauschprozesse zwischen Grundwasser und Oberflächengewässer. Zur Untersuchung der Stickstoffmetabolik im Grundwasser der Talauenlandschaft wurde das im Modellkonzept IWAN integrierte Stofftransportmodell MT3D für das Eigeneinzugsgebiet der Havel angewandt. Dies ermöglichte eine Bilanzierung der aus dem Grundwasser des Eigeneinzugsgebiets stammenden Nitratfrachtanteile der Havel sowie von Nitratkonzentrationen im Grundwasser. Szenariensimulationen, welche verminderte Nitrateinträge aus der durchwurzelten Bodenzone annehmen, ermöglichten die Quantifizierung der Effizienz von Managementmaßnahmen und Landnutzungsänderungen in Hinblick auf die Minimierung von Einträgen in Grundwasser und Oberflächengewässer.
Im Rahmen dieser Arbeit wurde ein besseres Verständnis der Kopplung der Troposphäre und der Stratosphäre in den mittleren und polaren Breiten der Nordhemisphäre (NH) auf Monatszeitskalen erzielt, die auf die Ausbreitung von quasi-stationären Wellen zurückzuführen ist. Der Schwerpunkt lag dabei auf den dynamisch aktiven Wintermonaten, welche die grösste Variabilität aufweisen. Die troposphärische Variabilität wird zum Grossteil durch bevorzugte Zirkulationsstrukturen, den Telekonnexionsmustern, bestimmt. Mittels einer rotierten EOF-Analyse der geopotenziellen Höhe in 500 hPa wurden die wichtigsten regionalen troposphärischen Telekonnexionsmuster der Nordhemisphäre berechnet. Diese lassen sich drei grossen geografischen Regionen zuordnen; dem nordatlantisch-europäischen Raum, Eurasien und dem pazifisch-nordamerikanischen Raum. Da es sich um die stärksten troposphärischen Variabilitätsmuster handelt, wurden sie als grundlegende troposphärische Grössen herangezogen, um dynamische Zusammenhänge zwischen der troposphärischen und der stratosphärischen Zirkulation zu untersuchen. Dabei wurde anhand von instantanen und zeitverzögerten Korrelationsanalysen der troposphärischen Muster mit stratosphärischen Variablen erstmalig gezeigt, dass unterschiedliche regionale troposphärische Telekonnexionsmuster unterschiedliche Auswirkungen auf die stratosphärische Zirkulation haben. Es ergaben sich für die pazifisch-nordamerikanischen Muster signifikante instantane Korrelationen mit quasi-barotropen Musterstrukturen und für die nordatlantisch-europäischen Muster zonalsymmetrische Ringstrukturen ab 1978 mit signifikanten Korrelationswerten über tropischen und subtropischen Breiten und inversen Korrelationswerten über polaren Gebieten. Bei einer Untersuchung des Einflusses der stratosphärischen Variabilität wurde gezeigt, dass sich die stärkste Kopplung von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation bei einem in Richtung Europa verschobenen Polarwirbel ergibt, wodurch die signifikanten Korrelationen ab 1978 erklärt werden können. Eine zonal gemittelte und vor allem lokale Untersuchung der Wellenausbreitungsbedingungen während dieser stratosphärischen Situation zeigt, dass es zu schwächeren Windgeschwindigkeiten in der Stratosphäre im Bereich von Nordamerika und des westlichen Nordatlantiks kommt und sich dadurch die Wellenausbreitungsbedingungen in diesem geografischen Bereich für planetare Wellen verbessern. Durch die stärkere Wellenausbreitung kommt es zu einer stärkeren Wechselwirkung mit dem Polarjet, wobei dieser abgebremst wird. Diese Abbremsung führt zu einer Verstärkung der meridionalen Residualzirkulation. D. h., wenn es zu einer verstärkten Wellenanregung im Nordatlantik und über Europa kommt, ist die Reaktion der Residualzirkulation bei einem nach Europa verschobenem Polarwirbel besonders stark. Die quasi-barotropen Korrelationsstrukturen, die sich bei den pazifisch-nordamerikanischen Mustern zeigen, weisen aufgrund von abnehmenden Störungsamplituden mit zunehmender Höhe, keiner Westwärtsneigung und einem negativen Brechungsindex im Pazifik auf verschwindende Wellen hin, die als Lösung der Wellengleichung bei negativem Brechungsindex auftreten. Dies wird durch den Polarjet, der im Bereich des Pazifiks stets sehr weit in Richtung Norden verlagert ist, verursacht. Abschliessend wurde in dieser Arbeit untersucht, ob die gefundenen Zusammenhänge von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation auch von einem Atmosphärenmodell wiedergegeben werden können. Dazu wurde ein transienter 40-Jahre-Klimalauf des ECHAM4.L39(DLR)/CHEM Modells mit möglichst realistischen Antrieben erstmalig auf die Kopplung der Troposphäre und der Stratosphäre analysiert. Dabei konnten sowohl die troposphärischen, als auch die stratosphärischen Variabilitätsmuster vom Modell simuliert werden. Allerdings zeigen sich in den stratosphärischen Mustern Phasenverschiebungen in den Wellenzahl-1-Strukturen und ihre Zeitreihen weisen keinen signifikanten Trend ab 1978 auf. Die Kopplung der nordatlantisch-europäischen Telekonnexionsmuster mit der stratosphärischen Zirkulation zeigt eine wesentlich schwächere Reaktion der meridionalen Residualzirkulation. Somit stellte sich heraus, dass insbesondere die stratosphärische Zirkulation im Modell starke Diskrepanzen zu den Beobachtungen zeigt, die wiederum Einfluss auf die Wellenausbreitungsbedingungen haben. Es wird damit deutlich, dass für eine richtige Wiedergabe der Wellenausbreitung und somit der Kopplung der Troposphäre und Stratosphäre die stratosphärische Zirkulation eine wichtige Rolle spielt.
Hauptanliegen der Dissertation ist es, einen Entwurf einer praktischen Ästhetik zu lancieren, der an der Schnittstelle zwischen philosophischer Ästhetik und Kunst – genauer Performancekunst - im Zeichen der Bezugsgrösse der Verletzbarkeit steht. In jüngeren Ästhetikansätzen hat sich eine Auffassung herauskristallisiert, die nicht über, sondern mit Kunst reflektiert. Die Pointe im ‚Mit’ liegt darin, dass diese Ästhetiken die Kunst nicht erklären, sie bestimmen und damit ihre Bedeutung festlegen, sondern dass diese entlang der Kunst die Brüche, Widerstände und Zäsuren zwischen Wahrnehmen und Denken markieren und diese als produktiv bewerten. Diese Lesart etabliert ein Denken, das nicht aus der Distanz auf etwas schaut (theoria), sondern ästhetisch-reflektierend (zurückwendend, auch selbstkritisch) mit der Kunst denkt. Die Disziplin der Ästhetik - als aisthesis: Lehre der sinnlichen Wahrnehmung - nimmt innerhalb der Philosophie eine besondere Stellung ein, weil sie auf ebendiese Differenz verweist und deshalb sinnliche und nicht nur logisch-argumentatorische Denkfiguren stärkt. Als eine Möglichkeit, die Kluft, das Nicht-Einholbare, die brüchige Unzulänglichkeit des begrifflich Denkenden gegenüber ästhetischer Erfahrung zu stärken, schlage ich die Bezugsgrösse der Verletzbarkeit vor. Eine solche Ästhetik besteht aus dem Kreieren verletzbarer Orte, wobei diese auf zweierlei Weisen umkreist werden: Zum einen aus der Kunstpraxis heraus anhand der ästhetischen Figur des verletzbaren Körpes, wie er sich in der zeitgenössischen Performance zeigt. Zum anderen als ein Kreieren von Begriffen im Bewusstsein ihrer Verletzbarkeit. Ausgangspunkte sind die Denkentwürfe von Gilles Deleuze und Hans Blumenberg: Die Ästhetik von Gilles Deleuze entwirft eine konkrete Überschneidungsmöglichkeit von Kunst und Philosophie, aus der sich meine These des Mit-Kunst-Denkens entwickeln lässt. Sie kann aus der Grundvoraussetzung des Deleuzeschen Denkens heraus begründet werden, die besagt, dass nicht nur die Kunst, sondern auch die Philosophie eine schöpferische Tätigkeit ist. Beide Disziplinen beruhen auf dem Prinzip der creatio continua, durch welche die Kunst Empfindungen und die Philosophie Begriffe schöpft, wobei eben genau dieser schöpferische Prozess Kunst und Philosophie in ein produktives Verhältnis zueinander treten lässt. Wie Deleuze seine Begriffsarbeit entlang künstlerischer Praxis entwickelt, wird anhand der Analyse des bis heute wenig rezipierten Textes Ein Manifest weniger in Bezug auf das Theater von Carmelo Bene analysiert. Eine ganz anderen Zugang zum Entwurf einer praktischen Ästhetik liefert Hans Blumenberg, der eine Theorie der Unbegrifflichkeit in Aussicht stellt. Im Anschluss an seine Forderung, die Metapher wieder vermehrt in die philosophische Denkpraxis zu integrieren, radikalisiert er seine Forderung, auch das Nichtanschauliche zu berücksichtigen, indem er das gänzlich Unbegriffliche an die Seite des Begrifflichen stellt. Definitorische Schwäche zeigt sich als wahrhaftige Stärke, die in der Unbegrifflichkeit ihren Zenit erreicht. Der Schiffbruch wird von mir als zentrale Metapher – gewissermassen als Metapher der Metapher – verstanden, die das Auf-Grund-Laufen des Allwissenden veranschaulicht. Im Schiffbruch wird die produktive Kollision von Theorie und Praxis deutlich. Deleuze und Blumenberg zeigen über ‚creatio continua’ und ‚Unbegrifflichkeit’ die Grenzen des Begreifens, indem sie betonen, dass sich Ästhetik nicht nur auf künstlerische Erfahrungen bezieht, sondern selber in das Gegenwärtigmachen von Erfahrungen involviert ist. Daraus folgt, dass ästhetische Reflexion nicht nur begrifflich agieren muss. Die praktische Ästhetik animiert dazu, andere darstellerische Formen (Bilder, Töne, Körper) als differente und ebenbürtige reflexive Modi anzuerkennen und sie als verletzbarmachende Formate der Sprache an die Seite zu stellen. Diese Lesart betont den gestalterischen Aspekt der Ästhetik selber. Zur Verdeutlichung dieser Kluft zwischen (Körper-)Bild und Begriff ist der von mir mitgestaltete Film Augen blickeN der Dissertation als Kapitel beigefügt. Dieser Film zeigt Performer und Performerinnen, die sich bewusst entschieden haben, ihren ‚abweichenden’ Körper auf der Bühne zu präsentieren. Das Wort Verletzbarkeit verweist auf die paradoxe Situation, etwas Brüchiges tragfähig zu machen und dadurch auch auf eine besondere Beziehungsform und auf ein existenzielles Aufeinander-Verwiesensein der Menschen. Verletzbarkeit geht alle an, und stiftet deshalb eine Gemeinsamkeit besonderer Art. In diesem Sinne sind verletzbare Orte nicht nur ästhetische, sondern auch ethische Orte, womit die politische Dimension des Vorhabens betont wird.
Vitamin E : elucidation of the mechanism of side chain degradation and gene regulatory functions
(2005)
For more than 80 years vitamin E has been in the focus of scientific research. Most of the progress concerning non-antioxidant functions, nevertheless, has only arisen from publications during the last decade. Most recently, the metabolic pathway of vitamin E has been almost completely elucidated. Vitamin E is metabolized by truncation of its side chain. The initial step of an omega-hydroxylation is carried out by cytochromes P450 (CYPs). This was evidenced by the inhibition of the metabolism of alpha-tocopherol by ketoconozole, an inhibitor of CYP3A expression, whereas rifampicin, an inducer of CYP3A expression increased the metabolism of alpha-tocopherol. Although the degradation pathway is identical for all tocopherols and tocotrienols, there is a marked difference in the amount of the release of metabolites from the individual vitamin E forms in cell culture as well as in experimental animals and in humans. Recent findings not only proposed an CYP3A4-mediated degradation of vitamin E but also suggested an induction of the metabolizing enzymes by vitamin E itself. In order to investigate how vitamin E is able to influence the expression of metabolizing enzymes like CYP3A4, a pregnane X receptor (PXR)-based reporter gene assay was chosen. PXR is a nuclear receptor which regulates the transcription of genes, e.g., CYP3A4, by binding to specific DNA response elements. And indeed, as shown here, vitamin E is able to influence the expression of CYP3A via PXR in an in vitro reporter gene assay. Tocotrienols showed the highest activity followed by delta- and alpha-tocopherol. An up-regulation of Cyp3a11 mRNA, the murine homolog of the human CYP3A4, could also be confirmed in an animal experiment. The PXR-mediated change in gene expression displayed the first evidence of a direct transcriptional activity of vitamin E. PXR regulates the expression of genes involved in xenobiotic detoxification, including oxidation, conjugation, and transport. CYP3A, e.g., is involved in the oxidative metabolism of numerous currently used drugs. This opens a discussion of possible side effects of vitamin E, but the extent to which supranutritional doses of vitamin E modulate these pathways in humans has yet to be determined. Additionally, as there is arising evidence that vitamin E's essentiality is more likely to be based on gene regulation than on antioxidant functions, it appeared necessary to further investigate the ability of vitamin E to influence gene expression. Mice were divided in three groups with diets (i) deficient in alpha-tocopherol, (ii) adequate in alpha-tocopherol supply and (iii) with a supranutritional dosage of alpha-tocopherol. After three months, half of each group was supplemented via a gastric tube with a supranutritional dosage of gamma-tocotrienol per day for 7 days. Livers were analyzed for vitamin E content and liver RNA was prepared for hybridization using cDNA array and oligonucleotide array technology. A significant change in gene expression was observed by alpha-tocopherol but not by gamma-tocotrienol and only using the oligonucleotide array but not using the cDNA array. The latter effect is most probably due to the limited number of genes represented on a cDNA array, the lacking gamma-tocotrienol effect is obviously caused by a rapid degradation, which might prevent bioefficacy of gamma-tocotrienol. Alpha-tocopherol changed the expression of various genes. The most striking observation was an up-regulation of genes, which code for proteins involved in synaptic transmitter release and calcium signal transduction. Synapsin, synaptotagmin, synaptophysin, synaptobrevin, RAB3A, complexin 1, Snap25, ionotropic glutamate receptors (alpha 2 and zeta 1) were shown to be up-regulated in the supranutritional group compared to the deficient group. The up-regulation of synaptic genes shown in this work are not only supported by the strong concentration of genes which all are involved in the process of vesicular transport of neurotransmitters, but were also confirmed by a recent publication. However, a confirmation by real time PCR in neuronal tissue like brain is now required to explain the effect of vitamin E on neurological functionality. The change in expression of genes coding for synaptic proteins by vitamin E is of principal interest thus far, since the only human disease directly originating from an inadequate vitamin E status is ataxia with isolated vitamin E deficiency. Therefore, with the results of this work, an explanation for the observed neurological symptoms associated with vitamin E deficiency can be presented for the first time.
Die Beschäftigung mit dem Thema Change Management erfordert die Auseinandersetzung mit einem heterogenen Feld von Ansätzen und fachlichen Perspektiven. Es besteht ein Mangel an systematischen empirischen Untersuchungen zu diesem Thema. Insbesondere fehlen Arbeiten, die mehr als eine "Schule" des Change Managements berücksichtigen. Unterschiede in den situativen Anforderungen werden zudem theoretisch und empirisch oft unzureichend berücksichtigt. Die Vermutung liegt nahe, dass das Scheitern von Veränderungsprozessen häufig durch die stereotype Anwendung generalisierender Empfehlungen gängiger Ansätze verursacht wird. Um diesen Defiziten zu begegnen, sollten in dieser Arbeit Kontingenzen von situativen Anforderungen und Change Management empirisch überprüft werden. Der Untersuchung liegt eine Konzeption zugrunde, die hinsichtlich des Projekterfolgs von der idealen Passung (Kontingenz) zwischen situativer Anforderung und Change Management ausgeht und damit einhergehende prozessbezogene Einflussfaktoren berücksichtigt. Erfolg wird im Sinne der Nachhaltigkeit als Wirkungen wirtschaftlicher, organisationsbezogener und qualifikatorischer Art definiert. In drei Teilstudien wurden Beratende und betriebliche Beteiligte jeweils projektbezogen schriftlich und mündlich zu betrieblicher Ausgangslage, Veränderungsprinzipien, Wirkungen und prozessbezogenen Einflussfaktoren befragt. Die erste Teilstudie umfasst vier Fallstudien. Hier wurden insgesamt 18 Projektbeteiligte, jeweils Beratende, betriebliche Projektleitende und –mitarbeitende, befragt. Die zweite Teilstudie umfasst die schriftliche und mündliche Befragung von 31 Beratenden verschiedener Schulen des Change Managements. In der dritten Teilstudie wurden 47 betriebliche Veränderungsverantwortliche schriftlich befragt. Die Projekte der zweiten und dritten Teilstudie liessen sich in jeweils zwei statistisch abgesicherte Erfolgsgruppen einteilen, wobei sich die Erfolgsgruppen nicht systematisch auf Merkmalen der betrieblichen Ausgangslage unterscheiden. Folgendes sind die wichtigsten Ergebnisse: Bei traditionell-bürokratischen Organisationsstrukturen geht ein langfristig-kontinuierliches, graduell-anpassendes, pragmatisch-lösungsorientiertes Vorgehen, in flexiblen Strukturen dagegen ein kurzfristiges, tiefgreifendes und integrativ-konzeptuelles Vorgehen mit Projekterfolg einher.In traditionell-hierarchischen Führungsstrukturen erweist sich ein wenig humanzentriertes und wenig selbstbeurteilendes Vorgehen mit standardisierter Vorgehensmethode, in flexiblen Führungsstrukturen ein stark humanzentriertes und ausgeprägt selbstbeurteilendes Vorgehen mit angepasster Vorgehensmethode als erfolgsversprechend.Bei grossem betrieblichem Veränderungswissen erweist sich ein selbstbeurteilendes Vorgehen, bei geringem Veränderungswissen ein wenig selbstbeurteilendes Vorgehen als erfolgsversprechend.Angesichts ökonomischer Anforderungen geht ein langfristig-kontinuierliches, schnelles und rollend geplantes Vorgehen mit einem tiefgreifenden und integrativ-konzeptuellen Ansatz, unter wenig Einbezug von Fremdbeurteilungen mit positiven Wirkungen einher.Bei technologischen Anforderungen ist ein langfristig-kontinuierliches, langsames und tiefgreifendes Vorgehen mit wenig Fremdbeurteilung erfolgsversprechend.Für soziokulturelle Anforderungen erweist sich ein langsames, selbstbeurteilendes, graduell anpassendes und pragmatisch-fokussiertes Vorgehen als erfolgreich. Angesichts politisch-rechtlicher Anforderungen geht ein linear geplantes, zielfokussiertes, fachberaterisches und wenig prozessorientiertes Vorgehen mit Erfolg einher.Bei Gesamtreorganisationen als innerorganisationale Anforderungen erweist sich ein linear geplantes, fach- und prozessberaterisches sowie tiefgreifendes Vorgehen als erfolgsversprechend.Bei innerorganisationalen Anforderungen durch Führungswechsel geht ein kurzfristig-temporäres, integrativ-konzeptuelles Vorgehen mit angepasster Vorgehensmethode mit Erfolg einher. Hinsichtlich prozessbezogener Einflussfaktoren erweisen sich situationsspezifisches Beratendenhandeln, unterstützendes Führungsverhalten, grosse Akzeptanz der/des Beratenden, umfassender Einbezug der Mitarbeitenden, aktive Beteiligung und Engagement der Mitarbeitenden, Verankerung des Projekts in der Organisation und hoher wahrgenommener Nutzen der Veränderung als wichtigste unterstützende Faktoren. Widerstände aus der Belegschaft, problematisches Führungsverhalten im Veränderungsprozess, fehlende/mangelhafte neben Tagesgeschäft bereitgestellte Ressourcen, behindernde organisationale (nicht projektbezogene) Entwicklungen, Angst/Verunsicherung der Belegschaft sind die wichtigsten hemmenden Faktoren.
Die Ausprägung der Lateralität der Körperextremitäten steht in engem Zusammenhang mit der Hemisphärenspezialisierung des menschlichen Gehirns. Die Lateralität und die Dominanz einer Hemisphäre mit ihren Auswirkungen auf die Leistungsfähigkeit ist ein bislang unvollständig untersuchtes Phänomen im Sport. In der vorliegenden Arbeit soll daher die Bedeutung der Seitigkeitsausprägung im Rahmen sportlicher Bewegungsabläufe geprüft werden. Sowohl bei Messungen im "Freiwasser", als auch in der "Kanu–Gegenstromanlage" im Bereich des Kanurennsportes werden seit einigen Jahren sich in Qualität und Quantität unterscheidende Kraft–Zeit–Funktionen der linken und rechten Körperseite beobachtet, die zwar dokumentiert, aber bislang ungeprüft in ihrer Bedeutung als leistungsbeeinflussend angenommen werden. Im Zeitraum von Oktober 1997 bis Oktober 2000 wurden 275 Kajakfahrer und Canadierfahrer im Alter zwischen 11 und 20 Jahren zweimal jährlich (März und Oktober) mit einem umfangreichen trainings- und bewegungswissenschaftlichen sowie biomechanischen Instrumentarium untersucht. Die Athleten gehören zum Nachwuchs- und Anschlusskader des LKV Brandenburg. Schwerpunkt der Fragestellung ist der Zusammenhang von auftretenden Kraftdifferenzen zwischen der linken und rechten oberen Extremität und sportartspezifischen Leistungen unter Laborbedingungen und Feldbedingungen. Es wurden objektive Daten zu ausgewählten Kraftfähigkeiten der oberen Arm–Beuge–Schlinge an einem Kraftdiagnosegerät, Kraftverläufe am Messpaddel während Leistungsüberprüfungen im "Kanu–Gegenstromkanal" und im "Freiwasser" über 250 m und 2.000 m im Jahresverlauf erhoben. Die Ergebnisse zeigen einen Trend der im Altersverlauf ansteigenden Differenz der Mittelwertunterschiede in der Maximalkraft zwischen dem linken und rechten Arm. Bei bestehenden Maximalkraftdifferenzen zwischen linker und rechter oberer Extremität in der Längsschnittgruppe liegen die Leistungen mit dem rechten Arm deutlich über den Kraftleistungen des linken Arms und sind nicht zufällig. Mit steigendem Maximalkraftniveau nimmt überraschenderweise auch die Differenz der Maximalkraft zwischen der linken und rechten oberen Extremität trotz bilateralen Trainings zu. Die Ergebnisse der EMG–Analyse bestätigen, dass die Maximalkraft leistungsbestimmend für die Bootsleistungen ist. In den EMG–Signalverläufen werden die unterschiedlichen Belastungen der Labor– und Feldbedingungen mit individuellen Charakteristika nachgezeichnet. Deutlich unterscheiden sich die Kraftverläufe im "Freiwasser" gegenüber den Kraftverläufen in der "Kanu–Gegenstromanlage". Bei der vorliegenden Untersuchung handelt es sich um eine erste empirische Arbeit zur Auswirkung von Seitigkeitsunterschieden in zyklischen Sportarten auf der Expertiseebene. In der Untersuchung wurden methodische Verfahren eingesetzt, die dem derzeitigen Forschungsstand in der Trainings- und Bewegungswissenschaft entsprechen. Neben varianzanalytischen Verfahren der Auswertung zur Darstellung von Mittelwertunterschieden und Zusammenhänge prüfenden Verfahren wurden ebenso explorative EMG–Analysen angewandt. Die Ergebnisse aus dem Längsschnitt belegen bei ausschließlich rechtshändigen Probanden, dass die Schlussfolgerung von bevorzugter Extremität auf ein höheres Kraftniveau nicht eineindeutig ist. Zwischen den oberen Extremitäten bei Kanurennsportlern bestehen nicht nur zufällige Kraftunterschiede, trotz des bilateralen Trainings. Kontrovers diskutiert wird die Beziehung von bevorzugter Extremität und der Höhe der Kraftentfaltung. Im Alltagsverständnis wird häufig angenommen, dass ein höheres Maximalkraftniveau in der Extremität vorliegen muss, die auch die bevorzugte (z.B. Schreibhand) ist (WIRTH & LIPHARDT, 1999). Diese Eindeutigkeit konnte in der durchgeführten Untersuchung nicht bestätigt werden. Wie die Ergebnisse dieser Untersuchung deutlich zeigen, nimmt mit der höheren Maximalkraft aber auch die Differenz der Kraftleistungen zwischen dem linken und rechten Arm bei bilateral ausgerichtetem Training zu. FISCHER (1988; 1992) wies nach, dass sich ein Training auf der subdominanten Seite in einem kontralateralen Leistungstransfer auf der dominanten Seite positiv auswirkte. Erkenntnisse von KUHN (1986) und HOLLMANN & HETTINGER (2000) unterstützen nachhaltig die Ergebnisse. Die EMG–Ergebnisse zeigen die individuelle Reaktion auf die Belastungsanforderungen. Die elektromyographischen Daten beziehen sich auf den neuromuskulären Komplex. Somit sprechen hohe Amplitudenwerte einerseits für eine hohe Innervation der beteiligten motorischen Einheiten an der Bewegungsausführung und andererseits für einsetzende Ermüdungserscheinungen im Muskel. In Bezug auf die Ermüdung der oberen Extremitätenmuskeln der rechten und linken Seite beschreiben WILLIAMS, SHARMA & BILODEAU (2002) keine signifikanten Unterschiede zwischen der dominanten und nichtdominanten Handseite.
In den letzten 20 Jahren hat sich der Maiszünsler (Ostrinia nubilalis HÜBNER), aus der Schmetterlingsfamilie der Pyralidae oder Zünsler, zum bedeutendsten tierischen Schädling des Maises (Zea mays) entwickelt. Eine Möglichkeit den Befall des Maiszünslers abzuwenden, bietet der Anbau von Bacillus thuringiensis-Mais (Bt-Mais). Mit Hilfe der Gentechnik wurden Gene des Bakteriums Bacillus thuringiensis übertragen, die einen für Fraßinsekten giftigen Wirkstoff bilden, wodurch die Pflanzen während der kompletten Vegetation vor den Larven des Maiszünslers geschützt sind. Ziel des vorliegenden Projektes war es, in einer 3-jährigen Studie die Auswirkungen des großflächigen Anbaus von Bt-Mais auf die ökologische Situation und den Handlungsrahmen des integrierten Pflanzenschutzes komplex zu untersuchen. Dazu wurden in Betrieben im Oderbruch, das als permanentes Befallsgebiet des Maiszünslers gilt, in den Jahren 2002 bis 2004 jährlich zwei Felder mit jeweils einer Bt-Sorte und einer konventionellen Sorte angelegt. Zusätzlich wurden biologische und chemische Maiszünsler-Bekämpfungsvarianten geprüft. Durch verschiedene Methoden wie Bonituren, Ganzpflanzenernten, Bodenfallenfänge und Beobachtungen des Wahlverhaltens von (Flug-)insekten konnten Aussagen zum Vorkommen von Insekten und Spinnentieren getroffen werden, wobei hierfür Daten aus Untersuchungen der Jahre 2000 und 2001 im Oderbruch ergänzend herangezogen werden konnten. Durch Ertragsmessungen, Energie- und Qualitätsermittlungen, sowie Fusarium- und Mykotoxinanalysen konnte der Anbau von Bt-Mais als neue Alternative zur Bekämpfung des Maiszünslers bewertet werden. Bezüglich des Auftretens von Insekten und Spinnentieren wurden im Mittel der fünfjährigen Datenerhebung beim Vergleich der Bt-Sorte zur konventionellen Sorte, mit Ausnahme der fast 100 %igen Bekämpfung des Maiszünslers, keine signifikanten Unterschiede festgestellt. Hierfür wurde ein besonderes Augenmerk auf Thripse, Wanzen, Blattläuse und deren Fraßfeinde, sowie mittels Bodenfallenfängen auf Laufkäfer und Spinnen gerichtet. Die erwarteten ökonomischen Vorteile wie etwa Ertragsplus oder bessere Nährstoff- und Energiegehalte durch geringeren Schaden beim Anbau von Bt-Mais als Silomais blieben in den Untersuchungsjahren aus. Allerdings zeigten Fusarium- und Mykotoxinanalysen eine geringere Belastung des Bt-Maises, was möglicherweise auf den geringeren Schaden zurückzuführen ist, da beschädigte Pflanzen für Fusarium und Mykotoxine anfälliger sind. Desweiteren konnten erste methodische Ansätze für ein auf EU-Ebene gefordertes, den Anbau von Bt-Mais begleitendes Monitoring, erarbeitet werden. So konnten Vorschläge für geeignete Methoden, deren Umfang sowie des Zeitpunktes der Durchführungen gemacht werden.