Refine
Year of publication
- 2011 (289) (remove)
Document Type
- Doctoral Thesis (289) (remove)
Keywords
- Dictyostelium (3)
- Holocene (3)
- Holozän (3)
- Klimawandel (3)
- Nanopartikel (3)
- Selbstorganisation (3)
- climate change (3)
- nanoparticles (3)
- self-assembly (3)
- Antwortmengenprogrammierung (2)
- Blickbewegungen (2)
- Centrosom (2)
- East African Rift System (2)
- Evolution (2)
- Koexpression (2)
- Lesen (2)
- Modellierung (2)
- Monsun (2)
- Poland (2)
- Polen (2)
- Pollen (2)
- Quasare (2)
- RAFT (2)
- Seesedimente (2)
- Synchronisation (2)
- Systembiologie (2)
- Tibetan Plateau (2)
- answer set programming (2)
- eye movements (2)
- ionic liquids (2)
- ionische Flüssigkeiten (2)
- monsoon (2)
- reading (2)
- synchronization (2)
- thermoresponsive (2)
- "Healthy village" program (1)
- 40Ar-39Ar Datierungsmethode (1)
- AGN (1)
- ASM (1)
- ATRP (1)
- Abstraktion (1)
- Acinonyx jubatus (1)
- Actiheart (1)
- Adsorption (1)
- Aerosole (1)
- Aerosols (1)
- Aktomyosin (1)
- Algorithmen (1)
- Algorithmic Trading (1)
- Algorithms (1)
- Allgemeine Relativitätstheorie (1)
- Alzheimer (1)
- Amplifier Lakes (1)
- Amyloid beta (1)
- Anatolia (1)
- Anatolien (1)
- Annotationsprojektion (1)
- Answer Set Programming (1)
- Antwortmengen Programmierung (1)
- Apoptose (1)
- Ar-Ar geochronology (1)
- Arabidopsis (1)
- Arbeitsgedächtnis (1)
- Archetyp (1)
- Arctic (1)
- Arktis (1)
- Ascomycota (1)
- Asian Summer Monsoon (1)
- Asiatischer Sommermonsun (1)
- Astrophysik (1)
- Asynchrone Schaltung (1)
- Aufmerksamkeit (1)
- Azobenzen (1)
- BRAF (1)
- Bayesian Network (1)
- Bayesianisches Netzwerk (1)
- Bayesianism (1)
- Bayesianismus (1)
- Beanspruchung (1)
- Behaviour Analysis (1)
- Belastung (1)
- Benzoboroxol (1)
- Berufseinstieg (1)
- Beta-Diversität (1)
- Beweistheorie (1)
- Bildverarbeitung (1)
- Biologie (1)
- Bitterrezeptoren (1)
- Black Box (1)
- Blattmorphologie (1)
- Blockcopolymer (1)
- Blockcopolymere (1)
- Bodenfeuchte (1)
- Boronsäure (1)
- Bose-Einstein condensation (1)
- Bose-Einstein-Kondensation (1)
- Börse (1)
- CIO (1)
- CSC (1)
- Carbide (1)
- Carbohydrate (1)
- Carbon (1)
- Cars (1)
- Casimir-Polder interaction (1)
- Casimir-Polder-Interaktion (1)
- Causal structure (1)
- Centromere (1)
- Centromeres (1)
- Centrosome (1)
- Chechnya (1)
- Chemical Abundances (1)
- Chemostatexperimente (1)
- Chlamydomonas (1)
- Chlorella vulgaris (1)
- Chromatographie (1)
- CityGML (1)
- Climate (1)
- Coexpression (1)
- Collagen (1)
- Colonkrebs (1)
- Computer (1)
- Computergrafik (1)
- Computerlinguistik (1)
- Conant (1)
- Congo Air Boundary (1)
- Copolymerisation (1)
- Cumarin (1)
- DFB laser (1)
- DFB-Laser (1)
- DPLS (1)
- Darmkrebsdiagnostik (1)
- Datenanalyse (1)
- Decorin (1)
- Dendrobaena veneta (1)
- Dependenzparsing (1)
- Dezentralisierung (1)
- Diatomeen (1)
- Diatoms (1)
- Dielektrische Spektroskopie (1)
- Differentialoperatoren (1)
- Disproportionating Enzyme (1)
- Disproportionierungsenzym (1)
- Dysarthrie (1)
- E-Government (1)
- ENSO (1)
- ENaC (1)
- EU (1)
- East African Plateau (1)
- Einheitlicher Ansprechpartner (1)
- Einstein's field equations (1)
- Einsteins Feldgleichungen (1)
- Einzugsgebiet (1)
- Eisen (1)
- Eisenia fetida (1)
- Elektrokatalyse (1)
- Elektronendynamik (1)
- Elektronenkorrelation (1)
- Emulsionen (1)
- Energie (1)
- Entrepreneurship in Georgia (1)
- Entwicklung (1)
- Entwicklungszusammenarbeit (1)
- Entwurfsmuster für SOA-Sicherheit (1)
- Entwurfsraumexploration (1)
- Entzündung (1)
- Enzymadsorption (1)
- Enzyme adsorption (1)
- Enzyme kinetics (1)
- Enzymkinetik (1)
- Erosion (1)
- Erwartungen (1)
- Essentialität (1)
- Ethnizität (1)
- Europa (1)
- Europe (1)
- Extremereignisse (1)
- FMC-QE (1)
- FPGA (1)
- Feld-Effekt-Transistoren (1)
- Fernerkundung (1)
- Ferroelectrets (1)
- Ferroelectrics (1)
- Ferroelektrete (1)
- Ferroelektrik (1)
- Fluorierte Blockcopolymere (1)
- Flüssigkristalle (1)
- Flüssigphasensynthese (1)
- Formose (1)
- Frühgeborene (1)
- Fungal endophyte (1)
- Funktionelle Diversität (1)
- Funktorgeometrie (1)
- G protein-coupled receptors (1)
- G-Protein-gekoppelte Rezeptoren (1)
- Galaxie (1)
- Galaxien (1)
- Galaxies (1)
- Galaxy (1)
- Gas (1)
- Gebietszustand (1)
- Gele (1)
- Gen-Koexpression (1)
- Gender Identity (1)
- Gender Stereotypes (1)
- Gene co-expression (1)
- Genregulation (1)
- Georgia (1)
- Georgien (1)
- Geschlechterstereotype (1)
- Geschlechtsidentität (1)
- Geschmack (1)
- Globaler Wandel (1)
- Glucose (1)
- Glutathionperoxidase-2 GPx2 (1)
- Gouvernment (1)
- Gravitationswellen (1)
- Greenhouse Gas Emissions (1)
- Greenland (1)
- Groundwater (1)
- Grundschulkinder (1)
- Grundwasser (1)
- Gruppensimulation (1)
- Grönland (1)
- Habitatmodelle (1)
- Handelssystem (1)
- Hardware-Software-Co-Design (1)
- Hedge Fonds (1)
- Heterogenität (1)
- Heterosis (1)
- Hochland von Tibet (1)
- Hohlraum-Quantenelektrodynamik (1)
- Holografie (1)
- Holzkompost (1)
- Hybridmaterialien (1)
- Hydrologie (1)
- Hydrothermal carbonisation (1)
- Hydrothermalkohle (1)
- Hysterese (1)
- Hämatopoiese (1)
- IT-Security (1)
- IT-Sicherheit (1)
- Identity Structure Analysis (1)
- Immunologie (1)
- Indian Monsoon Circulation (1)
- Indian summer monsoon (1)
- Indische Monsunzirkulation (1)
- Indischer Sommer-Monsun (1)
- Inkonsistenz (1)
- Inlandeis (1)
- Integral field spectroscopy (1)
- Integralfeld-Spectroskopie (1)
- Integrative Analyse (1)
- Integrative analysis (1)
- Interstellar medium (1)
- Interstellares Medium (1)
- Janus (1)
- K-ras (1)
- Karpholithe (1)
- Kaskade (1)
- Kathode (1)
- Kausalstruktur (1)
- Kernhülle (1)
- Kleine und mittlere Unternehmen in Georgien (1)
- Klick-Chemie (1)
- Klima (1)
- Knowledge Representation and Reasoning (1)
- Kohlendioxid (1)
- Kohlengrubenabraum (1)
- Kohlenhydrate (1)
- Kohlenstoff (1)
- Kohlenstoffmetabolismus (1)
- Kollagen (1)
- Komplexe Systeme (1)
- Komplexität (1)
- Komplexitätsbewältigung (1)
- Kongo Luftmassengrenze (1)
- Konin region (1)
- Kooperation (1)
- Korrosion (1)
- Kristallisation (1)
- Kuusela (1)
- LASSO (1)
- LNA- clamp-PCR (1)
- LNA-clamp-PCR (1)
- Lake Challa (1)
- Lake Naivasha (1)
- Lake sediments (1)
- Lamin (1)
- Langzeitveränderung (1)
- Lanthanides (1)
- Lanthanoide (1)
- Laserpulse (1)
- Lateglacial (1)
- Lehrergesundheit (1)
- Leistungsvorhersage (1)
- Lesespanne (1)
- Li-Ionen-Akkus (1)
- Li-ion batteries (1)
- LiFePO4 (1)
- Lidar (1)
- Logiksynthese (1)
- Luminescence (1)
- Lumineszenz (1)
- Längsschnittstudie (1)
- Lävulinsäure (1)
- MHC (1)
- Magnetismus (1)
- Markov-Prozesse (1)
- Mathematikdidaktik (1)
- Medicago (1)
- Merkmale (1)
- Mesokristall (1)
- Mesokristalle (1)
- Mesophyll (1)
- Metabolism (1)
- Metabolismus (1)
- Metall-Isolator-Halbleiter (1)
- Methode (1)
- Microarrays (1)
- Microtubules (1)
- Migration (1)
- Mikrosimulation (1)
- Mikrotubuli (1)
- Milchstraße (1)
- Militär (1)
- Milky Way (1)
- Miocene (1)
- Miozän (1)
- Mizelle (1)
- Mizellen (1)
- Mobile Bürgerdienste (1)
- Mobile Services (1)
- Model Consistency (1)
- Model Driven Architecture (1)
- Modeling (1)
- Modell (1)
- Modell Diagnose (1)
- Modell-driven Security (1)
- Modell-getriebene Sicherheit (1)
- Modellgetriebene Architektur (1)
- Modellkonsistenz (1)
- Molecular profile data (1)
- Molekulardynamik-Simulation (1)
- Molekulare Profildaten (1)
- Monolith (1)
- Naivasha See (1)
- Nanokomposite (1)
- Nanostructure (1)
- Nanostruktur (1)
- Netzwerk (1)
- Neuronale Netze (1)
- Neurotransmitter (1)
- Nichtgleichgewichts-Dynamiken (1)
- Nichtlinear angeregte Fluoreszenz (1)
- Nichtlineare Dynamik (1)
- Nitride (1)
- Nitrobenzyl (1)
- Nutzungsinteresse (1)
- Oberflächengitter (1)
- Ontologie (1)
- Ontology (1)
- Optogenetik (1)
- Orthographie (1)
- Ostafrika (1)
- Ostafrikanisches Grabensystem (1)
- Ostafrikanisches Riftsystem (1)
- PBP10 (1)
- PDLC (1)
- PLS (1)
- PSP (1)
- PSP-P (1)
- PSP-RS (1)
- Paleoclimatology (1)
- Paläoklima (1)
- Paläoklimatologie (1)
- Paläotopographie (1)
- Panthera Pardus (1)
- Panthera pardus (1)
- Parallelkorpora (1)
- Partizipation (1)
- Peptide (1)
- Peptides (1)
- Performance Prediction (1)
- Persönlichkeit (1)
- Pflanze (1)
- Pflanze-Pilz-Interaktionen (1)
- Pflanzen (1)
- Phosphat (1)
- Photoionisation (1)
- Physical Crosslinking (1)
- Physik (1)
- Physikalische Vernetzung (1)
- Physikdidaktik (1)
- Phytoplanktonpopulationen (1)
- Pilz-Endophyten (1)
- Pkw (1)
- Plants (1)
- Plateau (1)
- Point of Single Contact (1)
- Polarisationsverteilung (1)
- Polarization distribution (1)
- Polyelektrolyte (1)
- Polymer chemistry (1)
- Polymerchemie (1)
- Polysaccharide (1)
- Polysaccharides (1)
- Pre-RS Traceability (1)
- Premature (1)
- Preview Benefit (1)
- Process Modelling (1)
- Procrustes rotation analysis (1)
- Programm "Gesunde Dörfer" (1)
- Prokrustes Analyse (1)
- Proof Theory (1)
- Proteinaggregation (1)
- Proteomics (1)
- Provinzen (1)
- Prozess (1)
- Prozessmodellierung (1)
- Punktmutation (1)
- Quantitative Modeling (1)
- Quantitative Modellierung (1)
- Quasars (1)
- Queuing Theory (1)
- RAFT-Polymerisation (1)
- Raumzeitgeometrie (1)
- Rechtschreibkorrektur (1)
- Regelfolgen (1)
- Regensturm (1)
- Region Konin (1)
- Regional Climate Model (1)
- Remote Sensing (1)
- Reparatur (1)
- Rheologie (1)
- Richardson Syndrom (1)
- Richardson Syndrome (1)
- Rohstoffe (1)
- Russia (1)
- Russland (1)
- SME-Policy in Georgia (1)
- SOA Security Pattern (1)
- STG decomposition (1)
- STG-Dekomposition (1)
- Saccharide Recognition (1)
- Sachsengängerei (1)
- Salzgeschmack (1)
- Scaling (1)
- Schnee (1)
- School principals (1)
- Schulleitung (1)
- Schwarze Löcher (1)
- Security Modelling (1)
- Sedimentfalle (1)
- Selen (1)
- Semantic Web (1)
- Sensitivitätsanalyse (1)
- Separatismus (1)
- Service-Orientierte Architekturen (1)
- Service-oriented Architectures (1)
- Sexual Orientation (1)
- Sezession (1)
- Sicherheitsmodellierung (1)
- Silica (1)
- Skalierung (1)
- Small and medium businesses in Georgia (1)
- Software (1)
- Soil moisture (1)
- Sol-Gel (1)
- Solar irradiation (1)
- Solare Austrahlung (1)
- Spectroscopy (1)
- Spektroskopie (1)
- Sport (1)
- Sportsoziologie (1)
- Sportverein (1)
- Spracherwerb (1)
- Spätglazial (1)
- Stabilität (1)
- Stakeholder-based Science (1)
- Stakeholder-basierte Forschung (1)
- Statistical Physics (1)
- Statistik (1)
- Statistische Physik (1)
- Stimmungen (1)
- Stoffwechsel (1)
- Strategie (1)
- Suguta Tal (1)
- Suguta Valley (1)
- Supergeometrie (1)
- Supramolecular Interactions (1)
- Supramolekularen Wechselwirkungen (1)
- Suspendsionsfracht (1)
- Symbiose (1)
- Syria (1)
- Syrien (1)
- System (1)
- System Biologie (1)
- Systems Biology (1)
- Systems biology (1)
- TACC (1)
- TDR (1)
- TRANES (1)
- TRES (1)
- Templating (1)
- Tenside (1)
- Tensor-Zerlegungen (1)
- Texturen (1)
- Thermal-Pulse Tomography (1)
- Thermodynamische Stabilität (1)
- Tibet Plateau (1)
- Time Augmented Petri Nets (1)
- Tomaten (Solanum lycopersicum) (1)
- Tracking (1)
- Transcription factors (1)
- Transcriptomics (1)
- Transfer (1)
- Transformation (1)
- Transformation in Georgien (1)
- Transiente Absorption (1)
- Transkiptionsfaktor (1)
- Transkriptionsfaktoren (1)
- Transkriptionsnetzwerke (1)
- Transkriptom (1)
- Transnationalismus (1)
- Transnistria (1)
- Transnistrien (1)
- Transsexuality (1)
- Transsexualität (1)
- Treibhausgasemissionen (1)
- Tschetschenien (1)
- Umfrage (1)
- Unsicherheit (1)
- Unternehmensbesteuerung (1)
- Unternehmenspolitik in Georgien (1)
- Unvollständigkeit (1)
- Usage Interest (1)
- Vakuumschwankungen (1)
- Valerolacton (1)
- Variationsrechnung (1)
- Verhaltensanalyse (1)
- Vernetzung (1)
- Vorhersage (1)
- Vorschule (1)
- Vorstellungen (1)
- Vorstufe (1)
- WANG-Linker (1)
- WANG-linker (1)
- WHO (1)
- Warteschlangentheorie (1)
- Warve (1)
- Web Sites (1)
- Webseite (1)
- Wellenlängenverschiebung (1)
- Wertpapierhandel (1)
- Wiederholungsstudie (1)
- Wirtschaft (1)
- Wiskostatin (1)
- Wissenschaftstheorie (1)
- Wissensrepräsentation und -verarbeitung (1)
- Wittgenstein (1)
- Wurzelbesiedlung (1)
- Wärmepuls-Tomographie (1)
- Yatta (1)
- Zeitbehaftete Petri Netze (1)
- Zelle (1)
- Zeolites (1)
- Zeolithe (1)
- Zuckererkennung (1)
- Zustandsmodell (1)
- Zwangsgleichungen (1)
- abstraction (1)
- accessions (1)
- actomyosin (1)
- adsorption (1)
- algorithmic trading (1)
- amyloid beta (1)
- annotation projection (1)
- apoptosis (1)
- aqueous systems (1)
- archetype (1)
- astrophysics (1)
- asynchronous circuit (1)
- attention (1)
- azobenzene (1)
- benzoboroxole (1)
- beta diversity (1)
- biology (1)
- bitter taste receptors (1)
- black box (1)
- black holes (1)
- black-holes (1)
- block copolymer (1)
- boronic acid (1)
- business taxation (1)
- cGMP (1)
- caged Verbindungen (1)
- caged compounds (1)
- carbides (1)
- carbon dioxide (1)
- carbon metabolism (1)
- career entry (1)
- carpholite (1)
- cascade (1)
- catchment (1)
- catchment state (1)
- cathode (1)
- cavity quantum electrodynamics (1)
- cell (1)
- centrosome (1)
- chemische Häufigkeiten (1)
- chemostat experiments (1)
- chromatography (1)
- click chemistry (1)
- co-expression (1)
- coal mine waste (1)
- colon cancer (1)
- colon cancer diagnosis (1)
- comparative (1)
- complex networks (1)
- complex systems (1)
- complexity (1)
- computational linguistics (1)
- computer driven trading (1)
- computer graphics (1)
- conceptions (1)
- constraint equations (1)
- consumption-oriented income tax (1)
- consumption-oriented profit tax (1)
- cooperation (1)
- copolymerization (1)
- copolymers (1)
- corrosion (1)
- coumarine (1)
- critical collapse (1)
- cross-linking (1)
- crystallization (1)
- data analysis (1)
- decentralization (1)
- dendritic cell (1)
- dendritische Zelle (1)
- dependency parsing (1)
- design space exploration (1)
- development aid (1)
- dielectric elastomers (1)
- dielectric spectroskopie (1)
- dielektrische Elastomere (1)
- differential operators (1)
- dynamic population models (1)
- dynamische Populationsmodelle (1)
- dysarthria (1)
- dysarthric features (1)
- economy (1)
- electrocatalysis (1)
- electromagnetic counterparts (1)
- electromechanical response (1)
- electron correlation (1)
- electron dynamics (1)
- electronic (1)
- electrostatic energy density (1)
- elektromagnetische Strahlung (1)
- elektromechanische Reaktion (1)
- elektrostatische Energiedichte (1)
- elliptic systems (1)
- elliptisches Gleichungssystem (1)
- emulsions (1)
- energy (1)
- erosion (1)
- essentiality (1)
- ethnicity (1)
- evolution (1)
- exchange (1)
- expectations (1)
- extreme events (1)
- ferroelectric polarization (1)
- ferroelektrische Polarisation (1)
- fluorinated Blockcopolymers (1)
- formose (1)
- fragmented states (1)
- fragmentierte Staaten (1)
- functional diversity (1)
- functor geometry (1)
- gas (1)
- gels (1)
- gene regulation (1)
- general relativity (1)
- genetic diversity (1)
- genetische Vielfalt (1)
- global change (1)
- glutathione peroxidase-2 GPx2 (1)
- gravitational waves (1)
- group simulation (1)
- haematopoiesis (1)
- hardware-software-codesign (1)
- health at school (1)
- health of teachers (1)
- heart rate (1)
- hedge funds (1)
- heterogeneity (1)
- high permittivity (1)
- high-pressure metasediments (1)
- historical text (1)
- historischer Text (1)
- hochdruckmetamorphe Sedimente (1)
- hohe Permittivität (1)
- holography (1)
- hybrid materials (1)
- hydrology (1)
- hydrophil (1)
- hydrophilic (1)
- hydrothermal (1)
- hydrothermal carbon (1)
- hydrothermale Carbonisierung (1)
- hysteresis (1)
- ice sheet (1)
- image processing (1)
- immunology (1)
- incompleteness (1)
- inconsistency (1)
- inflammation (1)
- iron (1)
- komplexe Netzwerke (1)
- konsumorientierte Einkommensteuer (1)
- konsumorientierte Gewinnsteuer (1)
- kritischer Kollaps (1)
- körperlich-sportliche Aktivität (1)
- körperliche Aktivität (1)
- lake sediments (1)
- lamin (1)
- language acquisition (1)
- laser pulses (1)
- leaf (1)
- levulinic acid (1)
- liquid phase synthesis (1)
- logic synthesis (1)
- long-term change (1)
- longitudinal study (1)
- low latency (1)
- ländliche Entwicklung (1)
- magnetism (1)
- markov processes (1)
- mathematics education (1)
- mehrfache Stressfaktoren (1)
- mesocrystal (1)
- mesocrystals (1)
- mesophyll (1)
- mesoporous (1)
- mesoporös (1)
- metabolism (1)
- method (1)
- miRNA (1)
- micelle (1)
- micelles (1)
- microarrays (1)
- microsimulation (1)
- migration (1)
- military (1)
- model (1)
- model diagnostics (1)
- modelling (1)
- molecular dynamics simulation (1)
- molecular motors (1)
- molekulare Motoren (1)
- monolith (1)
- morphology (1)
- movement of time (1)
- multi-equilibrium thermobarometry (1)
- multiple stress factors (1)
- nanocomposites (1)
- nature - nurture (1)
- nature – nurture (1)
- network (1)
- networks (1)
- neurotransmitter (1)
- nichtlineare Datenanalyse (1)
- nichtlineare Projektionen (1)
- nitrides (1)
- nitrobenzyl (1)
- non-equilibrium dynamics (1)
- non-volatile memory (1)
- nonlinear dynamics (1)
- nonlinear excited fluorescence (1)
- nonlinear projections (1)
- nonlinear time series analysis (1)
- nuclear envelope (1)
- numerical relativity (1)
- numerische Relativitätstheorie (1)
- oligo(ethylene glycol) (1)
- oligo(ethyleneglycol) (1)
- on-chip (1)
- optogenetic (1)
- organic chemistry (1)
- organic electronic (1)
- organische Chemie (1)
- organische Elektronik (1)
- orthography (1)
- palaeoclimate (1)
- paleo-topography (1)
- parafoveal processing (1)
- parafoveale Wortverarbeitung (1)
- parallel corpora (1)
- partial annotations (1)
- participation (1)
- partielle Annotationen (1)
- personality (1)
- philosophy of science (1)
- phosphate (1)
- photoionization (1)
- physical activity (1)
- physicians (1)
- physics (1)
- physiolgischer pH (1)
- physiological pH (1)
- phytoplankton populations (1)
- plant (1)
- plant-fungal interactions (1)
- point mutation (1)
- poly(N-isopropyl acrylamide) (1)
- poly(N-isopropylacrylamide) (1)
- polyelectrolytes (1)
- porous materials (1)
- poröse Materialien (1)
- precursor (1)
- prediction (1)
- preschool (1)
- preview benefit (1)
- process (1)
- prosodic processing (1)
- prosodische Verarbeitung (1)
- protein aggregation (1)
- quasars (1)
- rainstorm (1)
- raumartige Unendliche (1)
- reading-span (1)
- regionales Klimamodell (1)
- relativistic hydrodynamics (1)
- relativistische Hydrodynamik (1)
- repair (1)
- resources (1)
- resurvey (1)
- rheology (1)
- root colonization (1)
- rule-following (1)
- runoff (1)
- rural development (1)
- räumlich explizit (1)
- saisonale Arbeitsmigration (1)
- salt taste perception (1)
- school leadership (1)
- schulische Führung (1)
- schulische Gesundheit (1)
- schwach überwachte Lernverfahren (1)
- schwarze Löcher (1)
- science education (1)
- seasonal labor migration (1)
- secession (1)
- sediment trap (1)
- sehr untergewichtige Frühgeborene (1)
- selenium (1)
- semantisches Netz (1)
- sensitivity analysis (1)
- sentiments (1)
- separatism (1)
- sexuelle Orientierung (1)
- silica (1)
- snow (1)
- social development (1)
- software (1)
- sol-gel (1)
- soziale Entwicklung (1)
- space-like infinity (1)
- space-time geometry (1)
- spatially explicit (1)
- species distribution models (1)
- speed independence (1)
- spelling correction (1)
- sport (1)
- sport club (1)
- sport sociology (1)
- stability (1)
- state model (1)
- statistical physics (1)
- statistics (1)
- statistische Physik (1)
- strain (1)
- strategy (1)
- stressor (1)
- supergeometry (1)
- surface relief grating (1)
- surfactants (1)
- survey (1)
- suspended sediment (1)
- symbiosis (1)
- synthetic eumelanin (1)
- synthetisches Eumelanin (1)
- system (1)
- systems biology (1)
- taste (1)
- temperaturschaltbar (1)
- tensor decompositions (1)
- textures (1)
- thermisch schaltbare Polymere (1)
- thermodynamic stability (1)
- thermosensitive polymers (1)
- tomato (Solanum lycopersicum) (1)
- transcription factor (1)
- transcriptomics (1)
- transformation (1)
- transient absorption (1)
- transnational migration (1)
- transnationale Migration (1)
- transnationalism (1)
- uncertainty (1)
- vacuum fluctuations (1)
- valerolactone (1)
- van der Waals forces (1)
- van der Waals-Kräfte (1)
- variational calculus (1)
- varve (1)
- vergleichend (1)
- verstärkende Seen (1)
- very low birth weight (VLBW) (1)
- virtual 3D city models (1)
- virtuelle 3D-Stadtmodelle (1)
- wavelength shift (1)
- weakly supervised learning techniques (1)
- wood compost (1)
- working memory (1)
- wässrige Systeme (1)
- Ärzte (1)
- Ökotypen (1)
Institute
- Institut für Biochemie und Biologie (53)
- Institut für Chemie (37)
- Wirtschaftswissenschaften (30)
- Institut für Physik und Astronomie (26)
- Institut für Geowissenschaften (24)
- Institut für Informatik und Computational Science (18)
- Institut für Ernährungswissenschaft (12)
- Öffentliches Recht (12)
- Extern (10)
- Philosophische Fakultät (10)
Active Galactic Nuclei (AGN) are powered by gas accretion onto supermassive Black Holes (BH). The luminosity of AGN can exceed the integrated luminosity of their host galaxies by orders of magnitude, which are then classified as Quasi-Stellar Objects (QSOs). Some mechanisms are needed to trigger the nuclear activity in galaxies and to feed the nuclei with gas. Among several possibilities, such as gravitational interactions, bar instabilities, and smooth gas accretion from the environment, the dominant process has yet to be identified. Feedback from AGN may be important an important ingredient of the evolution of galaxies. However, the details of this coupling between AGN and their host galaxies remain unclear. In this work we aim to investigate the connection between the AGN and their host galaxies by studying the properties of the extendend ionised gas around AGN. Our study is based on observations of ~50 luminous, low-redshift (z<0.3) QSOs using the novel technique of integral field spectroscopy that combines imaging and spectroscopy. After spatially separating the emission of AGN-ionised gas from HII regions, ionised solely by recently formed massive stars, we demonstrate that the specific star formation rates in several disc-dominated AGN hosts are consistent with those of normal star forming galaxies, while others display no detectable star formation activity. Whether the star formation has been actively suppressed in those particular host galaxies by the AGN, or their gas content is intrinsically low, remains an open question. By studying the kinematics of the ionised gas, we find evidence for non-gravitational motions and outflows on kpc scales only in a few objects. The gas kinematics in the majority of objects however indicate a gravitational origin. It suggests that the importance of AGN feedback may have been overrated in theoretical works, at least at low redshifts. The [OIII] line is the strongest optical emission line for AGN-ionised gas, which can be extended over several kpc scales, usually called the Narrow-Line Region (NLR). We perform a systematic investigation of the NLR size and determine a NLR size-luminosity relation that is consistent with the scenario of a constant ionisation parameter throughout the NLR. We show that previous narrow-band imaging with the Hubble Space Telescope underestimated the NLR size by a factor of >2 and that the continuum AGN luminosity is better correlated with the NLR size than the [OIII] luminosity. These affects may account for the different NLR size-luminosity relations reported in previous studies. On the other hand, we do not detect extended NLRs around all QSOs, and demonstrate that the detection of extended NLRs goes along with radio emission. We employ emission line ratios as a diagnostic for the abundance of heavy elements in the gas, i.e. its metallicity, and find that the radial metallicity gradients are always flatter than in inactive disc-dominated galaxies. This can be interpreted as evidence for radial gas flows from the outskirts of these galaxies to the nucleus. Recent or ongoing galaxy interactions are likely responsible for this effect and may turn out to be a common prerequisite for QSO activity. The metallicity of bulge-dominated hosts are systematically lower than their disc-dominated counterparts, which we interpret as evidence for minor mergers, supported by our detailed study of the bulge-dominated host of the luminous QSO HE 1029-1401, or smooth gas accretion from the environment. In this line another new discovery is that HE 2158-0107 at z=0.218 is the most metal poor luminous QSO ever observed. Together with a large (30kpc) extended structure of low metallicity ionised gas, we propose smooth cold gas accretion as the most likely scenario. Theoretical studies suggested that this process is much more important at earlier epochs of the universe, so that HE 2158-0107 might be an ideal laboratory to study this mechanism of galaxy and BH growth at low redshift more detailed in the furture.
"Kinderwelt ist Bewegungswelt" (Schmidt, 1997, S. 156, zitiert nach Schmidt, Hartmann-Tews & Brettschneider, 2003, S. 31). Das kindliche Bewegungsverhalten hat sich bereits im Grundschulalter verändert, so dass sich Bewegungsaktivitäten von Kindern erheblich unterscheiden und keineswegs mehr verallgemeinert werden können. Richtet man den Fokus auf die Frage „Wie bewegt sind unsere Kinder?“ so scheint diese von den Medien bereits beantwortet zu sein, da dort von ansteigendem Bewegungsmangel der heutigen Kinder gegenüber früheren Generationen berichtet wird. Wenn es in den Diskussionen um den Gesundheitszustand unserer Kinder geht, nimmt die körperlich-sportliche Aktivität eine entscheidende Rolle ein. Bewegungsmangel ist hierbei ein zentraler Begriff der in der Öffentlichkeit diskutiert wird. Bei der Betrachtung der einzelnen Studien fällt auf, dass deutliche Defizite in der Messung der körperlich-sportlichen Aktivität bestehen. Zentraler Kritikpunkt in den meisten Studien ist die subjektive Erfassung der körperlich-sportlichen Aktivität. Ein Großteil bisheriger Untersuchungen zum Bewegungsverhalten basiert auf Beobachtungen, Befragungen oder Bewegungstagebüchern. Diese liefern ausschließlich zum Teil subjektive Einschätzungen der Kinder oder Eltern über die tatsächliche Bewegungszeit und -intensität. Das objektive Erfassen der Aktivität bzw. Inaktivität ist zwar seit einigen Jahren zentraler Gegenstand vieler Studien, dennoch gilt es, dieses noch sachkundiger zu lösen, um subjektive und objektive Daten zu vergleichen. Um dem Bewegungsmangel der heutigen Kinder entgegenzuwirken, sind empirisch abgesicherte Erkenntnisse über die Bedingungsfaktoren und die Folgen des veränderten Bewegungsverhaltens dringend nötig. Die Quer- und Längsschnittuntersuchung umfasst die Bereiche Anthropometrie, die Erfassung der körperlich-sportlichen Aktivität und die Herzfrequenzmessung über 24h. Für die Studie konnten 106 Jungen und Mädchen im Zeitraum von Januar 2007 bis April 2009 rekrutiert und überprüft werden. Die physiologischen Parameter wurden mit Hilfe des ACTIHEART-Messsytems aufgezeichnet und berechnet. Die Ergebnisse zur körperlich-sportlichen Aktivität wurden in die Untersuchungsabschnitte Schulzeit gesamt, Pause, Sportunterricht, Nachmittag und 24h unterteilt. Durch das Messsystem werden die Bewegungsaktivität und die Herzfrequenz synchron aufgezeichnet. Das System nimmt die Beschleunigungswerte des Körpers auf und speichert sie im frei wählbaren Zeitintervall, Short oder Long Term, in Form von „activity counts“ ab. Das Messsytem berechnet weiterhin die Intensität körperlicher Aktivität.
Plant growth and survival depend on photosynthesis in the leaves. This involves the uptake of carbon dioxide from the atmosphere and the simultaneous capture of light energy to produce organic molecules, which enter metabolism and are converted to many other compounds which then serve as building blocks for biomass growth. Leaves are organs specialised for photosynthetic carbon dioxide fixation. The function of leaves involves many trade-offs which must be optimised in order to achieve effective use of resources and maximum photosynthesis. It is known that the morphology of leaves adjusts to the growth environment of plants and this is important for optimising their function for photosynthesis. However, it is unclear how this adjustment is regulated. The general aim of the work presented in this thesis is to understand how leaf growth and morphology are regulated in the model species Arabidopsis thaliana. Special attention was dedicated to the possibility that there might be internal metabolic signals within the plant which affect the growth and development of leaves. In order to investigate this question, leaf growth and development must be considered beyond the level of the single organ and in the context of the whole plant because leaves do not grow autonomously but depend on resources and regulatory influences delivered by the rest of the plant. Due to the complexity of this question, three complementary approaches were taken. In the first and most specific approach it was asked whether a proposed down-stream component of sucrose signalling, trehalose-6-phosphate (Tre-6-P), might influence leaf development and growth. To investigate this question, transgenic Arabidopsis lines with perturbed levels of Tre-6-P were generated using the constitutive 35S promoter to express bacterial enzymes involved in trehalose metabolism. These experiments also led to an unanticipated project concerning a possible role for Tre-6-P in stomatal function, which is another very important function in leaves. In a second and more general approach it was investigated whether changes in sugar levels in plants affect the morphogenesis of leaves in response to light. For this, a series of metabolic mutants impaired in central metabolism were grown in one light environment and their leaf morphology was analysed. In a third and even more general approach the natural variation in leaf and rosette morphological traits was investigated in a panel of wild Arabidopsis accessions with the aim of understanding how leaf morphology affects leaf function and whole plant growth and how different traits relate to each other. The analysis included measurements of leaf morphological traits as well as the number of leaves in the plant to put leaf morphology in a whole plant context. The variance in plant growth could not be explained by variation in photosynthetic rates and only to a small degree by variation in rates of dark respiration. There were four key axes of variation in rosette and leaf morphology – leaf area growth, leaf thickness, cell expansion and leaf number. These four processes were integrated in the context of whole plant growth by models that employed a multiple linear regression approach. This then led to a theoretical approach in which a simple allometric mathematical model was constructed, linking leaf number, leaf size and plant growth rate together in a whole plant context in Arabidopsis.
Das Hauptziel dieser Arbeit ist das Verständnis der molekularen Kristallisation, sowohl mit als auch ohne polymere Additive, als einen mehrstufigen Prozess. Dieser beinhaltet eine transiente flüssig-flüssig Phasentrennung, die Nukleation von Nanokristallen in der dichten flüssigen Precursor-Phase so wie eine anschließende nanokristalline Selbstorganisation. Die Arbeit beginnt mit Untersuchungen an einem quaternären Modelsystem bestehend aus DL-Glutamat (Glu), Polyethylenimin (PEI), Wasser und Ethanol. Das Phasendiagramm dieses quaternären Systems wird durch Variation der Glu/PEI w/w und Wasser/EtOH v/v Verhältnisse bestimmt, wobei Präzpitat aus polymerinduzierten flüssigen Precursor, Koazervate oder homogene Mischungen erhalten werden Das thermodynamisch stabile Koazervat kann als Referenz für das Verständnis von flüssigen Precursorn angesehen werden, welche in der Natur metastabil und transient sind. Der mehrstufige Mechanismus der Glu-Präzipitation mit PEI als Additiv wird dann mittels Neutronen Kleinwinkelstreuung untersucht. Dies zeigt, dass die ursprünglich gebildeten flüssigen Precursor noch vor der Nukleation von Nanokristallen einen Wechsel von Wachstum und Koaleszenz durchlaufen. Die Ergebnisse aus optischer- und Eletronenmikroskopie zeigen, dass sowohl die flüssigen Precursor Superstrukturen ausbilden als auch, dass die Nukleation von Nanoplättchen in jedem einzelnen Precursor Tropfen von statten geht. Dies geschieht noch bevor sich die Nanoplättchen selbst in einer radialen Orientierung ausrichten. Diese Studie liefert die Kinetik der Präzipitation von organischen Stoffen in Gegenwart von polymeren Additiven. Eine ähnliche Vorgehensweise wie für die Herstellung von Mikrokügelchen kann für die Darstellung von gemusterten Filmen angewandt werden. Die homogene Nukleation von Nanopartikeln (NPs) findet während der Verdampfung einer quarternären DL-Lys·HCl-Polyacrylsäure-Wasser-Ethanol Dispersion auf einer hydrophilen Oberfläche statt. Die darauffolgende vollständige Verdampfung löst die Mesokristallisation eines kontinuierlichen sphärolithischen dünnen Films aus, welcher sich wiederum in einen mesokristallinen dünnen Film umwandelt. Mesokristalline Filme mit 4 Hierarchiestufen bzw. auch periodische Filme werden durch die Verdampfung der Mikrokügelchen-Dispersion erhalten. Die Ergebnisse zeigen, dass die Verdampfung eine einfache aber effektive Methode zur Herstellung von verschieden gemusterten hierarchischen Filmen darstellt. Nicht-klassische Kristallisation wird auch in der Abwesenheit von polymeren Additiven beobachtet. Wir verfolgen mittels Rasterkraftmikroskop (AFM) die Nukleation und das Wachstum einer neuen molekularen Schicht auf wachsenden DL-Glu·H2O Kristallen aus übersättigter Mutterlauge. Die Bildung einer neuen molekularen Schicht verläuft durch die Anlagerung von amorphen Nanopartikeln. Das Schrumpfen der NPs zusammen mit der strukturellen Änderung von dreidimensionalen NPs zu 2D Schichten wird während dieses Relaxationsprozesses beobachtet. Schließlich kommt es zu der Ausbildung einer neuen molekularen Schicht. Die Bildung einer molekularen Schicht durch die Anlagerung von Nanopartikeln aus der Lösung und die darauffolgende Relaxation liefert ein abweichendes Bild zu der bisher gängigen klassischen Theorie des Kristallwachstums.
Rechtsstellung der Beteiligten und notwendiger Rechtserwerb bei der Filmproduktion in Australien
(2011)
Motivation | Societal and economic needs of East Africa rely entirely on the availability of water, which is governed by the regular onset and retreat of the rainy seasons. Fluctuations in the amounts of rainfall has tremendous impact causing widespread famine, disease outbreaks and human migrations. Efforts towards high resolution forecasting of seasonal precipitation and hydrological systems are therefore needed, which requires high frequency short to long-term analyses of available climate data that I am going to present in this doctoral thesis by three different studies. 15,000 years - Suguta Valley | The main study of this thesis concentrated on the understanding of humidity changes within the last African Humid Period (AHP, 14.8-5.5 ka BP). The nature and causes of intensity variations of the West-African (WAM) and Indian Summer monsoons (ISM) during the AHP, especially their exact influence on regional climate relative to each other, is currently intensely debated. Here, I present a high-resolution multiproxy lake-level record spanning the AHP from the remote Suguta Valley in the northern Kenya Rift, located between the WAM and ISM domains. The presently desiccated valley was during the AHP filled by a 300 m deep and 2200 km2 large palaeo-lake due to an increase in precipitation of only 26%. The record explains the synchronous onset of large lakes in the East African Rift System (EARS) with the longitudinal shift of the Congo Air Boundary (CAB) over the East African and Ethiopian Plateaus, as the direct consequence of an enhanced atmospheric pressure gradient between East-Africa and India due to a precessional-forced northern hemisphere insolation maximum. Pronounced, and abrupt lake level fluctuations during the generally wet AHP are explained by small-scale solar irradiation changes weakening this pressure gradient atmospheric moisture availability preventing the CAB from reaching the study area. Instead, the termination of the AHP occurred, in a non-linear manner due to a change towards an equatorial insolation maximum ca. 6.5 ka ago extending the AHP over Ethiopia and West-Africa. 200 years - Lake Naivasha | The second part of the thesis focused on the analysis of a 200 year-old sediment core from Lake Naivasha in the Central Kenya Rift, one of the very few present freshwater lakes in East Africa. The results revealed and confirmed, that the appliance of proxy records for palaeo-climate reconstruction for the last 100 years within a time of increasing industrialisation and therefore human impact to the proxy-record containing sites are broadly limited. Since the middle of the 20th century, intense anthropogenic activity around Lake Naivasha has led to cultural eutrophication, which has overprinted the influence of natural climate variation to the lake usually inferred from proxy records such as diatoms, transfer-functions, geochemical and sedimentological analysis as used in this study. The results clarify the need for proxy records from remote unsettled areas to contribute with pristine data sets to current debates about anthropologic induced global warming since the past 100 years. 14 years - East African Rift | In order to avoid human influenced data sets and validate spatial and temporal heterogeneities of proxy-records from East Africa, the third part of the thesis therefore concentrated on the most recent past 14 years (1996-2010) detecting climate variability by using remotely sensed rainfall data. The advancement in the spatial coverage and temporal resolutions of rainfall data allow a better understanding of influencing climate mechanisms and help to better interpret proxy-records from the EARS in order to reconstruct past climate conditions. The study focuses on the dynamics of intraseasonal rainfall distribution within catchments of eleven lake basins in the EARS that are often used for palaeo-climate studies. We discovered that rainfall in adjacent basins exhibits high complexities in the magnitudes of intraseasonal variability, biennial to triennial precipitation patterns and even are not necessarily correlated often showing opposite trends. The variability among the watersheds is driven by the complex interaction of topography, in particular the shape, length and elevation of the catchment and its relative location to the East African Rift System and predominant influence of the ITCZ or CAB, whose locations and intensities are dependent on the strength of low pressure cells over India, SST variations in the Atlantic, Pacific or Indian Ocean, QBO phases and the 11-year solar cycle. Among all seasons we observed, January-September is the season of highest and most complex rainfall variability, especially for the East African Plateau basins, most likely due to the irregular penetration and sensitivity of the CAB.
This work addresses issues in the automatic preprocessing of historical German input text for use by conventional natural language processing techniques. Conventional techniques cannot adequately account for historical input text due to conventional tools' reliance on a fixed application-specific lexicon keyed by contemporary orthographic surface form on the one hand, and the lack of consistent orthographic conventions in historical input text on the other. Historical spelling variation is treated here as an error-correction problem or "canonicalization" task: an attempt to automatically assign each (historical) input word a unique extant canonical cognate, thus allowing direct application-specific processing (tagging, parsing, etc.) of the returned canonical forms without need for any additional application-specific modifications. In the course of the work, various methods for automatic canonicalization are investigated and empirically evaluated, including conflation by phonetic identity, conflation by lemma instantiation heuristics, canonicalization by weighted finite-state rewrite cascade, and token-wise disambiguation by a dynamic Hidden Markov Model.
Organic thin film transistors (TFT) are an attractive option for low cost electronic applications and may be used for active matrix displays and for RFID applications. To extend the range of applications there is a need to develop and optimise the performance of non-volatile memory devices that are compatible with the solution-processing fabrication procedures used in plastic electronics. A possible candidate is an organic TFT incorporating the ferroelectric co-polymer poly(vinylidenefluoride-trifluoroethylene)(P(VDF-TrFE)) as the gate insulator. Dielectric measurements have been carried out on all-organic metal-insulator-semiconductor structures with the ferroelectric polymer poly(vinylidenefluoride-trifluoroethylene) (P(VDF-TrFE)) as the gate insu-lator. The capacitance spectra of MIS devices, were measured under different biases, showing the effect of charge accumulation and depletion on the Maxwell-Wagner peak. The position and height of this peak clearly indicates the lack of stable depletion behavior and the decrease of mobility when increasing the depletion zone width, i.e. upon moving into the P3HT bulk. The lack of stable depletion was further investigated with capacitance-voltage (C-V) measurements. When the structure was driven into depletion, C-V plots showed a positive flat-band voltage shift, arising from the change in polarization state of the ferroelectric insulator. When biased into accumulation, the polarization was reversed. It is shown that the two polarization states are stable i.e. no depolarization occurs below the coercive field. However, negative charge trapped at the semiconductor-insulator interface during the depletion cycle masks the negative shift in flat-band voltage expected during the sweep to accumulation voltages. The measured output characteristics of the studied ferroelectric-field-effect transistors confirmed the results of the C-V plots. Furthermore, the results indicated a trapping of electrons at the positively charged surfaces of the ferroelectrically polarized P(VDF-TrFE) crystallites near the insulator/semiconductor in-terface during the first poling cycles. The study of the MIS structure by means of thermally stimulated current (TSC) revealed further evidence for the stability of the polarization under depletion voltages. It was shown, that the lack of stable depletion behavior is caused by the compensation of the orientational polarization by fixed electrons at the interface and not by the depolarization of the insulator, as proposed in several publications. The above results suggest a performance improvement of non-volatile memory devices by the optimization of the interface.
Plants and some unicellular algae store carbon in the form of transitory starch on a diurnal basis. The turnover of this glucose polymer is tightly regulated and timely synthesis as well as mobilization is essential to provide energy for heterotrophic growth. Especially for starch degradation, novel enzymes and mechanisms have been proposed recently. However, the catalytic properties of these enzymes and their coordination with metabolic regulation are still to be discovered. This thesis develops theoretical methods in order to interpret and analyze enzymes and their role in starch degradation. In the first part, a novel description of interfacial enzyme catalysis is proposed. Since the initial steps of starch degradation involve reactions at the starch-stroma interface it is necessary to have a framework which allows the derivation of interfacial enzyme rate laws. A cornerstone of the method is the introduction of the available area function - a concept from surface physics - to describe the adsorption step in the catalytic cycle. The method is applied to derive rate laws for two hydrolases, the Beta-amylase (BAM3) and the Isoamylase (DBE/ISA3), as well as to the Glucan, water dikinase (GWD) and a Phosphoglucan phosphatase (DSP/SEX4). The second part uses the interfacial rate laws to formulate a kinetic model of starch degradation. It aims at reproducing the stimulatory effect of reversible phosphorylation by GWD and DSP on the breakdown of the granule. The model can describe the dynamics of interfacial properties during degradation and suggests that interfacial amylopectin side-chains undergo spontaneous helix-coil transitions. Reversible phosphorylation has a synergistic effect on glucan release especially in the early phase dropping off during degradation. Based on the model, the hypothesis is formulated that interfacial phosphorylation is important for the rapid switch from starch synthesis to starch degradation. The third part takes a broader perspective on carbohydrate-active enzymes (CAZymes) but is motivated by the organization of the downstream pathway of starch breakdown. This comprises Alpha-1,4-glucanotransferases (DPE1 and DPE2) and Alpha-glucan-phosphorylases (Pho or PHS) both in the stroma and in the cytosol. CAZymes accept many different substrates and catalyze numerous reactions and therefore cannot be characterized in classical enzymological terms. A concise characterization is provided by conceptually linking statistical thermodynamics and polymer biochemistry. Each reactant is interpreted as an energy level, transitions between which are constrained by the enzymatic mechanisms. Combinations of in vitro assays of polymer-active CAZymes essential for carbon metabolism in plants confirmed the dominance of entropic gradients. The principle of entropy maximization provides a generalization of the equilibrium constant. Stochastic simulations confirm the results and suggest that randomization of metabolites in the cytosolic pool of soluble heteroglycans (SHG) may contribute to a robust integration of fluctuating carbon fluxes coming from chloroplasts.
This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse.
Aggregation of the Amyloid β (Aβ) peptide to amyloid fibrils is associated with the outbreak of Alzheimer’s disease. Early aggregation intermediates in form of soluble oligomers are of special interest as they are believed to be the major toxic components in the process. These oligomers are of disordered and transient nature. Therefore, their detailed molecular structure is difficult to access experimentally and often remains unknown. In the present work extensive, fully atomistic replica exchange molecular dynamics simulations were performed to study the preaggregated, monomer states and early aggregation intermediates (dimers, trimers) of Aβ(25-35) and Aβ(10-35)-NH2 in aqueous solution. The folding and aggregation of Aβ(25-35) were studied at neutral pH and 293 K. Aβ(25-35) monomers mainly adopt β-hairpin conformations characterized by a β-turn formed by residues G29 and A30, and a β-sheet between residues N27–K28 and I31–I32 in equilibrium with coiled conformations. The β-hairpin conformations served as initial configurations to model spontaneous aggregation of Aβ(25-35). As expected, within the Aβ(25-35) dimer and trimer ensembles many different poorly populated conformations appear. Nevertheless, we were able to distinguish between disordered and fibril-like oligomers. Whereas disordered oligomers are rather compact with few intermolecular hydrogen bonds (HBs), fibril-like oligomers are characterized by the formation of large intermolecular β-sheets. In most of the fibril-like dimers and trimers individual peptides are fully extended forming in- or out-of-register antiparallel β-sheets. A small amount of fibril-like trimers contained V-shaped peptides forming parallel β-sheets. The dimensions of extended and V-shaped oligomers correspond well to the diameters of two distinct morphologies found for Aβ(25-35) fibrils. The transition from disordered to fibril-like Aβ(25-35) dimers is unfavorable but driven by energy. The lower energy of fibril-like dimers arises from favorable intermolecular HBs and other electrostatic interactions which compete with a loss in entropy. Approximately 25 % of the entropic cost correspond to configurational entropy. The rest relates to solvent entropy, presumably caused by hydrophobic and electrostatic effects. In contrast to the transition towards fibril-like dimers the first step of aggregation is driven by entropy. Here, we compared structural and thermodynamic properties of the individual monomer, dimer and trimer ensembles to gain qualitative information about the aggregation process. The β-hairpin conformation observed for monomers is successively dissolved in dimer and trimer ensembles while instead intermolecular β-sheets are formed. As expected upon aggregation the configurational entropy decreases. Additionally, the solvent accessible surface area (SASA), especially the hydrophobic SASA, decreases yielding a favorable solvation free energy which overcompensates the loss in configurational entropy. In summary, the hydrophobic effect, possibly combined with electrostatic effects, yields an increase in solvent entropy which is believed to be one major driving force towards aggregation. Spontaneous folding of the Aβ(10-35)-NH2 monomer was modeled using two force fields, GROMOS96 43a1 and OPLS/AA, and compared to primary NMR data collected at pH 5.6 and 283 K taken from the literature. Unexpectedly, the two force fields yielded significantly different main conformations. Comparison between experimental and calculated nuclear Overhauser effect (NOE) distances is not sufficient to distinguish between the different force fields. Additionally, the comparison with scalar coupling constants suggest that the chosen protonation in both simulations corresponds to a pH lower than in the experiment. Based on this analysis we were unable to determine which force field yields a better description of this system. Dimerization of Aβ(10-35)-NH2 was studied at neutral pH and 300 K. Dimer conformations arrange in many distinct, poorly populated and rather complex alignments or interlocking patterns which are rather stabilized by side chain interactions than by specific intermolecular hydrogen bonds. Similar to Aβ(25-35) dimers, transition towards β-sheet-rich, fibril-like Aβ(10-35) dimers is driven by energy competing with a loss in entropy. Here, transition is mediated by favorable peptide-solvent and solvent-solvent interactions mainly arising from electrostatic interactions.
In this thesis, simulations of laser-driven many-electron dynamics in molecules are presented, i.e., the interaction between molecules and an electromagnetic field is demonstrated. When a laser field is applied to a molecular system, a population of higher electronic states takes place as well as other processes, e.g. photoionization, which is described by an appropriate model. Also, a finite lifetime of an excited state can be described by such a model. In the second part, a method is postulated that is capable of describing electron correlation in a time-dependent scheme. This is done by introducing a single-electron entropy that is at least temporarily minimized in a further step.
The modeling and evaluation calculus FMC-QE, the Fundamental Modeling Concepts for Quanti-tative Evaluation [1], extends the Fundamental Modeling Concepts (FMC) for performance modeling and prediction. In this new methodology, the hierarchical service requests are in the main focus, because they are the origin of every service provisioning process. Similar to physics, these service requests are a tuple of value and unit, which enables hierarchical service request transformations at the hierarchical borders and therefore the hierarchical modeling. Through reducing the model complexity of the models by decomposing the system in different hierarchical views, the distinction between operational and control states and the calculation of the performance values on the assumption of the steady state, FMC-QE has a scalable applica-bility on complex systems. According to FMC, the system is modeled in a 3-dimensional hierarchical representation space, where system performance parameters are described in three arbitrarily fine-grained hierarchi-cal bipartite diagrams. The hierarchical service request structures are modeled in Entity Relationship Diagrams. The static server structures, divided into logical and real servers, are de-scribed as Block Diagrams. The dynamic behavior and the control structures are specified as Petri Nets, more precisely Colored Time Augmented Petri Nets. From the structures and pa-rameters of the performance model, a hierarchical set of equations is derived. The calculation of the performance values is done on the assumption of stationary processes and is based on fundamental laws of the performance analysis: Little's Law and the Forced Traffic Flow Law. Little's Law is used within the different hierarchical levels (horizontal) and the Forced Traffic Flow Law is the key to the dependencies among the hierarchical levels (vertical). This calculation is suitable for complex models and allows a fast (re-)calculation of different performance scenarios in order to support development and configuration decisions. Within the Research Group Zorn at the Hasso Plattner Institute, the work is embedded in a broader research in the development of FMC-QE. While this work is concentrated on the theoretical background, description and definition of the methodology as well as the extension and validation of the applicability, other topics are in the development of an FMC-QE modeling and evaluation tool and the usage of FMC-QE in the design of an adaptive transport layer in order to fulfill Quality of Service and Service Level Agreements in volatile service based environments. This thesis contains a state-of-the-art, the description of FMC-QE as well as extensions of FMC-QE in representative general models and case studies. In the state-of-the-art part of the thesis in chapter 2, an overview on existing Queueing Theory and Time Augmented Petri Net models and other quantitative modeling and evaluation languages and methodologies is given. Also other hierarchical quantitative modeling frameworks will be considered. The description of FMC-QE in chapter 3 consists of a summary of the foundations of FMC-QE, basic definitions, the graphical notations, the FMC-QE Calculus and the modeling of open queueing networks as an introductory example. The extensions of FMC-QE in chapter 4 consist of the integration of the summation method in order to support the handling of closed networks and the modeling of multiclass and semaphore scenarios. Furthermore, FMC-QE is compared to other performance modeling and evaluation approaches. In the case study part in chapter 5, proof-of-concept examples, like the modeling of a service based search portal, a service based SAP NetWeaver application and the Axis2 Web service framework will be provided. Finally, conclusions are given by a summary of contributions and an outlook on future work in chapter 6. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Procee-dings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, pages 280 – 287, Las Vegas, NV, USA, June 2007. CSREA Press. ISBN 1-60132-029-9.
In this thesis chemical reactions under hydrothermal conditions were explored, whereby emphasis was put on green chemistry. Water at high temperature and pressure acts as a benign solvent. Motivation to work under hydrothermal conditions was well-founded in the tunability of physicochemical properties with temperature, e.g. of dielectric constant, density or ion product, which often resulted in surprising reactivity. Another cornerstone was the implementation of the principles of green chemistry. Besides the use of water as solvent, this included the employment of a sustainable feedstock and the sensible use of resources by minimizing waste and harmful intermediates and additives. To evaluate the feasibility of hydrothermal conditions for chemical synthesis, exemplary reactions were performed. These were carried out in a continuous flow reactor, allowing for precise control of reaction conditions and kinetics measurements. In most experiments a temperature of 200 °C in combination with a pressure of 100 bar was chosen. In some cases the temperature was even raised to 300 °C. Water in this subcritical range can also be found in nature at hydrothermal vents on the ocean floor. On the primitive earth, environments with such conditions were however present in larger numbers. Therefore we tested whether biologically important carbohydrates could be formed at high temperature from the simple, probably prebiotic precursor formaldehyde. Indeed, this formose reaction could be carried out successfully, although the yield was lower compared to the counterpart reaction under ambient conditions. However, striking differences regarding selectivity and necessary catalysts were observed. At moderate temperatures bases and catalytically active cations like Ca2+ are necessary and the main products are hexoses and pentoses, which accumulate due to their higher stability. In contrast, in high-temperature water no catalyst was necessary but a slightly alkaline solution was sufficient. Hexoses were only formed in negligible amounts, whereas pentoses and the shorter carbohydrates accounted for the major fraction. Amongst the pentoses there was some preference for the formation of ribose. Even deoxy sugars could be detected in traces. The observation that catalysts can be avoided was successfully transferred to another reaction. In a green chemistry approach platform chemicals must be produced from sustainable resources. Carbohydrates can for instance be employed as a basis. They can be transformed to levulinic acid and formic acid, which can both react via a transfer hydrogenation to the green solvent and biofuel gamma-valerolactone. This second reaction usually requires catalysis by Ru or Pd, which are neither sustainable nor low-priced. Under hydrothermal conditions these heavy metals could be avoided and replaced by cheap salts, taking advantage of the temperature dependence of the acid dissociation constant. Simple sulfate was recognized as a temperature switchable base. With this additive high yield could be achieved by simultaneous prevention of waste. In contrast to conventional bases, which create salt upon neutralization, a temperature switchable base becomes neutral again when cooled down and thus can be reused. This adds another sustainable feature to the high atom economy of the presented hydrothermal synthesis. In a last study complex decomposition pathways of biomass were investigated. Gas chromatography in conjunction with mass spectroscopy has proven to be a powerful tool for the identification of unknowns. It was observed that several acids were formed when carbohydrates were treated with bases at high temperature. This procedure was also applied to digest wood. Afterwards it was possible to fermentate the solution and a good yield of methane was obtained. This has to be regarded in the light of the fact that wood practically cannot be used as a feedstock in a biogas factory. Thus the hydrothermal pretreatment is an efficient means to employ such materials as well. Also the reaction network of the hydrothermal decomposition of glycine was investigated using isotope-labeled compounds as comparison for the unambiguous identification of unknowns. This refined analysis allowed the identification of several new molecules and pathways, not yet described in literature. In summary several advantages could be taken from synthesis in high-temperature water. Many catalysts, absolutely necessary under ambient conditions, could either be completely avoided or replaced by cheap, sustainable alternatives. In this respect water is not only a green solvent, but helps to prevent waste and preserves resources.
Magnetische Nanopartikel bieten ein großes Potential, da sie einerseits die Eigenschaften ihrer Bulk-Materialien besitzen und anderseits, auf Grund ihrer Größe, über komplett unterschiedliche magnetische Eigenschaften verfügen können; Superparamagnetismus ist eine dieser Eigenschaften. Die meisten etablierten Anwendungen magnetischer Nanopartikel basieren heutzutage auf Eisenoxiden. Diese bieten gute magnetische Eigenschaften, sind chemisch relativ stabil, ungiftig und lassen sich auf vielen Synthesewegen relativ einfach herstellen. Die magnetischen Eigenschaften der Eisenoxide sind materialabhängig aber begrenzt, weshalb nach anderen Verbindungen mit besseren Eigenschaften gesucht werden muss. Eisencarbid (Fe3C) kann eine dieser Verbindungen sein. Dieses besitzt vergleichbare positive Eigenschaften wie Eisenoxid, jedoch viel bessere magnetische Eigenschaften, speziell eine höhere Sättigungsmagnetisierung. Bis jetzt wurde Fe3C hauptsächlich in Gasphasenabscheidungsprozessen synthetisiert oder als Nebenprodukt bei der Synthese von Kohlenstoffstrukturen gefunden. Eine Methode, mit der gezielt Fe3C-Nanopartikel und andere Metallcarbide synthetisiert werden können, ist die „Harnstoff-Glas-Route“. Neben den Metallcarbiden können mit dieser Methode auch die entsprechenden Metallnitride synthetisiert werden, was die breite Anwendbarkeit der Methode unterstreicht. Die „Harnstoff-Glas-Route“ ist eine Kombination eines Sol-Gel-Prozesses mit einer anschließenden carbothermalen Reduktion/Nitridierung bei höheren Temperaturen. Sie bietet den Vorteil einer einfachen und schnellen Synthese verschiedener Metallcarbide/nitride. Der Schwerpunkt in dieser Arbeit lag auf der Synthese von Eisencarbiden/nitriden, aber auch Nickel und Kobalt wurden betrachtet. Durch die Variation der Syntheseparameter konnten verschiedene Eisencarbid/nitrid Nanostrukturen synthetisiert werden. Fe3C-Nanopartikel im Größenbereich von d = 5 – 10 nm konnten, durch die Verwendung von Eisenchlorid, hergestellt werden. Die Nanopartikel weisen durch ihre geringe Größe superparamagnetische Eigenschaften auf und besitzen, im Vergleich zu Eisenoxid Nanopartikeln im gleichen Größenbereich, eine höhere Sättigungsmagnetisierung. Diese konnten in fortführenden Experimenten erfolgreich in ionischen Flüssigkeiten und durch ein Polymer-Coating, im wässrigen Medium, dispergiert werden. Desweiteren wurde durch ein Templatieren mit kolloidalem Silika eine mesoporöse Fe3C-Nanostruktur hergestellt. Diese konnte erfolgreich in der katalytischen Spaltung von Ammoniak getestet werden. Mit der Verwendung von Eisenacetylacetonat konnten neben Fe3C-Nanopartikeln, nur durch Variation der Reaktionsparameter, auch Fe7C3- und Fe3N-Nanopartikel synthetisiert werden. Speziell für die Fe3C-Nanopartikel konnte die Sättigungsmagnetisierung, im Vergleich zu den mit Eisenchlorid synthetisierten Nanopartikeln, nochmals erhöht werden. Versuche mit Nickelacetat führten zu Nickelnitrid (Ni3N) Nanokristallen. Eine zusätzliche metallische Nickelphase führte zu einer Selbstorganisation der Partikel in Scheiben-ähnliche Überstrukturen. Mittels Kobaltacetat konnten, in Sphären aggregierte, metallische Kobalt Nanopartikel synthetisiert werden. Kobaltcarbid/nitrid war mit den gegebenen Syntheseparametern nicht zugänglich.
The present thesis introduces an iterative expert-based Bayesian approach for assessing greenhouse gas (GHG) emissions from the 2030 German new vehicle fleet and quantifying the impacts of their main drivers. A first set of expert interviews has been carried out in order to identify technologies which may help to lower car GHG emissions and to quantify their emission reduction potentials. Moreover, experts were asked for their probability assessments that the different technologies will be widely adopted, as well as for important prerequisites that could foster or hamper their adoption. Drawing on the results of these expert interviews, a Bayesian Belief Network has been built which explicitly models three vehicle types: Internal Combustion Engine Vehicles (which include mild and full Hybrid Electric Vehicles), Plug-In Hybrid Electric Vehicles, and Battery Electric Vehicles. The conditional dependencies of twelve central variables within the BBN - battery energy, fuel and electricity consumption, relative costs, and sales shares of the vehicle types - have been quantified by experts from German car manufacturers in a second series of interviews. For each of the seven second-round interviews, an expert's individually specified BBN results. The BBN have been run for different hypothetical 2030 scenarios which differ, e.g., in regard to battery development, regulation, and fuel and electricity GHG intensities. The present thesis delivers results both in regard to the subject of the investigation and in regard to its method. On the subject level, it has been found that the different experts expect 2030 German new car fleet emission to be at 50 to 65% of 2008 new fleet emissions under the baseline scenario. They can be further reduced to 40 to 50% of the emissions of the 2008 fleet though a combination of a higher share of renewables in the electricity mix, a larger share of biofuels in the fuel mix, and a stricter regulation of car CO$_2$ emissions in the European Union. Technically, 2030 German new car fleet GHG emissions can be reduced to a minimum of 18 to 44% of 2008 emissions, a development which can not be triggered by any combination of measures modeled in the BBN alone but needs further commitment. Out of a wealth of existing BBN, few have been specified by individual experts through elicitation, and to my knowledge, none of them has been employed for analyzing perspectives for the future. On the level of methods, this work shows that expert-based BBN are a valuable tool for making experts' expectations for the future explicit and amenable to the analysis of different hypothetical scenarios. BBN can also be employed for quantifying the impacts of main drivers. They have been demonstrated to be a valuable tool for iterative stakeholder-based science approaches.
Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zunächst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit über weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 näher erforscht, dazu wurden Wildtyp- und GPx2-Knockout-Mäuse in Hinblick auf Veränderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendiäten verfüttert: selenarmes, selenadäquates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am höchsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erhöhung der Apoptoserate am Kryptengrund. Dabei war der größte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Veränderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verlängerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erhöhte die GPx1-Expression im Kryptengrund auf allen drei Selendiäten. Diese Überexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Homöostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Klärung der Frage, welchen Einfluss GPx2 auf die entzündungsassoziierte Colonkarzinogenese ausübt. In dem hierfür verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entzündung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entzündungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich stärker entzündet als im Wildtyp. Diese Ergebnisse bestätigen die für die GPx2 postulierte antiinflammatorische Funktion. Normalerweise führt eine Erhöhung der Mitoseanzahl zur Regeneration des entzündeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entzündung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entzündung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 begünstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine adäquate GPx2-Expression vor Entzündung schützt und somit das Risiko für Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, hängt vermutlich vom Stadium des Colonkarzinogenese ab.
Mathematik spielt im Physikunterricht eine nicht unerhebliche Rolle - wenn auch eine zwiespältige. Oft wird sie sogar zum Hindernis beim Lernen von Physik und kann ihr emanzipatorisches Potenzial nicht entfalten. Die vorliegende Arbeit stellt zwei Bausteine für eine begründete Konzeption zum Umgang mit Mathematik beim Lernen von Physik zur Verfügung. Im Theorieteil der Arbeit werden zum Einen wissenschaftstheoretische Aspekte der Rolle der Mathematik in der Physik aufgearbeitet und der physikdidaktischen Forschungsgemeinschaft im Zusammenhang zugänglich gemacht. Zum anderen werden Forschungsergebnisse zu Vorstellungen Lernender über Physik und Mathematik sowie im Bereich der Epistemologie zusammengestellt. Im empirischen Teil der Arbeit werden Vorstellungen zur Rolle der Mathematik in der Physik von Schülerinnen und Schülern der Klassenstufen 10 und 12 sowie Physik-Lehramtstudierenden im Grundstudium mit Hilfe eines Fragebogens erhoben und unter Verwendung inhaltsanalytischer bzw. statistischer Methoden ausgewertet. Die Ergebnisse zeigen unter Anderem, dass Mathematik im Physikunterricht entgegen gängiger Meinungen bei den Lernenden nicht negativ, aber zumindest bei jüngeren Lernenden formal und algorithmisch konnotiert ist.
In this work new fluorinated and non-fluorinated mono- and bifunctional trithiocarbonates of the structure Z-C(=S)-S-R and Z-C(=S)-S-R-S-C(=S)-Z were synthesized for the use as chain transfer agents (CTAs) in the RAFT-process. All newly synthesized CTAs were tested for their efficiency to moderate the free radical polymerization process by polymerizing styrene (M3). Besides characterization of the homopolymers by GPC measurements, end- group analysis of the synthesized block copolymers via 1H-, 19F-NMR, and in some cases also UV-vis spectroscopy, were performed attaching suitable fluorinated moieties to the Z- and/or R-groups of the CTAs. Symmetric triblock copolymers of type BAB and non-symmetric fluorine end- capped polymers were accessible using the RAFT process in just two or one polymerization step. In particular, the RAFT-process enabled the controlled polymerization of hydrophilic monomers such as N-isopropylacrylamide (NIPAM) (M1) as well as N-acryloylpyrrolidine (NAP) (M2) for the A-blocks and of the hydrophobic monomers styrene (M3), 2-fluorostyrene (M4), 3-fluorostyrene (M5), 4-fluorostyrene (M6) and 2,3,4,5,6-pentafluorostyrene (M7) for the B-blocks. The properties of the BAB-triblock copolymers were investigated in dilute, concentrated and highly concentrated aqueous solutions using DLS, turbidimetry, 1H- and 19F-NMR, rheology, determination of the CMC, foam height- and surface tension measurements and microscopy. Furthermore, their ability to stabilize emulsions and microemulsions and the wetting behaviour of their aqueous solutions on different substrates was investigated. The behaviour of the fluorine end-functionalized polymers to form micelles was studied applying DLS measurements in diluted organic solution. All investigated BAB-triblock copolymers were able to form micelles and show surface activity at room temperature in dilute aqueous solution. The aqueous solutions displayed moderate foam formation. With different types and concentrations of oils, the formation of emulsions could be detected using a light microscope. A boosting effect in microemulsions could not be found adding BAB-triblock copolymers. At elevated polymer concentrations, the formation of hydrogels was proved applying rheology measurements.
Lamine bilden zusammen mit laminassoziierten Proteinen die nukleäre Lamina. Diese ist notwendig für die mechanische Stabilität von Zellen, die Organisation des Chromatins, der Genexpression, dem Fortgang des Zellzyklus und der Zellmigration. Die vielfältigen Funktionen der Lamine werden durch die Pathogenese von Laminopathien belegt. Zu diesen Erkrankungen, welche ihre Ursache in Mutationen innerhalb der laminkodierenden Gene, oder der Gene laminassoziierter bzw. laminprozessierender Proteine haben, zählen unter anderem das „Hutchinson-Gilford Progerie Syndrom“, die „Emery-Dreifuss“ Muskeldystrophie und die dilatierte Kardiomyopathie. Trotz der fundamentalen Bedeutung der Lamine, wurden diese bisher nur in Metazoen und nicht in einzelligen Organismen detektiert. Der amöbide Organismus Dictyostelium discoideum ist ein haploider Eukaryot, der häufig als Modellorganismus in den verschiedensten Bereichen der Zellbiologie eingesetzt wird. Mit der Entdeckung von NE81, einem Protein das mit der inneren Kernhülle von Dictyostelium discoideum assoziiert ist, wurde erstmals ein Protein identifiziert, dass man aufgrund seiner Eigenschaften als laminähnliches Protein in einem niederen Eukaryoten bezeichnen kann. Diese Merkmale umfassen die Existenz lamintypischer Sequenzen, wie die CDK1-Phosphorylierungsstelle, direkt gefolgt von einer zentralen „Rod“-Domäne, sowie eine typische NLS und die hoch konservierte CaaX-Box. Für die Etablierung des NE81 als „primitives“ Lamin, wurden im Rahmen dieser Arbeit verschiedene Experimente durchgeführt, die strukturelle und funktionelle Gemeinsamkeiten zu den Laminen in anderen Organismen aufzeigen konnten. Die Herstellung eines polyklonalen Antikörpers ermöglichte die Verifizierung der subzellulären Lokalisation des NE81 durch Elektronenmikroskopie und gab Einblicke in das Verhalten des endogenen Proteins innerhalb des Zellzyklus. Mit der Generierung von NE81-Nullmutanten konnte demonstriert werden, dass NE81 eine wichtige Rolle bei der nukleären Integrität und der Chromatinorganisation von Zellen spielt. Des Weiteren führte die Expression von zwei CaaX-Box deletierten NE81 - Varianten dazu, den Einfluss des Proteins auf die mechanische Stabilität der Zellen nachweisen zu können. Auch die Bedeutung der hochkonservierten CaaX-Box für die Lokalisation des Proteins wurde durch die erhaltenen Ergebnisse deutlich. Mit der Durchführung von FRAP-Experimente konnte außerdem die strukturgebende Funktion von NE81 innerhalb des Zellkerns bekräftigt werden. Zusätzlich wurde im Rahmen dieser Arbeit damit begonnen, den Einfluss der Isoprenylcysteincarboxylmethyltransferase auf die Lokalisation des Proteins aufzuklären. Die Entdeckung eines laminähnlichen Proteins in einem einzelligen Organismus, der an der Schwelle zu den Metazoen steht, ist für die evolutionäre Betrachtung der Entwicklung der sozialen Amöbe und für die Erforschung der molekularen Basis von Laminopathien in einem einfachen Modellorganismus sehr interessant. Die Arbeit mit Dictyostelium discoideum könnte daher Wege aufzeigen, dass Studium der Laminopathien am Tiermodell drastisch zu reduzieren. In den letzten Jahren hat die Erforschung unbekannter Bestandteile des Centrosoms in Dictyostelium discoideum große Fortschritte gemacht. Eine zu diesem Zwecke von unserer Arbeitsgruppe durchgeführte Proteomstudie, führte zur Identifizierung weiterer, potentiell centrosomaler Kandidatenproteine. Der zweite Teil dieser Arbeit beschäftigt sich mit der Charakterisierung eines solchen Kandidatenproteins, dem CP75. Es konnte gezeigt werden, dass CP75 einen echten, centrosomalen Bestandteil darstellt, der mikrotubuli-unabhängig mit der Core Struktur des Zellorganells assoziiert ist. Weiterhin wurde deutlich, dass die Lokalisation am Centrosom in Abhängigkeit vom Zellzyklus erfolgt und CP75 vermutlich mit CP39, einem weiteren centrosomalen Core Protein, interagiert.
Nanoporous carbon materials are widely used in industry as adsorbents or catalyst supports, whilst becoming increasingly critical to the developing fields of energy storage / generation or separation technologies. In this thesis, the combined use of carbohydrate hydrothermal carbonisation (HTC) and templating strategies is demonstrated as an efficient route to nanostructured carbonaceous materials. HTC is an aqueous-phase, low-temperature (e.g. 130 – 200 °C) carbonisation, which proceeds via dehydration / poly-condensation of carbon precursors (e.g. carbohydrates and their derivatives), allowing facile access to highly functional carbonaceous materials. Whilst possessing utile, modifiable surface functional groups (e.g. -OH and -C=O-containing moieties), materials synthesised via HTC typically present limited accessible surface area or pore volume. Therefore, this thesis focuses on the development of fabrication routes to HTC materials which present enhanced textural properties and well-defined porosity. In the first discussed synthesis, a combined hard templating / HTC route was investigated using a range of sacrificial inorganic templates (e.g. mesoporous silica beads and macroporous alumina membranes (AAO)). Via pore impregnation of mesoporous silica beads with a biomass-derived carbon source (e.g. 2-furaldehyde) and subsequent HTC at 180 oC, an inorganic / carbonaceous hybrid material was produced. Removal of the template component by acid etching revealed the replication of the silica into mesoporous carbonaceous spheres (particle size ~ 5 μm), representing the inverse morphological structure of the original inorganic body. Surface analysis (e.g. FTIR) indicated a material decorated with hydrophilic (oxygenated) functional groups. Further thermal treatment at increasingly elevated temperatures (e.g. at 350, 550, 750 oC) under inert atmosphere allowed manipulation of functionalities from polar hydrophilic to increasingly non-polar / hydrophobic structural motifs (e.g. extension of the aromatic / pseudo-graphitic nature), thus demonstrating a process capable of simultaneous control of nanostructure and surface / bulk chemistry. As an extension of this approach, carbonaceous tubular nanostructures with controlled surface functionality were synthesised by the nanocasting of uniform, linear macropores of an AAO template (~ 200 nm). In this example, material porosity could be controlled, showing increasingly microporous tube wall features as post carbonisation temperature increased. Additionally, by taking advantage of modifiable surface groups, the introduction of useful polymeric moieties (i.e. grafting of thermoresponsive poly(N-isopropylacrylamide)) was also demonstrated, potentially enabling application of these interesting tubular structures in the fields of biotechnology (e.g. enzyme immobilization) and medicine (e.g. as drug micro-containers). Complimentary to these hard templating routes, a combined HTC / soft templating route for the direct synthesis of ordered porous carbonaceous materials was also developed. After selection of structural directing agents and optimisation of synthesis composition, the F127 triblock copolymer (i.e. ethylene oxide (EO)106 propylene oxide (PO)70 ethylene oxide (EO)106) / D-Fructose system was extensively studied. D-Fructose was found to be a useful carbon precursor as the HTC process could be performed at 130 oC, thus allowing access to stable micellular phase. Thermolytic template removal from the synthesised ordered copolymer / carbon composite yielded functional cuboctahedron single crystalline-like particles (~ 5 μm) with well ordered pore structure of a near perfect cubic Im3m symmetry. N2 sorption analysis revealed a predominantly microporous carbonaceous material (i.e. Type I isotherm, SBET = 257 m2g-1, 79 % microporosity) possessing a pore size of ca. 0.9 nm. The addition of a simple pore swelling additive (e.g. trimethylbenzene (TMB)) to this system was found to direct pore size into the mesopore size domain (i.e. Type IV isotherm, SBET = 116 m2g-1, 60 % mesoporosity) generating pore size of ca. 4 nm. It is proposed that in both cases as HTC proceeds to generate a polyfuran-like network, the organised block copolymer micellular phase is essentially “templated”, either via hydrogen bonding between hydrophilic poly(EO) moiety and the carbohydrate or via hydrophobic interaction between hydrophobic poly(PO) moiety and forming polyfuran-like network, whilst the additive TMB presumably interact with poly(PO) moieties, thus swelling the hydrophobic region expanding the micelle template size further into the mesopore range.
Sediment records of three European lakes were investigated in order to reconstruct the regional climate development during the Lateglacial and Holocene, to investigate the response of local ecosystems to climatic fluctuations and human impact and to relate regional peculiarities of past climate development to climatic changes on a larger spatial scale. The Lake Hańcza (NE Poland) sediment record was studied with a focus on reconstructing the early Holocene climate development and identifying possible differences to Western Europe. Following the initial Holocene climatic improvement, a further climatic improvement occurred between 10 000 and 9000 cal. a BP. Apparently, relatively cold and dry climate conditions persisted in NE Poland during the first ca. 1500 years of the Holocene, most likely due to a specific regional atmospheric circulation pattern. Prevailing anticyclonic circulation linked to a high-pressure cell above the remaining Scandinavian Ice Sheet (SIS) might have blocked the eastward propagation of warm and moist Westerlies and thus attenuated the early Holocene climatic amelioration in this region until the final decay of the SIS, a pattern different from climate development in Western Europe. The Lateglacial sediment record of Lake Mondsee (Upper Austria) was investigated in order to study the regional climate development and the environmental response to rapid climatic fluctuations. While the temperature rise and environmental response at the onset of the Holocene took place quasi-synchronously, major leads and lags in proxy responses characterize the onset of the Lateglacial Interstadial. In particular, the spread of coniferous woodlands and the reduction of detrital flux lagged the initial Lateglacial warming by ca. 500–750 years. Major cooling at the onset of the Younger Dryas took place synchronously with a change in vegetation, while the increase of detrital matter flux was delayed by about 150–300 years. Complex proxy responses are also detected for short-term Lateglacial climatic fluctuations. In summary, periods of abrupt climatic changes are characterized by complex and temporally variable proxy responses, mainly controlled by ecosystem inertia and the environmental preconditions. A second study on the Lake Mondsee sediment record focused on two small-scale climate deteriorations around 8200 and 9100 cal. a BP, which have been triggered by freshwater discharges to the North Atlantic, causing a shutdown of the Atlantic meridional overturning circulation (MOC). Combining microscopic varve counting and AMS 14C dating yielded a precise duration estimate (ca. 150 years) and absolute dating of the 8.2 ka cold event, both being in good agreement with results from other palaeoclimate records. Moreover, a sudden temperature overshoot after the 8.2 ka cold event was identified, also seen in other proxy records around the North Atlantic. This was most likely caused by enhanced resumption of the MOC, which also initiated substantial shifts of oceanic and atmospheric front systems. Although there is also evidence from other proxy records for pronounced recovery of the MOC and atmospheric circulation changes after the 9.1 ka cold event, no temperature overshoot is seen in the Lake Mondsee record, indicating the complex behaviour of the global climate system. The Holocene sediment record of Lake Iseo (northern Italy) was studied to shed light on regional earthquake activity and the influence of climate variability and anthropogenic impact on catchment erosion and detrital flux into the lake. Frequent small-scale detrital layers within the sediments reflect allochthonous sediment supply by extreme surface runoff events. During the early to mid-Holocene, increased detrital flux coincides with periods of cold and wet climate conditions, thus apparently being mainly controlled by climate variability. In contrast, intervals of high detrital flux during the late Holocene partly also correlate with phases of increased human impact, reflecting the complex influences on catchment erosion processes. Five large-scale event layers within the sediments, which are composed of mass-wasting deposits and turbidites, are supposed to have been triggered by strong local earthquakes. While the uppermost of these event layers is assigned to a documented adjacent earthquake in AD 1222, the four other layers are supposed to be related to previously undocumented prehistorical earthquakes.
Die neuen Anforderungen an Schulleitungen im Zuge gesellschaftlicher, schulpolitischer und schulinterner Entwicklungen sind erheblich (Huber, 2008). Diese in der Literatur breit geteilte Einschätzung schlägt sich bislang nicht ausreichend in Forschungsaktivitäten zur Gesundheit schulischer Führungskräfte nieder – im Unterschied zu der ausgiebigen Forschung zur Lehrergesundheit, die für die Lehrer durchgängig eine kritische Gesundheitslage feststellt. Besondere Aufmerksamkeit erzielte dabei die Potsdamer Lehrerstudie (Schaarschmidt, 2004). Sie belegte unter anderem auch die Einflussmöglichkeiten der Schulleitung auf die Lehrergesundheit. Die vorliegende Arbeit verfolgt zwei Ziele: Erstens wird die aktuelle Schulleitungsforschung um empirische Daten zur gesundheitlichen Situation von n = 484 Schulleitungen aus Brandenburg und Baden-Württemberg ergänzt. Zweitens wird die Bedeutung der Schulleitung für die Lehrergesundheit näher untersucht, indem empirische Daten aus Führungsfeedbackverfahren mit n = 12 Schulleitungen und n = 332 Lehrern in Baden-Württemberg und Hessen herangezogen werden. Das diagnostische Verfahren AVEM (“Arbeitsbezogenes Verhaltens- und Erlebensmuster“, Schaarschmidt & Fischer, 1996/2003) dient als methodische Grundlage. Es erhebt Selbsteinschätzungen zum arbeitsbezogenen Verhalten und Erleben und weist auf mögliche Risiken im Sinne psychischer oder psychosomatischer Gefährdung hin. Das Instrument erfasst mit 66 Items 11 Dimensionen (z.B. Distanzierungsfähigkeit). Auf diese Weise ist es möglich, die befragte Person einem von vier arbeitsbezogenen Verhaltens- und Erlebensmustern zuzuordnen: Muster G (Gesundheitsideal), Muster S (Schonungstendenz gegenüber beruflichen Anforderungen), Risikomuster A (überhöhtes Engagement), Risikomuster B (Resignation). Zudem werden Fragen zu schulischer Führung eingesetzt, die sich aus vorhandenen Fragebögen speisen. Mit Hilfe einer exploratorischen Faktorenanalyse können sechs Faktoren identifiziert werden: Persönliche emotionale Wertschätzung und Fürsorge, optimistische Zukunftsorientierung, konstruktives Management des Schulbetriebs, Förderung von Weiterbildung und pädagogischem Diskurs, Präsenz/Ansprechbarkeit und Partizipationsorientierung. Zu der ersten Fragestellung zeigt sich für die befragten Schulleitungen im Mittel ein gesundheitlich recht positives Bild – gerade im Kontrast zu den befragten Lehrern. Für die befragten Schulleitungen wird eine signifikant günstigere AVEM-Musterkonstellation festgestellt: Der Anteil des Musters G ist bei den Schulleitungen deutlich höher, der Anteil des Musters B deutlich niedriger und der Anteil des Musters A in etwa gleich groß. Die AVEM-Ergebnisse schlagen sich bei den befragten Schulleitungen in unmittelbaren Gesundheitsindikatoren nieder. Für bestimmte Untergruppen herrscht allerdings ein gesundheitlich vergleichsweise kritisches Bild vor, nämlich tendenziell für Schulleitungen in Brandenburg, für weibliche Schulleitungen und Schulleitungen an Grund- und Förderschulen. Eine hohe Unterrichtsverpflichtung ist mit einem größeren Anteil an Risikomustern verbunden. Ein hohes Maß an erlebter Autonomie – insbesondere im sozial-interaktiven Bereich mit den Lehrern (d.h. bei Auswahl, Einstellung und Beurteilung von Lehrern sowie bei der innerschulischen Arbeitsorganisation und kollegialen Zusammenarbeit) – geht dagegen mit jeweils günstigeren AVEM-Musterkonstellationen einher. Zur Beantwortung der zweiten Fragestellung wird eine methodisch anspruchsvolle Mehrebenenanalyse durchgeführt, die die hierarchische Anordnung der Daten angemessen behandelt. Für die wahrgenommene soziale Unterstützung durch die Schulleitung wird dabei eine negative Beziehung zur subjektiven Bedeutsamkeit der Arbeit und der Verausgabungsbereitschaft der befragten Lehrer gefunden. Hingegen ergibt sich ein positiver Zusammenhang zwischen der erlebten Förderung von Weiterbildung und pädagogischem Diskurs und dem Erfolgserleben der befragten Lehrer. Ebenso hängt die wahrgenommene Führung durch die Schulleitung in ihrer Gesamtheit in positiver Weise mit der Lebenszufriedenheit der befragten Lehrer zusammen. Es sei betont, dass ausschließlich Effekte nachgewiesen werden, die auf die individuelle Ebene der Lehrer zurückgehen, d.h. es scheint – was den Zusammenhang zwischen erlebter Führung und Lehrergesundheit angeht – auf die subjektive Wahrnehmung des Führungsverhaltens der Schulleitung durch den/die jeweilige(n) Lehrer/in anzukommen. Eine erste theoretische Skizze zu wesentlichen Determinanten von Schulleitungsgesundheit wird vorgeschlagen. Empfehlungen für die Schulleitungspraxis umfassen die Reduzierung der Unterrichtsverpflichtung, die Erweiterung von Autonomie im sozial-interaktiven Bereich mit den Lehrern und die systematische Etablierung von Mitarbeitergesprächen zur Ausgestaltung individueller Führungsbeziehungen zwischen Schulleitungen und Lehrern.
Im Mittelpunkt dieser Arbeit stehen virtuelle 3D-Stadtmodelle, die Objekte, Phänomene und Prozesse in urbanen Räumen in digitaler Form repräsentieren. Sie haben sich zu einem Kernthema von Geoinformationssystemen entwickelt und bilden einen zentralen Bestandteil geovirtueller 3D-Welten. Virtuelle 3D-Stadtmodelle finden nicht nur Verwendung als Mittel für Experten in Bereichen wie Stadtplanung, Funknetzplanung, oder Lärmanalyse, sondern auch für allgemeine Nutzer, die realitätsnah dargestellte virtuelle Städte in Bereichen wie Bürgerbeteiligung, Tourismus oder Unterhaltung nutzen und z. B. in Anwendungen wie GoogleEarth eine räumliche Umgebung intuitiv erkunden und durch eigene 3D-Modelle oder zusätzliche Informationen erweitern. Die Erzeugung und Darstellung virtueller 3D-Stadtmodelle besteht aus einer Vielzahl von Prozessschritten, von denen in der vorliegenden Arbeit zwei näher betrachtet werden: Texturierung und Visualisierung. Im Bereich der Texturierung werden Konzepte und Verfahren zur automatischen Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern sowie zur Speicherung oberflächengebundener Daten in virtuellen 3D-Stadtmodellen entwickelt. Im Bereich der Visualisierung werden Konzepte und Verfahren für die multiperspektivische Darstellung sowie für die hochqualitative Darstellung nichtlinearer Projektionen virtueller 3D-Stadtmodelle in interaktiven Systemen vorgestellt. Die automatische Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern ermöglicht die Veredelung vorliegender virtueller 3D-Stadtmodelle. Schrägluftbilder bieten sich zur Texturierung an, da sie einen Großteil der Oberflächen einer Stadt, insbesondere Gebäudefassaden, mit hoher Redundanz erfassen. Das Verfahren extrahiert aus dem verfügbaren Bildmaterial alle Ansichten einer Oberfläche und fügt diese pixelpräzise zu einer Textur zusammen. Durch Anwendung auf alle Oberflächen wird das virtuelle 3D-Stadtmodell flächendeckend texturiert. Der beschriebene Ansatz wurde am Beispiel des offiziellen Berliner 3D-Stadtmodells sowie der in GoogleEarth integrierten Innenstadt von München erprobt. Die Speicherung oberflächengebundener Daten, zu denen auch Texturen zählen, wurde im Kontext von CityGML, einem international standardisierten Datenmodell und Austauschformat für virtuelle 3D-Stadtmodelle, untersucht. Es wird ein Datenmodell auf Basis computergrafischer Konzepte entworfen und in den CityGML-Standard integriert. Dieses Datenmodell richtet sich dabei an praktischen Anwendungsfällen aus und lässt sich domänenübergreifend verwenden. Die interaktive multiperspektivische Darstellung virtueller 3D-Stadtmodelle ergänzt die gewohnte perspektivische Darstellung nahtlos um eine zweite Perspektive mit dem Ziel, den Informationsgehalt der Darstellung zu erhöhen. Diese Art der Darstellung ist durch die Panoramakarten von H. C. Berann inspiriert; Hauptproblem ist die Übertragung des multiperspektivischen Prinzips auf ein interaktives System. Die Arbeit stellt eine technische Umsetzung dieser Darstellung für 3D-Grafikhardware vor und demonstriert die Erweiterung von Vogel- und Fußgängerperspektive. Die hochqualitative Darstellung nichtlinearer Projektionen beschreibt deren Umsetzung auf 3D-Grafikhardware, wobei neben der Bildwiederholrate die Bildqualität das wesentliche Entwicklungskriterium ist. Insbesondere erlauben die beiden vorgestellten Verfahren, dynamische Geometrieverfeinerung und stückweise perspektivische Projektionen, die uneingeschränkte Nutzung aller hardwareseitig verfügbaren, qualitätssteigernden Funktionen wie z.~B. Bildraumgradienten oder anisotroper Texturfilterung. Beide Verfahren sind generisch und unterstützen verschiedene Projektionstypen. Sie ermöglichen die anpassungsfreie Verwendung gängiger computergrafischer Effekte wie Stilisierungsverfahren oder prozeduraler Texturen für nichtlineare Projektionen bei optimaler Bildqualität. Die vorliegende Arbeit beschreibt wesentliche Technologien für die Verarbeitung virtueller 3D-Stadtmodelle: Zum einen lassen sich mit den Ergebnissen der Arbeit Texturen für virtuelle 3D-Stadtmodelle automatisiert herstellen und als eigenständige Attribute in das virtuelle 3D-Stadtmodell einfügen. Somit trägt diese Arbeit dazu bei, die Herstellung und Fortführung texturierter virtueller 3D-Stadtmodelle zu verbessern. Zum anderen zeigt die Arbeit Varianten und technische Lösungen für neuartige Projektionstypen für virtueller 3D-Stadtmodelle in interaktiven Visualisierungen. Solche nichtlinearen Projektionen stellen Schlüsselbausteine dar, um neuartige Benutzungsschnittstellen für und Interaktionsformen mit virtuellen 3D-Stadtmodellen zu ermöglichen, insbesondere für mobile Geräte und immersive Umgebungen.
Die Wahrnehmung von Geschmacksempfindungen beruht auf dem Zusammenspiel verschiedener Sinneseindrücke wie Schmecken, Riechen und Tasten. Diese Komplexität der gustatorischen Wahrnehmung erschwert die Beantwortung der Frage wie Geschmacksinformationen vom Mund ins Gehirn weitergeleitet, prozessiert und kodiert werden. Die Analysen zur neuronalen Prozessierung von Geschmacksinformationen erfolgten zumeist mit Bitterstimuli am Mausmodell. Zwar ist bekannt, dass das Genom der Maus für 35 funktionelle Bitterrezeptoren kodiert, jedoch war nur für zwei unter ihnen ein Ligand ermittelt worden. Um eine bessere Grundlage für tierexperimentelle Arbeiten zu schaffen, wurden 16 der 35 Bitterrezeptoren der Maus heterolog in HEK293T-Zellen exprimiert und in Calcium-Imaging-Experimenten funktionell charakterisiert. Die Daten belegen, dass das Funktionsspektrum der Bitterrezeptoren der Maus im Vergleich zum Menschen enger ist und widerlegen damit die Aussage, dass humane und murine orthologe Rezeptoren durch das gleiche Ligandenspektrum angesprochen werden. Die Interpretation von tierexperimentellen Daten und die Übertragbarkeit auf den Menschen werden folglich nicht nur durch die Komplexität des Geschmacks, sondern auch durch Speziesunterschiede verkompliziert. Die Komplexität des Geschmacks beruht u. a. auf der Tatsache, dass Geschmacksstoffe selten isoliert auftreten und daher eine Vielzahl an Informationen kodiert werden muss. Um solche geschmacksstoffassoziierten Stimuli in der Analyse der gustatorischen Kommunikationsbahnen auszuschließen, sollten Opsine, die durch Licht spezifischer Wellenlänge angeregt werden können, für die selektive Ersetzung von Geschmacksrezeptoren genutzt werden. Um die Funktionalität dieser angestrebten Knockout-Knockin-Modelle zu evaluieren, die eine Kopplung von Opsinen mit dem geschmacksspezifischen G-Protein Gustducin voraussetzte, wurden Oozyten vom Krallenfrosch Xenopus laevis mit dem Zwei-Elektroden-Spannungsklemm-Verfahren hinsichtlich dieser Interaktion analysiert. Der positiven Bewertung dieser Kopplung folgte die Erzeugung von drei Mauslinien, die in der kodierenden Region eines spezifischen Geschmacksrezeptors (Tas1r1, Tas1r2, Tas2r114) Photorezeptoren exprimierten. Durch RT-PCR-, In-situ-Hybridisierungs- und immunhistochemische Experimente konnte der erfolgreiche Knockout der Rezeptorgene und der Knockin der Opsine belegt werden. Der Nachweis der Funktionalität der Opsine im gustatorischen System wird Gegenstand zukünftiger Analysen sein. Bei erfolgreichem Beleg der Lichtempfindlichkeit von Geschmacksrezeptorzellen dieser Mausmodelle wäre ein System geschaffen, dass es ermöglichen würde, gustatorische neuronale Netzwerke und Hirnareale zu identifizieren, die auf einen reinen geschmacks- und qualitätsspezifischen Stimulus zurückzuführen wären.
Tangible business process modeling : design and evaluation of a process model elicitation Technique
(2011)
Um Extremereignisse in der Dynamik des indischen Sommermonsuns (ISM) in der geologischen Vergangenheit zu identifizieren, schlage ich einen neuartigen Ansatz basierend auf der Quantifikation von Fluktuationen in einem nichtlinearen Ähnlichkeitsmaß vor. Dieser reagiert empfindlich auf Zeitabschnitte mit deutlichen Veränderungen in der dynamischen Komplexität kurzer Zeitreihen. Ein mathematischer Zusammenhang zwischen dem neuen Maß und dynamischen Invarianten des zugrundeliegenden Systems wie fraktalen Dimensionen und Lyapunovexponenten wird analytisch hergeleitet. Weiterhin entwickle ich einen statistischen Test zur Schätzung der Signifikanz der so identifizierten dynamischen Übergänge. Die Stärken der Methode werden durch die Aufdeckung von Bifurkationsstrukturen in paradigmatischen Modellsystemen nachgewiesen, wobei im Vergleich zu den traditionellen Lyapunovexponenten eine Identifikation komplexerer dynamischer Übergänge möglich ist. Wir wenden die neu entwickelte Methode zur Analyse realer Messdaten an, um ausgeprägte dynamische Veränderungen auf Zeitskalen von Jahrtausenden in Klimaproxydaten des südasiatischen Sommermonsunsystems während des Pleistozäns aufzuspüren. Dabei zeigt sich, dass viele dieser Übergänge durch den externen Einfluss der veränderlichen Sonneneinstrahlung, sowie durch dem Klimasystem interne Einflussfaktoren auf das Monsunsystem (Eiszeitzyklen der nördlichen Hemisphäre und Einsatz der tropischenWalkerzirkulation) induziert werden. Trotz seiner Anwendbarkeit auf allgemeine Zeitreihen ist der diskutierte Ansatz besonders zur Untersuchung von kurzen Paläoklimazeitreihen geeignet. Die während des ISM über dem indischen Subkontinent fallenden Niederschläge treten, bedingt durch die zugrundeliegende Dynamik der atmosphärischen Zirkulation und topographische Einflüsse, in äußerst komplexen, raumzeitlichen Mustern auf. Ich stelle eine detaillierte Analyse der Sommermonsunniederschläge über der indischen Halbinsel vor, die auf Ereignissynchronisation (ES) beruht, einem Maß für die nichtlineare Korrelation von Punktprozessen wie Niederschlagsereignissen. Mit hierarchischen Clusteringalgorithmen identifiziere ich zunächst Regionen mit besonders kohärenten oder homogenen Monsunniederschlägen. Dabei können auch die Zeitverzögerungsmuster von Regenereignissen rekonstruiert werden. Darüber hinaus führe ich weitere Analysen auf Basis der Theorie komplexer Netzwerke durch. Diese Studien ermöglichen wertvolle Einsichten in räumliche Organisation, Skalen und Strukturen von starken Niederschlagsereignissen oberhalb der 90% und 94% Perzentilen während des ISM (Juni bis September). Weiterhin untersuche ich den Einfluss von verschiedenen, kritischen synoptischen Systemen der Atmosphäre sowie der steilen Topographie des Himalayas auf diese Niederschlagsmuster. Die vorgestellte Methode ist nicht nur geeignet, die Struktur extremer Niederschlagsereignisse zu visualisieren, sondern kann darüber hinaus über der Region atmosphärische Transportwege von Wasserdampf und Feuchtigkeitssenken auf dekadischen Skalen identifizieren.Weiterhin wird ein einfaches, auf komplexen Netzwerken basierendes Verfahren zur Entschlüsselung der räumlichen Feinstruktur und Zeitentwicklung von Monsunniederschlagsextremen während der vergangenen 60 Jahre vorgestellt.
Die Progressive Supranukleäre Blickparese (PSP) ist eine sporadisch auftretende neurodegenerative Erkrankung im Rahmen der atypischen Parkinson-Syndrome (APS), die im frühen Verlauf häufig mit dem Idiopathischen Parkinson-Syndrom (IPS) verwechselt wird. Dabei ist die Dysarthrie als eine erworbene, zentral bedingte sprechmotorische Störung ein häufiges und früh auftretendes Symptom bei PSP. Bislang spricht man von einer eher unspezifischen „gemischten“ Dysarthrie aus hypokinetischen, spastischen und auch ataktischen Komponenten. Im Rahmen einer explorativen Querschnittsstudie am „Fachkrankenhaus für Bewegungsstörungen und Parkinson“ Beelitz-Heilstätten in Kooperation mit der „Entwicklungsgruppe Klinische Neuropsychologie“ München (EKN) sowie der „Interdisziplinären Ambulanz für Bewegungsstörungen“ am Klinikum München-Großhadern wurden 50 Patienten dahingehend untersucht, ob sich für die Progressive Supranukleäre Blickparese (PSP) eine spezielle, frühzeitig zu diagnostizierende und differentialdiagnostisch relevante Dysarthrie beschreiben ließe. In diesem Zusammenhang soll geklärt werden, ob es sich um phänotypische Ausprägungen im Rahmen eines Störungsspektrums handelt oder ob sich differenzierbare Subtypen der Krankheit, insbesondere ein „klassischer“ PSP-Typ (PSP-RS) und ein „atypischer“ PSP-Typ (PSP-P), auch im Bereich der Dysarthrie zeigen. Im Rahmen der Untersuchungen wurde der Schweregrad der Erkrankung mittels der „PSP-sensitiven Ratingskala (PSPRS)“ gemessen. Die Dysarthriediagnostik erfolgte anhand der „Bogenhausener Dysarthrieskalen (BoDyS)“ zur Beschreibung der Art und Ausprägung der Dysarthrie bei PSP. Die Verständlichkeit wurde mithilfe des „Münchner Verständlichkeits-Profils (MVP)" sowie eines weiteren Transkriptionsverfahrens ermittelt, wobei Ausschnitte aus den Tests zum Lesen und Nachsprechen der BoDyS zugrunde lagen. Weiterhin erfolgte eine Einschätzung der Natürlichkeit des Sprechens. Die Ergebnisse hinsichtlich des Einflusses von Natürlichkeit und Verständlichkeit des Sprechens auf den Schweregrad der Dysarthrie zeigten, dass dieser modalitätenübergreifend mit beiden Schweregradaspekten korreliert, wenngleich es offenbar die Natürlichkeit des Sprechens ist, die bei PSP bereits frühzeitig beeinträchtigt ist und somit als das entscheidende differentialdiagnostische Kriterium zur Differenzierung zwischen beiden PSP-Subtypen zu beurteilen ist, möglicherweise auch gegenüber anderen Parkinson-Syndromen. Anhand statistisch valider Ergebnisse konnten spezifische Störungsmerkmale der Dysarthrie extrahiert werden, die eine signifikante Trennung von PSP-RS und PSP-P ermöglichen: eine leise und behaucht-heisere Stimme sowie ein verlangsamtes Sprechtempo und Hypernasalität. Damit können für die hier fokussierten Subtypen der PSP zwei unterschiedliche Dysarthrietypen postuliert werden. Danach wird dem Subtyp PSP-RS eine spastisch betonte Dysarthrie mit ausgeprägter Verlangsamung des Sprechtempos zugeordnet, dem Subtyp PSP-P hingegen eine hypokinetische Dysarthrie mit behaucht-heiserer Hypophonie. Desweiteren konnte ein „Dysarthrie-Schwellenwert“ als Zusatzkriterium für eine zeitliche Differenzierung beider PSP-Subtypen ermittelt werden. Anhand der Daten zeigte sich die Dysarthrie bei dem Subtyp PSP-RS gleich zu Beginn der Erkrankung, jedoch spätestens 24 Monate danach. Hingegen konnte die Dysarthrie beim Subtyp PSP-P frühestens 24 Monate nach Erkrankungsbeginn festgestellt werden. Die Daten dieser Studie verdeutlichen, dass der Frage nach einer subtypenspezifischen Ausprägung der Dysarthrie bei PSP eine Längsschnittsstudie folgen sollte, um die ermittelten Ergebnisse zu konsolidieren.
Die Natur unterliegt ständigen Veränderungen und befindet sich nur vermeintlich in einem Gleichgewicht. Umweltparameter wie Temperatur, Luftfeuchtigkeit oder Sonneneinstrahlung schwanken auf einer Zeitskala von Sekunden bis Jahrmillionen und beinhalten teils beträchtliche Unterschiede. Mit diesen Umweltveränderungen müssen sich Arten als Teil eines Ökosystems auseinandersetzen. Für Ökologen ist interessant, wie sich individuelle Reaktionen auf die Umweltveränderungen im dynamischen Verhalten einer ganzen Population bemerkbar machen und ob deren Verhalten vorhersagbar ist. Der Demografie einer Population kommt hierbei eine entscheidende Rolle zu, da sie das Resultat von Wachstums- und Sterbeprozessen darstellt. Eben jene Prozesse werden von der Umwelt maßgeblich beeinflusst. Doch wie genau beeinflussen Umweltveränderungen das Verhalten ganzer Populationen? Wie sieht das vorübergehende, transiente Verhalten aus? Als Resultat von Umwelteinflüssen bilden sich in Populationen sogenannte Kohorten, hinsichtlich der Zahl an Individuen überproportional stark vertretene Alters- oder Größenklassen. Sterben z.B. aufgrund eines außergewöhnlich harten Winters, die alten und jungen Individuen einer Population, so besteht diese anschließend hauptsächlich aus Individuen mittleren Alters. Sie wurde sozusagen synchronisiert. Eine solche Populationen neigt zu regelmäßigen Schwankungen (Oszillationen) in ihrer Dichte, da die sich abwechselnden Phasen der individuellen Entwicklung und der Reproduktion nun von einem Großteil der Individuen synchron durchschritten werden. D.h., mal wächst die Population und mal nimmt sie entsprechend der Sterblichkeit ab. In Experimenten mit Phytoplankton-Populationen konnte ich zeigen, dass dieses oszillierende Verhalten mit dem in der Physik gebräuchlichen Konzept der Synchronisation beschrieben werden kann. Synchrones Verhalten ist eines der verbreitetsten Phänomene in der Natur und kann z.B. in synchron schwingenden Brücken, als auch bei der Erzeugung von Lasern oder in Form von rhythmischem Applaus auf einem Konzert beobachtet werden. Wie stark die Schwankungen sind, hängt dabei sowohl von der Stärke der Umweltveränderung als auch vom demografischen Zustand der Population vor der Veränderung ab. Zwei Populationen, die sich in verschiedenen Habitaten aufhalten, können zwar gleich stark von einer Umweltveränderung beeinflusst werden. Die Reaktionen im anschließenden Verhalten können jedoch äußerst unterschiedlich ausfallen, wenn sich die Populationen zuvor in stark unterschiedlichen demografischen Zuständen befanden. Darüber hinaus treten bestimmte, für das Verhalten einer Population relevante Mechanismen überhaupt erst in Erscheinung, wenn sich die Umweltbedingungen ändern. So fiel in Experimenten beispielsweise die Populationsdichte um rund 50 Prozent ab nachdem sich die Ressourcenverfügbarkeit verdoppelte. Der Grund für dieses gegenintuitive Verhalten konnte mit der erhöhten Aufnahme von Ressourcen erklärt werden. Damit verbessert eine Algenzelle zwar die eigene Konstitution, jedoch verzögert sich dadurch die auch die Reproduktion und die Populationsdichte nimmt gemäß ihrer Verluste bzw. Sterblichkeit ab. Zwei oder mehr räumlich getrennte Populationen können darüber hinaus durch Umwelteinflüsse synchronisiert werden. Dies wird als Moran-Effekt bezeichnet. Angenommen auf zwei weit voneinander entfernten Inseln lebt jeweils eine Population. Zwischen beiden findet kein Austausch statt – und doch zeigt sich beim Vergleich ihrer Zeitreihen eine große Ähnlichkeit. Das überregionale Klima synchronisiert hierbei die lokalen Umwelteinflüsse. Diese wiederum bestimmen das Verhalten der jeweiligen Population. Der Moran-Effekt besagt nun, dass die Ähnlichkeit zwischen den Populationen jener zwischen den Umwelteinflüssen entspricht, oder geringer ist. Meine Ergebnisse bestätigen dies und zeigen darüber hinaus, dass sich die Populationen sogar ähnlicher sein können als die Umwelteinflüsse, wenn man von unterschiedlich stark schwankenden Einflüssen ausgeht.
Interaction of land surface processes and the atmophere in the Arctic - senitivities and extremes
(2011)
Lithopheric rheology at the Dead Sea Transform Fault constrained by thermo-mechanical modeling
(2011)
Service-oriented Architectures (SOA) facilitate the provision and orchestration of business services to enable a faster adoption to changing business demands. Web Services provide a technical foundation to implement this paradigm on the basis of XML-messaging. However, the enhanced flexibility of message-based systems comes along with new threats and risks. To face these issues, a variety of security mechanisms and approaches is supported by the Web Service specifications. The usage of these security mechanisms and protocols is configured by stating security requirements in security policies. However, security policy languages for SOA are complex and difficult to create due to the expressiveness of these languages. To facilitate and simplify the creation of security policies, this thesis presents a model-driven approach that enables the generation of complex security policies on the basis of simple security intentions. SOA architects can specify these intentions in system design models and are not required to deal with complex technical security concepts. The approach introduced in this thesis enables the enhancement of any system design modelling languages – for example FMC or BPMN – with security modelling elements. The syntax, semantics, and notion of these elements is defined by our security modelling language SecureSOA. The metamodel of this language provides extension points to enable the integration into system design modelling languages. In particular, this thesis demonstrates the enhancement of FMC block diagrams with SecureSOA. To enable the model-driven generation of security policies, a domain-independent policy model is introduced in this thesis. This model provides an abstraction layer for security policies. Mappings are used to perform the transformation from our model to security policy languages. However, expert knowledge is required to generate instances of this model on the basis of simple security intentions. Appropriate security mechanisms, protocols and options must be chosen and combined to fulfil these security intentions. In this thesis, a formalised system of security patterns is used to represent this knowledge and to enable an automated transformation process. Moreover, a domain-specific language is introduced to state security patterns in an accessible way. On the basis of this language, a system of security configuration patterns is provided to transform security intentions related to data protection and identity management. The formal semantics of the security pattern language enable the verification of the transformation process introduced in this thesis and prove the correctness of the pattern application. Finally, our SOA Security LAB is presented that demonstrates the application of our model-driven approach to facilitate a dynamic creation, configuration, and execution of secure Web Service-based composed applications.
Der Begriff Gesundheit wurde von der WHO definiert als „nicht nur die Abwesenheit von Krankheit, sondern, positiv als Naturrecht formuliert, vollständiges körperliches, seelisches und soziales Wohlbefinden“. Deswegen hat die WHO mit dem Gesundheitsministerium in Syrien das Programm „Gesunde Dörfer“ seit 1996 gestaltet. Es zielt darauf, den wirtschaftlichen, sozialen und gesundheitlichen Zustand der Landbevölkerung zu verbessern, insbesondere soll es den großen Unterschied zwischen Stadt und Land vermindern. Das Projekt stellt sich die Aufgabe, den Einfluss des Programms auf Wirtschafts- und Gesundheitsparameter im Vergleich mit anderen Kontrolledörfern zu analysieren. Hierzu werden Umfragedaten in Syrien ausgewertet. Die Auswertung der Befragung in der vorliegenden Arbeit zeigte, dass das Programm seine Ziele bezüglich der Verbesserung der Gesundheits- und Lebensqualität erreicht Erfolgreich war das Programm „Gesunde Dörfer“ auch, mit Ausnahme der nördlichen und östlichen Region, in der Verringerung der Anzahl arbeitender Kinder, in der Förderung der Frauen eine Beschäftigung aufzunehmen bzw. ein Studium zu absolvieren sowie in der Reduzierung der Analphabetenrate.
It is well documented that transcriptionally coordinated genes tend to be functionally related, and that such relationships may be conserved across different species, and even kingdoms. (Ihmels et al., 2004). Such relationships was initially utilized to reveal functional gene modules in yeast and mammals (Ihmels et al., 2004), and to explore orthologous gene functions between different species and kingdoms (Stuart et al., 2003; Bergmann et al., 2004). Model organisms, such as Arabidopsis, are readily used in basic research due to resource availability and relative speed of data acquisition. A major goal is to transfer the acquired knowledge from these model organisms to species that are of greater importance to our society. However, due to large gene families in plants, the identification of functional equivalents of well characterized Arabidopsis genes in other plants is a non-trivial task, which often returns erroneous or inconclusive results. In this thesis, concepts of utilizing co-expression networks to help infer (i) gene function, (ii) organization of biological processes and (iii) knowledge transfer between species are introduced. An often overlooked fact by bioinformaticians is that a bioinformatic method is as useful as its accessibility. Therefore, majority of the work presented in this thesis was directed on developing freely available, user-friendly web-tools accessible for any biologist.
The inspiral and merger of two black holes is among the most exciting and extreme events in our universe. Being one of the loudest sources of gravitational waves, they provide a unique dynamical probe of strong-field general relativity and a fertile ground for the observation of fundamental physics. While the detection of gravitational waves alone will allow us to observe our universe through an entirely new window, combining the information obtained from both gravitational wave and electro-magnetic observations will allow us to gain even greater insight in some of the most exciting astrophysical phenomena. In addition, binary black-hole mergers serve as an intriguing tool to study the geometry of space-time itself. In this dissertation we study the merger process of binary black-holes in a variety of conditions. Our results show that asymmetries in the curvature distribution on the common apparent horizon are correlated to the linear momentum acquired by the merger remnant. We propose useful tools for the analysis of black holes in the dynamical and isolated horizon frameworks and shed light on how the final merger of apparent horizons proceeds after a common horizon has already formed. We connect mathematical theorems with data obtained from numerical simulations and provide a first glimpse on the behavior of these surfaces in situations not accessible to analytical tools. We study electro-magnetic counterparts of super-massive binary black-hole mergers with fully 3D general relativistic simulations of binary black-holes immersed both in a uniform magnetic field in vacuum and in a tenuous plasma. We find that while a direct detection of merger signatures with current electro-magnetic telescopes is unlikely, secondary emission, either by altering the accretion rate of the circumbinary disk or by synchrotron radiation from accelerated charges, may be detectable. We propose a novel approach to measure the electro-magnetic radiation in these simulations and find a non-collimated emission that dominates over the collimated one appearing in the form of dual jets associated with each of the black holes. Finally, we provide an optimized gravitational wave detection pipeline using phenomenological waveforms for signals from compact binary coalescence and show that by including spin effects in the waveform templates, the detection efficiency is drastically improved as well as the bias on recovered source parameters reduced. On the whole, this disseration provides evidence that a multi-messenger approach to binary black-hole merger observations provides an exciting prospect to understand these sources and, ultimately, our universe.
Bildverarbeitungsanwendungen stellen besondere Ansprüche an das ausführende Rechensystem. Einerseits ist eine hohe Rechenleistung erforderlich. Andererseits ist eine hohe Flexibilität von Vorteil, da die Entwicklung tendentiell ein experimenteller und interaktiver Prozess ist. Für neue Anwendungen tendieren Entwickler dazu, eine Rechenarchitektur zu wählen, die sie gut kennen, anstatt eine Architektur einzusetzen, die am besten zur Anwendung passt. Bildverarbeitungsalgorithmen sind inhärent parallel, doch herkömmliche bildverarbeitende eingebettete Systeme basieren meist auf sequentiell arbeitenden Prozessoren. Im Gegensatz zu dieser "Unstimmigkeit" können hocheffiziente Systeme aus einer gezielten Synergie aus Software- und Hardwarekomponenten aufgebaut werden. Die Konstruktion solcher System ist jedoch komplex und viele Lösungen, wie zum Beispiel grobgranulare Architekturen oder anwendungsspezifische Programmiersprachen, sind oft zu akademisch für einen Einsatz in der Wirtschaft. Die vorliegende Arbeit soll ein Beitrag dazu leisten, die Komplexität von Hardware-Software-Systemen zu reduzieren und damit die Entwicklung hochperformanter on-Chip-Systeme im Bereich Bildverarbeitung zu vereinfachen und wirtschaftlicher zu machen. Dabei wurde Wert darauf gelegt, den Aufwand für Einarbeitung, Entwicklung als auch Erweiterungen gering zu halten. Es wurde ein Entwurfsfluss konzipiert und umgesetzt, welcher es dem Softwareentwickler ermöglicht, Berechnungen durch Hardwarekomponenten zu beschleunigen und das zu Grunde liegende eingebettete System komplett zu prototypisieren. Hierbei werden komplexe Bildverarbeitungsanwendungen betrachtet, welche ein Betriebssystem erfordern, wie zum Beispiel verteilte Kamerasensornetzwerke. Die eingesetzte Software basiert auf Linux und der Bildverarbeitungsbibliothek OpenCV. Die Verteilung der Berechnungen auf Software- und Hardwarekomponenten und die daraus resultierende Ablaufplanung und Generierung der Rechenarchitektur erfolgt automatisch. Mittels einer auf der Antwortmengenprogrammierung basierten Entwurfsraumexploration ergeben sich Vorteile bei der Modellierung und Erweiterung. Die Systemsoftware wird mit OpenEmbedded/Bitbake synthetisiert und die erzeugten on-Chip-Architekturen auf FPGAs realisiert.
Human-induced alterations of the environment are causing biotic changes worldwide, including the extinction of species and a mixing of once disparate floras and faunas. One type of biological communities that is expected to be particularly affected by environmental alterations are herb layer plant communities of fragmented forests such as those in the west European lowlands. However, our knowledge about current changes in species diversity and composition in these communities is limited due to a lack of adequate long-term studies. In this thesis, I resurveyed the herb layer communities of ancient forest patches in the Weser-Elbe region (NW Germany) after two decades using 175 semi-permanent plots. The general objectives were (i) to quantify changes in plant species diversity considering also between-community (β) and functional diversity, (ii) to determine shifts in species composition in terms of species’ niche breadth and functional traits and (iii) to find indications on the most likely environmental drivers for the observed changes. These objectives were pursued with four independent research papers (Chapters 1-4) whose results were brought together in a General Discussion. Alpha diversity (species richness) increased by almost four species on average, whereas β diversity tended to decrease (Chapter 1). The latter is interpreted as a beginning floristic homogenization. The observed changes were primarily the result of a spread of native habitat generalists that are able to tolerate broad pH and moisture ranges. The changes in α and β diversity were only significant when species abundances were neglected (Chapters 1 and 2), demonstrating that the diversity changes resulted mainly from gains and losses of low-abundance species. This study is one of the first studies in temperate Europe that demonstrates floristic homogenization of forest plant communities at a larger than local scale. The diversity changes found at the taxonomic level did not result in similar changes at the functional level (Chapter 2). The likely reason is that these communities are functionally “buffered”. Single communities involve most of the functional diversity of the regional pool, i.e., they are already functionally rich, while they are functionally redundant among each other, i.e., they are already homogeneous. Independent of taxonomic homogenization, the abundance of 30 species decreased significantly (Chapter 4). These species included 12 ancient forest species (i.e., species closely tied to forest patches with a habitat continuity > 200 years) and seven species listed on the Red List of endangered plant species in NW Germany. If these decreases continue over the next decades, local extinctions may result. This biotic impoverishment would seriously conflict with regional conservation goals. Community assembly mechanisms changed at the local level particularly at sites that experienced disturbance by forest management activities between the sampling periods (Chapter 3). Disturbance altered community assembly mechanisms in two ways: (i) it relaxed environmental filters and allowed the coexistence of different reproduction strategies, as reflected by a higher diversity of reproductive traits at the time of the resurvey, and (ii) it enhanced light availability and tightened competitive filters. These limited the functional diversity with respect to canopy height and selected for taller species. Thirty-one winner and 30 loser species, which had significantly increased or decreased in abundance, respectively, were characterized by various functional traits and ecological performances to find indications on the most likely environmental drivers for the observed floristic changes (Chapter 4). Winner species had higher seed longevity, flowered later in the season and had more often an oceanic distribution compared to loser species. Loser species tended to have a higher specific leaf area, to be more susceptible to deer browsing and to have a performance optimum at higher soil pH values compared to winner species. Multiple logistic regression analyses indicated that disturbances due to forest management interventions were the primary cause of the species shifts. As one of the first European resurvey studies, this study provides indications that an enhanced browsing pressure due to increased deer densities and increasingly warmer winters are important drivers. The study failed to demonstrate that eutrophication and acidification due to atmospheric deposition substantially drive herb layer changes. The restriction of the sample to the most base-rich sites in the region is discussed as a likely reason. Furthermore, the decline of several ancient forest species is discussed as an indication that the forest patches are still paying off their “extinction debt”, i.e., exhibit a delayed response to forest fragmentation.
Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung.
Die öffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterstützen. Da die öffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verstärkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterstützung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Ursprünge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der Lösungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Ursprünge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs können auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollständig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die Möglichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zusätzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) könnte der Einsatz des PRM Vorteile für die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische Lücke zwischen PRM und CIM zu überbrücken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen dafür die im Projekt "E-LoGo" an der Universität Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchgängige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterstützt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorwärts- und rückwärtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. Über den offensichtlichen Nutzen einer durchgängigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzesänderung, Berücksichtigung des vollständigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzmöglichkeit für eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, können die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium berücksichtigt werden. Die am 16. März 2011 in Kraft getretene Änderung des NKRG schreibt eine solche Analyse des so genannten „Erfüllungsaufwands“ für Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. Für diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen über den Änderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen.
The lakes of the East African Rift System (EARS) have been intensively studied to better understand the influence of climate change on hydrological systems. The exceptional sensitivity of these rift lakes, however, is both a challenge and an opportunity when trying to reconstruct past climate changes from changes in the hydrological budget of lake basins on timescales 100 to 104 years. On one hand, differences in basin geometrics (shape, area, volume, depth), catchment rainfall distributions and varying erosion-deposition rates complicate regional interpretation of paleoclimate information from lacustrine sediment proxies. On the other hand, the sensitivity of rift lakes often provides paleoclimate records of excellent quality characterized by a high signal-to-noise ratio. This study aims at better understanding of the climate-proxy generating process in rift lakes by parameterizing the geomorphological and hydroclimatic conditions of a particular site providing a step towards the establishment of regional calibrations of transfer functions for climate reconstructions. The knowledge of the sensitivity of a lake basin to climate change furthermore is crucial for a better assessment of the probability of catastrophic changes in the future, which bear risks for landscapes, ecosystems, and organisms of all sorts, including humans. Part 1 of this thesis explores the effect of the morphology and the effective moisture of a lake catchment. The availability of digital elevation models (DEM) and gridded climate data sets facilitates the comparison of the morphological and hydroclimatic conditions of rift lakes. I used the hypsometric integral (HI) calculated from Shuttle Radar Topography Mission (SRTM) data to describe the morphology of ten lake basins in Kenya and Ethiopia. The aridity index (AI) describing the difference in the precipitation/evaporation balance within a catchment was used to compare the hydroclimatic of these basins. Correlating HI and AI with published Holocene lake-level variations revealed that lakes responding sensitively to relatively moderate climate change are typically graben shaped and characterized by a HI between 0.23-0.30, and relatively humid conditions with AI >1. These amplifier lakes, a term first introduced but not fully parameterized by Alayne Street-Perrott in the early 80s, are unexceptionally located in the crest of the Kenyan and Ethiopian domes. The non-amplifier lakes in the EARS either have lower HI 0.13-0.22 and higher AI (>1) or higher HI (0.31-0.37) and low AI (<1), reflecting pan-shaped morphologies with more arid hydroclimatic conditions. Part 2 of this work addresses the third important factor to be considered when using lake-level and proxy records to unravel past climate changes in the EARS: interbasin connectivity and groundwater flow through faulted and porous subsurface lithologies in a rift setting. First, I have compiled the available hydrogeological data including lithology, resistivity and water-well data for the adjacent Naivasha and Elmenteita-Nakuru basins in the Central Kenya Rift. Using this subsurface information and established records of lake-level decline at the last wet-dry climate transitions, i.e., the termination of the African Humid Period (AHP, 15 to 5 kyr BP), I used a linear decay model to estimate typical groundwater flow between the two basins. The results suggest a delayed response of the groundwater levels of ca. 5 kyrs if no recharge of groundwater occurs during the wet-dry transition, whereas the lag is 2-2.7 kyrs only using the modern recharge of ca. 0.52 m/yr. The estimated total groundwater flow from higher Lake Naivasha (1,880 m a.s.l. during the AHP) to Nakuru-Elmenteita (1,770 m) was 40 cubic kilometers. The unexpectedly large volume, more than half of the volume of the paleo-Lake Naivasha during the Early Holocene, emphasizes the importance of groundwater in hydrological modeling of paleo-lakes in rifts. Moreover, the subsurface connectivity of rift lakes also causes a significant lag time to the system introducing a nonlinear component to the system that has to be considered while interpreting paleo-lake records. Part 3 of this thesis investigated the modern intraseasonal precipitation variability within eleven lake basins discussed in the first section of the study excluding Lake Victoria and including Lake Tana. Remotely sensed rainfall estimates (RFE) from FEWS NET for 1996-2010, are used for the, March April May (MAM) July August September (JAS), October November (ON) and December January February (DJF). The seasonal precipitation are averaged and correlated with the prevailing regional and local climatic mechanisms. Results show high variability with Biennial to Triennial precipitation patterns. The spatial distribution of precipitation in JAS are linked to the onset and strength of the Congo Air Boundary (CAB) and Indian Summer Monsoon (ISM) dynamics. while in ON they are related to the strength of Positive ENSO and IOD phases This study describes the influence of graben morphologies, extreme climate constrasts within catchments and basins connectivity through faults and porous lithologies on rift lakes. Hence, it shows the importance of a careful characterization of a rift lake by these parameters prior to concluding from lake-level and proxy records to climate changes. Furthermore, this study highlights the exceptional sensitivity of rift lakes to relatively moderate climate change and its consequences for water availability to the biosphere including humans.
After the collapse of the Soviet Union the former member states have started the transformation process. The transformation process from planned to market economy includes not only the adaptation of the economy to the new market rules but also the profound social and political transformation. For this reason such processes present huge challenges to affected societies. The transformational recession in Georgia was significantly enhanced by the civil war and by ethnic conflicts in Abkhazia and South Ossetia. During the ethnic conflicts and civil war the business and technical infrastructure were damaged and most of them were completely destroyed. Poverty and political instability were predominated. The trade relations with the member countries of Council of Mutual Economic Assistance (Comecon) were aborted. Moreover, the conflict in South Ossetia hampered the power supply from Russia and a conflict in Abkhazia, the production and trade with tea and citruses, which were major trade commodities at that time. In the beginning of 90-ies, Georgian government with the assistance of international organizations, such as International Monetary Fund and World Bank started to elaborate political and economical reforms. The reforms included several aspects, such as the transfer of public assets to private through privatization, the liberalization of domestic market and trade and the creation of market-oriented institutions. Because of lack in implementation neither economical nor political transformation has been achieved. For instance, by the begin of market oriented reforms the awareness of policy makers about the importance of entrepreneurship, in particular small and medium ones for the economy was low. The absence of previous experience prevented the elaboration of appropriate policy instruments and methods for the development of competitive market economy. The stimulation of private sector has been generally neglected. This had a severe affect on political, social and economical problems, which still hampers the development of middle class in Georgia. The presented research indicates that productive entrepreneurship is a driving force of an economy. The entrepreneurial activities on the one hand facilitate the resource allocation and on the other through the development of new products and services urge the competition. Furthermore, they contribute to technological improvements through innovation, create jobs and thus boost the economic and social development of a particular region or country. However, it is important that the legal and institutional framework is appropriately settled. Unlike mature market economies, Georgia is not characterized by well-developed sector of small and medium sized businesses. Most existing SMEs are operating in local markets and predominantly in the shadow economy. It is also noteworthy that small business in Georgia belongs to so called “mom and pop” rather than to innovative, growth oriented businesses. They are mostly engaged in trade and craft. In addition of poor performance, the business activity of SMEs is very centralized. The vast majority of them are operating in the capital Tbilisi. The poor performance of small and medium businesses in Georgia and their negligence by the market forces is among others due to the armed conflicts and state failure. As in the beginning of transformation process, down to the present day, the state fails to provide necessary conditions, such as rule of law, the protection of property rights and competition, transparent and uncorrupted public administration. The result is the weak middle class. The weak middle class by itself has a negative impact on economic development and democratization process in Georgia.
Von der Natur geschaffene Polymere faszinieren Polymerforscher durch ihre spezielle auf eine bestimmte Aufgabe ausgerichtete Funktionalität. Diese ergibt sich aus ihrer Bausteinabfolge uber die Ausbildung von Uberstrukturen. Dazu zählen zum Beispiel Proteine (Eiweiße), aus deren Gestalt sich wichtige Eigenschaften ergeben. Diese Struktureigenschaftsbeziehung gilt ebenso für funktionelle synthetische Makromoleküle. Demzufolge kann die Kontrolle der Monomersequenz in Polymeren bedeutend für die resultierende Form des Polymermoleküls sein. Obwohl die Synthese von synthetischen Polymeren mit der Komplexität und der Größe von Proteinen in absehbarer Zeit wahrscheinlich nicht gelingen wird, können wir von der Natur lernen, um neuartige Polymermaterialien mit definierten Strukturen (Sequenzen) zu synthetisieren. Deshalb ist die Entwicklung neuer und besserer Techniken zur Strukturkontrolle von großem Interesse für die Synthese von Makromolekülen, die perfekt auf ihre Funktion zugeschnitten sind. Im Gegensatz zu der Anzahl fortgeschrittener Synthesestrategien zum Design aus- gefallener Polymerarchitekturen – wie zum Beispiel Sterne oder baumartige Polymere (Dendrimere) – gibt es vergleichsweise wenig Ansätze zur echten Sequenzkontrolle in synthetischen Polymeren. Diese Arbeit stellt zwei unterschiedliche Techniken vor, mit denen die Monomersequenz innerhalb eines Polymers kontrolliert werden kann. Gerade bei den großtechnisch bedeutsamen radikalischen Polymerisationen ist die Sequenzkontrolle schwierig, weil die chemischen Bausteine (Monomere) sehr reaktiv sind. Im ersten Teil dieser Arbeit werden die Eigenschaften zweier Monomere (Styrol und N-substituiertes Maleinimid) geschickt ausgenutzt, um in eine Styrolkette definierte und lokal scharf abgegrenzte Funktionssequenzen einzubauen. Uber eine kontrollierte radikalische Polymerisationsmethode (ATRP) wurden in einer Ein-Topf-Synthese über das N-substituierte Maleinimid chemische Funktionen an einer beliebigen Stelle der Polystyrolkette eingebaut. Es gelang ebenfalls, vier unterschiedliche Funktionen in einer vorgegebenen Sequenz in die Polymerkette einzubauen. Diese Technik wurde an zwanzig verschiedenen N-substituierten Maleinimiden getestet, die meisten konnten erfolgreich in die Polymerkette integriert werden. In dem zweiten in dieser Arbeit vorgestellten Ansatz zur Sequenzkontrolle, wurde der schrittweise Aufbau eines Oligomers aus hydrophoben und hydrophilen Segmenten (ω-Alkin-Carbonsäure bzw. α-Amin-ω-Azid-Oligoethylenglycol) an einem löslichen Polymerträger durchgeführt. Das Oligomer konnte durch die geschickte Auswahl der Verknüpfungsreaktionen ohne Schutzgruppenstrategie synthetisiert werden. Der lösliche Polymerträger aus Polystyrol wurde mittels ATRP selbst synthetisiert. Dazu wurde ein Startreagenz (Initiator) entwickelt, das in der Mitte einen säurelabilen Linker, auf der einen Seite die initiierende Einheit und auf der anderen die Ankergruppe für die Anbindung des ersten Segments trägt. Der lösliche Polymerträger ermöglichte einerseits die schrittweise Synthese in Lösung. Andererseits konnten überschüssige Reagenzien und Nebenprodukte zwischen den Reaktionsschritten durch Fällung in einem Nicht-Lösungsmittel einfach abgetrennt werden. Der Linker ermöglichte die Abtrennung des Oligomers aus jeweils drei hydrophoben und hydrophilen Einheiten nach der Synthese.
Managment von Gesundheitsnetzwerken : eine empirische Analyse in der deutschen Gesundheitswirtschaft
(2011)
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
Conventional energy sources are diminishing and non-renewable, take million years to form and cause environmental degradation. In the 21st century, we have to aim at achieving sustainable, environmentally friendly and cheap energy supply by employing renewable energy technologies associated with portable energy storage devices. Lithium-ion batteries can repeatedly generate clean energy from stored materials and convert reversely electric into chemical energy. The performance of lithium-ion batteries depends intimately on the properties of their materials. Presently used battery electrodes are expensive to be produced; they offer limited energy storage possibility and are unsafe to be used in larger dimensions restraining the diversity of application, especially in hybrid electric vehicles (HEVs) and electric vehicles (EVs). This thesis presents a major progress in the development of LiFePO4 as a cathode material for lithium-ion batteries. Using simple procedure, a completely novel morphology has been synthesized (mesocrystals of LiFePO4) and excellent electrochemical behavior was recorded (nanostructured LiFePO4). The newly developed reactions for synthesis of LiFePO4 are single-step processes and are taking place in an autoclave at significantly lower temperature (200 deg. C) compared to the conventional solid-state method (multi-step and up to 800 deg. C). The use of inexpensive environmentally benign precursors offers a green manufacturing approach for a large scale production. These newly developed experimental procedures can also be extended to other phospho-olivine materials, such as LiCoPO4 and LiMnPO4. The material with the best electrochemical behavior (nanostructured LiFePO4 with carbon coating) was able to delive a stable 94% of the theoretically known capacity.
The complete consumption of the oceanic domain of a tectonic plate by subduction into the upper mantle results in continent subduction, although continental crust is typically of lower density than the upper mantle. Thus, the sites of former oceanic domains (named suture zones) are generally decorated with stratigraphic sequences deposited along continental passive margins that were metamorphosed under low-grade, high-pressure conditions, i.e., low temperature/depth ratios (< 15°C/km) with respect to geothermal gradients in tectonically stable regions. Throughout the Mesozoic and Cenozoic (i.e., since ca. 250 Ma), the Mediterranean realm was shaped by the closure of the Tethyan Ocean, which likely consisted in numerous oceanic domains and microcontinents. However, the exact number and position of Tethyan oceans and continents (i.e., the Tethyan palaeogeography) remains debated. This is particularly the case of Western and Central Anatolia, where a continental fragment was accreted to the southern composite margin of the Eurasia sometime between the Late Cretaceous and the early Cenozoic. The most frontal part of this microcontinent experienced subduction-related metamorphism around 85-80 Ma, and collision-related metamorphism affected more external parts around 35 Ma. This unsually-long period between subduction- and collision-related metamorphisms (ca. 50 Ma) in units ascribed to the same continental edge constitutes a crucial issue to address in order to unravel how Anatolia was assembled. The Afyon Zone is a tectono-sedimentary unit exposed south and structurally below the front high-pressure belt. It is composed of a Mesozoic sedimentary sequence deposited on top of a Precambrian to Palaeozoic continental substratum, which can be traced from Northwestern to southern Central Anatolia, along a possible Tethyan suture. Whereas the Afyon Zone was defined as a low-pressure metamorphic unit, high-pressure minerals (mainly Fe-Mg-carpholite in metasediments) were recently reported from its central part. These findings shattered previous conceptions on the tectono-metamorphic evolution of the Afyon Zone in particular, and of the entire region in general, and shed light on the necessity to revise the regional extent of subduction-related metamorphism by re-inspecting the petrology of poorly-studied metasediments. In this purpose, I re-evaluated the metamorphic evolution of the entire Afyon Zone starting from field observations. Low-grade, high-pressure mineral assemblages (Fe-Mg-carpholite and glaucophane) are reported throughout the unit. Well-preserved carpholite-chloritoid assemblages are useful to improve our understanding of mineral relations and transitions in the FeO-MgO-Al2O3-SiO2-H2O system during rocks’ travel down to depth (prograde metamorphism). Inspection of petrographic textures, minute variations in mineral composition and Mg-Fe distribution among carpholite-chloritoid assemblages documents multistage mineral growth, accompanied by a progressive enrichment in Mg, and strong element partitioning. Using an updated database of mineral thermodynamic properties, I modelled the pressure and temperature conditions that are consistent with textural and chemical observations. Carpholite-bearing assemblages in the Afyon Zone account for a temperature increase from 280 to 380°C between 0.9 and 1.1 GPa (equivalent to a depth of 30-35 km). In order to further constrain regional geodynamics, first radiometric ages were determined in close association with pressure-temperature estimates for the Afyon Zone, as well as two other tectono-sedimentary units from the same continental passive margin (the Ören and Kurudere-Nebiler Units from SW Anatolia). For age determination, I employed 40Ar-39Ar geochronology on white mica in carpholite-bearing rocks. For thermobarometry, a multi-equilibrium approach was used based on quartz-chlorite-mica and quartz-chlorite-chloritoid associations formed at the expense of carpholite-bearing assemblages, i.e., during the exhumation from the subduction zone. This combination allows deciphering the significance of the calculated radiometric ages in terms of metamorphic conditions. Results show that the Afyon Zone and the Ören Unit represent a latest Cretaceous high-pressure metamorphic belt, and the Kurudere-Nebiler Unit was affected by subduction-related metamorphism around 45 Ma and cooled down after collision-related metamorphism around 26 Ma. The results provided in the present thesis and from the literature allow better understanding continental amalgamation in Western Anatolia. It is shown that at least two distinct oceanic branches, whereas only one was previously considered, have closed during continuous north-dipping subduction between 92 and 45 Ma. Between 85-80 and 70-65 Ma, a narrow continental domain (including the Afyon Zone) was buried into a subduction zone within the northern oceanic strand. Parts of the subducted continent crust were exhumed while the upper oceanic plate was transported southwards. Subduction of underlying lithosphere persisted, leading to the closure of the southern oceanic branch and to subduct the front of a second continental domain (including the Kurudere-Nebiler Unit). This followed by a continental collisional stage characterized by the cease of subduction, crustal thicknening and the detachment of the subducting oceanic slab from the accreted continent lithosphere. The present study supports that in the late Mesozoic the East Mediterranean realm had a complex tectonic configuration similar to present Southeast Asia or the Caribbean, with multiple, coexisting oceanic basins, microcontinents and subduction zones.
Complete protection against flood risks by structural measures is impossible. Therefore flood prediction is important for flood risk management. Good explanatory power of flood models requires a meaningful representation of bio-physical processes. Therefore great interest exists to improve the process representation. Progress in hydrological process understanding is achieved through a learning cycle including critical assessment of an existing model for a given catchment as a first step. The assessment will highlight deficiencies of the model, from which useful additional data requirements are derived, giving a guideline for new measurements. These new measurements may in turn lead to improved process concepts. The improved process concepts are finally summarized in an updated hydrological model. In this thesis I demonstrate such a learning cycle, focusing on the advancement of model evaluation methods and more cost effective measurements. For a successful model evaluation, I propose that three questions should be answered: 1) when is a model reproducing observations in a satisfactory way? 2) If model results deviate, of what nature is the difference? And 3) what are most likely the relevant model components affecting these differences? To answer the first two questions, I developed a new method to assess the temporal dynamics of model performance (or TIGER - TIme series of Grouped Errors). This method is powerful in highlighting recurrent patterns of insufficient model behaviour for long simulation periods. I answered the third question with the analysis of the temporal dynamics of parameter sensitivity (TEDPAS). For calculating TEDPAS, an efficient method for sensitivity analysis is necessary. I used such an efficient method called Fourier Amplitude Sensitivity Test, which has a smart sampling scheme. Combining the two methods TIGER and TEDPAS provided a powerful tool for model assessment. With WaSiM-ETH applied to the Weisseritz catchment as a case study, I found insufficient process descriptions for the snow dynamics and for the recession during dry periods in late summer and fall. Focusing on snow dynamics, reasons for poor model performance can either be a poor representation of snow processes in the model, or poor data on snow cover, or both. To obtain an improved data set on snow cover, time series of snow height and temperatures were collected with a cost efficient method based on temperature measurements on multiple levels at each location. An algorithm was developed to simultaneously estimate snow height and cold content from these measurements. Both, snow height and cold content are relevant quantities for spring flood forecasting. Spatial variability was observed at the local and the catchment scale with an adjusted sampling design. At the local scale, samples were collected on two perpendicular transects of 60 m length and analysed with geostatistical methods. The range determined from fitted theoretical variograms was within the range of the sampling design for 80% of the plots. No patterns were found, that would explain the random variability and spatial correlation at the local scale. At the watershed scale, locations of the extensive field campaign were selected according to a stratified sample design to capture the combined effects of elevation, aspect and land use. The snow height is mainly affected by the plot elevation. The expected influence of aspect and land use was not observed. To better understand the deficiencies of the snow module in WaSiM-ETH, the same approach, a simple degree day model was checked for its capability to reproduce the data. The degree day model was capable to explain the temporal variability for plots with a continuous snow pack over the entire snow season, if parameters were estimated for single plots. However, processes described in the simple model are not sufficient to represent multiple accumulation-melt-cycles, as observed for the lower catchment. Thus, the combined spatio-temporal variability at the watershed scale is not captured by the model. Further tests on improved concepts for the representation of snow dynamics at the Weißeritz are required. From the data I suggest to include at least rain on snow and redistribution by wind as additional processes to better describe spatio-temporal variability. Alternatively an energy balance snow model could be tested. Overall, the proposed learning cycle is a useful framework for targeted model improvement. The advanced model diagnostics is valuable to identify model deficiencies and to guide field measurements. The additional data collected throughout this work helps to get a deepened understanding of the processes in the Weisseritz catchment.
Salty taste has evolved to maintain electrolyte homeostasis, serving as a detector for salt containing food. In rodents, salty taste involves at least two transduction mechanisms. One is sensitive to the drug amiloride and specific for Na+, involving epithelial sodium channel (ENaC). A second rodent transduction pathway, which is triggered by various cations, is amiloride insensitive and not almost understood to date. Studies in primates showed amiloride-sensitive as well as amiloride-insensitive gustatory responses to NaCl, implying a role of both salt taste transduction pathways in humans. However, sensory studies in humans point to largely amiloride-insensitive sodium taste perception. An involvement of ENaC in human sodium taste perception was not shown, so far. In this study, ENaC subunit protein and mRNA could be localized to human taste bud cells (TBC). Thus, basolateral αβγ-ENaC ion channels are likely in TBC of circumvallate papillae, possibly mediating basolateral sodium entry. Similarly, basolateral βγ-ENaC might play a role in fungiform TBC. Strikingly, δ-ENaC subunit was confined to taste bud pores of both papillae, likely mediating gustatory sodium entry in TBC, either apical or paracellular via tight junctions. However, regional separation of δ-ENaC and βγ-ENaC in fungiform and circumvallate TBC indicate the presence of unknown interaction partner necessary to assemble into functional ion channels. However, screening of a macaque taste tissue cDNA library did neither reveal polypeptides assembling into a functional cation channel by interaction with δ-ENaC or βγ-ENaC nor ENaC independent salt taste receptor candidates. Thus, ENaC subunits are likely involved in human taste transduction, while exact composition and identity of an amiloride (in)sensitive salt taste receptors remain unclear. Localization of δ-ENaC in human taste pores strongly suggests a role in human taste transduction. In contrast, δ-ENaC is classified as pseudogene Scnn1d in mouse. However, no experimental detected sequences are annotated, while evidences for parts of Scnn1d derived mRNAs exist. In order to elucidate if Scnn1d is possibly involved in rodent salt taste perception, Scnn1d was evaluated in this study to clarify if Scnn1d is a gene or a transcribed pseudogene in mice. Comparative mapping of human SCNN1D to mouse chromosome 4 revealed complete Scnn1d sequence as well as its pseudogenization by Mus specific endogenous retroviruses. Moreover, tissue specific transcription of unitary Scnn1d pseudogene was found in mouse vallate papillae, kidney and testis and led to identification of nine Scnn1d transcripts. In vitro translation experiments showed that Scnn1d transcripts are coding competent for short polypeptides, possibly present in vivo. However, no sodium channel like function or sodium channel modulating activity was evident for Scnn1d transcripts and/or derived polypeptides. Thus, an involvement of mouse δ-ENaC in sodium taste transduction is unlikely and points to species specific differences in salt taste transduction mechanisms.
Cognitive psychology is traditionally interested in the interaction of perception, cognition, and behavioral control. Investigating eye movements in reading constitutes a field of research in which the processes and interactions of these subsystems can be studied in a well-defined environment. Thereby, the following questions are pursued: How much information is visually perceived during a fixation, how is processing achieved and temporally coordinated from visual letter encoding to final sentence comprehension, and how do such processes reflect on behavior such as the control of the eyes’ movements during reading. Various theoretical models have been proposed to account for the specific eye-movement behavior in reading (for a review see Reichle, Rayner, & Pollatsek, 2003). Some models are based on the idea of shifting attention serially from one word to the next within the sentence whereas others propose distributed attention allocating processing resources to more than one word at a time. As attention is assumed to drive word recognition processes one major difference between these models is that word processing must either occur in strict serial order, or that word processing is achieved in parallel. In spite of this crucial difference in the time course of word processing, both model classes perform well on explaining many of the benchmark effects in reading. In fact, there seems to be not much empirical evidence that challenges the models to a point at which their basic assumptions could be falsified. One issue often perceived as being decisive in the debate on serial and parallel word processing is how not-yet-fixated words to the right of fixation affect eye movements. Specifically, evidence is discussed as to what spatial extent such parafoveal words are previewed and how this influences current and subsequent word processing. Four experiments investigated parafoveal processing close to the spatial limits of the perceptual span. The present work aims to go beyond mere existence proofs of previewing words at such spatial distances. Introducing a manipulation that dissociates the sources of long-range preview effects, benefits and costs of parafoveal processing can be investigated in a single analysis and the differing impact is tracked across a three-word target region. In addition, the same manipulation evaluates the role of oculomotor error as the cause of non-local distributed effects. In this respect, the results contribute to a better understanding of the time course of word processing inside the perceptual span and attention allocation during reading.